Na początku tygodnia zespół odpowiedzialny za bezpieczeństwo treści w firmie Facebook opublikował post na swoim blogu przyznający, że mechanizm usuwania obraźliwych treści dotyczących np. nienawiści do kobiet, nadal nie działa poprawnie. Na następny dzień brytyjska edycja „MediaWeek” podała, że 13 marek wycofało swoje reklamy z Facebooka, aby nie pojawiać się obok negatywnych treści. Następnie „New York Times” poinformował, że wśród wycofujących się z mediów społecznościowych jest producent samochodów Nissan. Jeszcze tego samego dnia rzecznik Nissana w Ameryce Dawid Reuter dementował, że wycofane zostały reklamy jedynie z brytyjskiej części Facebooka, i że Nissan nie zmienia swojej strategii w odniesieniu do mediów społecznościowych globalnie.
Faktem pozostaje jednak, że duże, szanujące się i dbające o wizerunek firmy nie chcą, aby reklamy ich produktów pojawiały się w kontekście obraźliwych komentarzy, mimo, że sami reklamodawcy nie mają z nimi nic wspólnego. Kontekst pozostaje negatywny.
Pracownicy Facebooka w poście opublikowanym na swoim blogu przyznają: „Pracujemy od kilku miesięcy nad ulepszeniem systemu reakcji na zgłoszenia nadużyć, ale wytyczne używane w systemie moderacji nadal nie wyłapują wszystkich negatywnych treści. Musimy zrobić to lepiej – i zrobimy”.
Wypowiedzi pracowników Facebooka to reakcja na list otwarty wystosowany w zeszłym tygodniu przez „Women, Action & the Media” – grupę, która wezwała firmę do skuteczniejszego reagowania na treści, które „trywializują lub gloryfikują przemoc wobec dziewcząt lub kobiet”. Grupa zachęcała również użytkowników Facebooka do kontaktowania się z firmami, których reklamy pojawiają się obok tego typu negatywnych treści.
Dlaczego Facebook ma problem z mechanizmem usuwania mowy nienawiści? – Aby usunąć mowę nienawiści, czy jakiekolwiek inne niepożądane treści, należy po pierwsze liczyć na raportowanie takich stron przez użytkowników i potem ręczną weryfikację przez moderatorów, a po drugie oprzeć się na zaawansowanym systemie automatycznie weryfikującym treści – wyjaśnia Krzysztof Kicior-Rychlicki z Makimo Systems, firmy zajmującej się inteligentnymi systemami tłumaczeń treści.
Moderatorzy treści stanowią rozwiązanie bardzo drogie, zważywszy na ilość treści publikowanych na całym świecie i potrzebę szybkiej reakcji na zmiany. Dodatkowo, zarówno Facebook jak i Google często korzystają z nisko płatnych usług off-shore do moderacji treści, przez co ich jakość jest wątpliwa. Globalnie to olbrzymia operacja obejmująca tysiące moderatorów.
Automatyczny algorytm treści nie da rady. Najlepszym rozwiązaniem byłaby automatyzacja procesu i zlecenie pracy robotom i komputerom, które podążają za algorytmem wykrywania słów negatywnych. Tego jednak zrobić się nie da. – Problem w tym, że wykrywanie mowy nienawiści, czy to skierowanej na płeć, religię, czy cokolwiek innego, nie może być zrealizowane tylko na podstawie np. filtrowania tekstów wg. określonych słów. Często liczy się kontekst – słowa same z siebie nie są wulgarne, czy też obraźliwe, ale połączone ze sobą dają taki właśnie przekaz – tłumaczy specjalista z Makimo Systems.
Komputer nie rozumie metafor czy odniesień do rozmaitych aspektów kulturowych, które ludzie chwytają w mig. Wyobraźmy sobie zdanie „Jurek Owsiak jest niespełna rozumu”. Żadne z tych słów nie jest obraźliwe, ale wypowiedź jest jednoznacznie negatywna i mogłaby wywołać burzę wśród użytkowników. Jakby tego było mało, system automatycznie dopasowuje reklamy do użytkowników, przez co mogą one pojawiać się również przy treściach obraźliwych, dopóki te nie zostaną zdjęte z serwisu. To oczywiście bardzo duży problem dla reklamodawców.
Podsumowując, prewencja, do której zaliczamy automatyczne i ręczne analizowanie treści, jest nie do końca skuteczna i droga, a późniejsza obsługa zgłoszeń związanych z mową nienawiści wymaga bardzo precyzyjnych kryteriów klasyfikacji treści niepożądanych, a także procesów postępowania z nimi. Jak widać, te kryteria i procesy są nadal niedopracowane. Zarówno Google jak i Facebook musi w niedługim czasie znaleźć sposób na uporanie się z problemem jeśli nie chcą tracić dużych reklamodawców, a co za tym idzie pieniędzy na rozwój serwisów.
Tekst źródłowy: http://uk.reuters.com/article/2013/05/29/us-facebook-hate-idUKBRE94S0OJ20130529