Reklamodawcy wycofują się z Facebooka

Reklamodawcy wycofują się z Facebooka

Reklamodawcy wycofują się z Facebooka
Źródło zdjęć: © Free for Commercial Use / flickr.com / CC
03.06.2013 13:30

Jak donosi agencja informacyjna Reuters, 13 reklamodawców wycofało reklamy z Facebooka po ujawnieniu problemów z mechanizmem usuwania obraźliwych słów i negatywnych treści.

Na początku tygodnia zespół odpowiedzialny za bezpieczeństwo treści w firmie Facebook opublikował post na swoim blogu przyznający, że mechanizm usuwania obraźliwych treści dotyczących np. nienawiści do kobiet, nadal nie działa poprawnie.

Na następny dzień brytyjska edycja MediaWeek podała, że 1. marek wycofało swoje reklamy z Facebooka, aby nie pojawiać się obok negatywnych treści. Następnie New York Times poinformował, że wśród wycofujących się z mediów społecznościowych jest producent samochodów Nissan. Jeszcze tego samego dnia rzecznik Nissana w Ameryce Dawid Reuter dementował, że wycofane zostały reklamy jedynie z brytyjskiej części Facebooka i że Nissan nie zmienia swojej strategii w odniesieniu do mediów społecznościowych globalnie.

Faktem pozostaje jednak, że duże, szanujące się i dbające o wizerunek firmy nie chcą, aby reklamy ich produktów pojawiały się w kontekście obraźliwych komentarzy, mimo że sami reklamodawcy nie mają z nimi nic wspólnego. Kontekst pozostaje negatywny.

Pracownicy Facebooka w poście opublikowanym na swoim blogu przyznają: - _ Pracujemy od kilku miesięcy nad ulepszeniem systemu reakcji na zgłoszenia nadużyć, ale wytyczne używane w systemie moderacji nadal nie wyłapują wszystkich negatywnych treści. Musimy zrobić to lepiej – i zrobimy _.

Wypowiedzi pracowników Facebooka to reakcja na list otwarty wystosowany w zeszłym tygodniu przez Women, Action & the Media - grupę, która wezwała firmę do skuteczniejszego reagowania na treści, które „trywializują lub gloryfikują przemoc wobec dziewcząt lub kobiet”. Grupa zachęcała również użytkowników Facebooka do kontaktowania się z firmami, których reklamy pojawiają się obok tego typu negatywnych treści.

Dlaczego Facebook ma problem z mechanizmem usuwania mowy nienawiści?

- _ Aby usunąć mowę nienawiści, czy jakiekolwiek inne niepożądane treści, należy po pierwsze liczyć na raportowanie takich stron przez użytkowników i potem ręczną weryfikację przez moderatorów, a po drugie oprzeć się na zaawansowanym systemie automatycznie weryfikującym treści _- wyjaśnia Krzysztof Kicior-Rychlicki z Makimo Systems firmy zajmującej się inteligentnymi systemami tłumaczeń treści. Moderatorzy treści stanowią rozwiązanie bardzo drogie, zważywszy na ilość treści publikowanych na całym świecie i potrzebę szybkiej reakcji na zmiany. Dodatkowo, zarówno Facebook jak i Google często korzystają z nisko płatnych usług off-shore do moderacji treści, przez co ich jakość jest wątpliwa. Globalnie to olbrzymia operacja obejmująca tysiące moderatorów.

Automatyczny algorytm treści nie da rady

Najlepszym rozwiązaniem byłaby automatyzacja procesu i zlecenie pracy robotom i komputerom, które podążają za algorytmem wykrywania słów negatywnych. Tego jednak zrobić się nie da. - _ Problem w tym, że wykrywanie mowy nienawiści, czy to skierowanej na płeć, religię, czy cokolwiek innego, nie może być zrealizowane tylko na podstawie np. filtrowania tekstów wg. określonych słów. Często liczy się kontekst - słowa same z siebie nie są wulgarne, czy też obraźliwe, ale połączone ze sobą dają taki właśnie przekaz _ –. tłumaczy specjalista z Makimo Systems. Komputer nie rozumie metafor czy odniesień do rozmaitych aspektów kulturowych, które ludzie chwytają w mig. Wyobraźmy sobie zdanie „Ten celebryta jest niespełna rozumu”. Żadne z tych słów nie jest obraźliwe, ale wypowiedź jest jednoznacznie negatywna i mogłaby wywołać burzę wśród użytkowników.

Jakby tego było mało, system automatycznie dopasowuje reklamy do użytkowników, przez co mogą one pojawiać się również przy treściach obraźliwych, dopóki te nie zostaną zdjęte z serwisu. To oczywiście bardzo duży problem dla reklamodawców.

Podsumowując, prewencja, do której zaliczamy automatyczne i ręczne analizowanie treści, jest nie do końca skuteczna i droga, a późniejsza obsługa zgłoszeń związanych z mową nienawiści wymaga bardzo precyzyjnych kryteriów klasyfikacji treści niepożądanych, a także procesów postępowania z nimi. Jak widać, te kryteria i procesy są nadal niedopracowane.

Facebook musi w niedługim czasie znaleźć sposób na uporanie się z problemem, jeśli nie chce tracić dużych reklamodawców, a co za tym idzie pieniędzy na rozwój serwisów.

Polecamy w wydaniu internetowym chip.pl: "Cicha inwestycja Billa Gatesa"

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (6)