YouTube usunął filmy znanego szachisty. Powód: "biały bił czarnego"

YouTube usunął filmy znanego szachisty. Powód: "biały bił czarnego"

Według algorytmu, szachy są rasistowskie
Według algorytmu, szachy są rasistowskie
Źródło zdjęć: © YouTube | Agadmator
Arkadiusz Stando
21.02.2021 10:12

Pod koniec czerwca 2020 roku, algorytm YouTube'a uznał filmy przedstawiające pojedynki w szachach za rasistowskie. Z kanału Antonio Radića, znanego bliżej jako "Agadmator", zniknęły wszystkie produkcje. Teraz pewien programista sprawdził, dlaczego algorytm popełnił tak kuriozalny błąd.

O sprawie informował w ubiegłym roku serwis O2. 28 czerwca 2020 roku, filmy Agadmatora (1 milion subskrypcji) zaczęły nagle znikać z YouTube'a. Szachista dowiedział się o tym dopiero od swoich fanów. Okazało się, że jego filmy zniknęły z serwisu przez "złamanie regulaminu, obraźliwą i szkodliwą zawartość".

Nad moderacją tego typu treści w serwisie pracuje algorytm. Sztuczna inteligencja analizuje zawartość filmów ich nazwę i opis oraz komentarze. Następnie algorytm wyszukuje słowa "zakazane" i próbuje zbudować kontekst. Jeśli znajdzie zbyt wiele określeń typu "biały bije czarnego", może uznać, że nagranie zawiera rasistowską treść. A przecież to standardowy element szachowej rozgrywki.

How I Tricked an International Master - My Plan Was To Resign

Czy szachy to rasistowska gra? Według algorytmu – tak

Teraz naukowcy z Carnegie Mellon University rozpoczęli badanie nad tym, dlaczego sztuczna inteligencja popełniła tak absurdalny błąd. Wyniki są dość niepokojące, ponieważ wskazują, że algorytm opracowany przez YouTube zupełnie sobie nie radzi. Przypadek Agadmatora to zaledwie kropla w morzu wszystkich problemów cyfrowego moderatora.

"Jeśli wykorzystają sztuczną inteligencję do wykrywania rasistowskich określeń, taki wypadek może się zdarzyć" - powiedział Ashiqur KhudaBukhsh, naukowiec z Instytutu Technologii Językowych CMU. Badacz przetestował swoją teorię, korzystając z najnowszej wersji algorytmu. Następnie sprawdził 680 tysięcy komentarzy pochodzących z pięciu popularnych kanałów szachowych na YouTube.

Następnie przejrzał ręcznie 1000 komentarzy, które sztuczna inteligencja sklasyfikowała jako "szerzenie nienawiści". Aż 82 procent z nich zostało błędnie sklasyfikowanych z powodu użycia słów takich jak "czarny", "biały", "atak" lub "zagrożenie". Wszystkie z nich to standardowe określenia w szachowym żargonie.

Źródło artykułu:WP Tech
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (55)