YouTube usunął filmy znanego szachisty. Powód: "biały bił czarnego"

Pod koniec czerwca 2020 roku, algorytm YouTube'a uznał filmy przedstawiające pojedynki w szachach za rasistowskie. Z kanału Antonio Radića, znanego bliżej jako "Agadmator", zniknęły wszystkie produkcje. Teraz pewien programista sprawdził, dlaczego algorytm popełnił tak kuriozalny błąd.

SzachyWedług algorytmu, szachy są rasistowskie
Źródło zdjęć: © YouTube | Agadmator
Arkadiusz Stando

O sprawie informował w ubiegłym roku serwis O2. 28 czerwca 2020 roku, filmy Agadmatora (1 milion subskrypcji) zaczęły nagle znikać z YouTube'a. Szachista dowiedział się o tym dopiero od swoich fanów. Okazało się, że jego filmy zniknęły z serwisu przez "złamanie regulaminu, obraźliwą i szkodliwą zawartość".

Nad moderacją tego typu treści w serwisie pracuje algorytm. Sztuczna inteligencja analizuje zawartość filmów ich nazwę i opis oraz komentarze. Następnie algorytm wyszukuje słowa "zakazane" i próbuje zbudować kontekst. Jeśli znajdzie zbyt wiele określeń typu "biały bije czarnego", może uznać, że nagranie zawiera rasistowską treść. A przecież to standardowy element szachowej rozgrywki.

How I Tricked an International Master - My Plan Was To Resign

Czy szachy to rasistowska gra? Według algorytmu – tak

Teraz naukowcy z Carnegie Mellon University rozpoczęli badanie nad tym, dlaczego sztuczna inteligencja popełniła tak absurdalny błąd. Wyniki są dość niepokojące, ponieważ wskazują, że algorytm opracowany przez YouTube zupełnie sobie nie radzi. Przypadek Agadmatora to zaledwie kropla w morzu wszystkich problemów cyfrowego moderatora.

"Jeśli wykorzystają sztuczną inteligencję do wykrywania rasistowskich określeń, taki wypadek może się zdarzyć" - powiedział Ashiqur KhudaBukhsh, naukowiec z Instytutu Technologii Językowych CMU. Badacz przetestował swoją teorię, korzystając z najnowszej wersji algorytmu. Następnie sprawdził 680 tysięcy komentarzy pochodzących z pięciu popularnych kanałów szachowych na YouTube.

Następnie przejrzał ręcznie 1000 komentarzy, które sztuczna inteligencja sklasyfikowała jako "szerzenie nienawiści". Aż 82 procent z nich zostało błędnie sklasyfikowanych z powodu użycia słów takich jak "czarny", "biały", "atak" lub "zagrożenie". Wszystkie z nich to standardowe określenia w szachowym żargonie.

Źródło artykułu: WP Tech
Wybrane dla Ciebie
Ujawnili tajne dokumenty. Rosja wspiera tajemniczego klienta
Ujawnili tajne dokumenty. Rosja wspiera tajemniczego klienta
Lecą na dwa fronty. Kupują od Amerykanów, produkują dla Europy
Lecą na dwa fronty. Kupują od Amerykanów, produkują dla Europy
Długo stały w magazynach. W końcu Ukraińcy je pokazali
Długo stały w magazynach. W końcu Ukraińcy je pokazali
Tajemniczy grzyb z Czarnobyla. "Żywi się" promieniowaniem
Tajemniczy grzyb z Czarnobyla. "Żywi się" promieniowaniem
Eksplodowała chwilę po starcie. Rosjanie strzelili sami w siebie
Eksplodowała chwilę po starcie. Rosjanie strzelili sami w siebie
Spojrzał w niebo. Uchwycił niedostrzegalne zjawisko
Spojrzał w niebo. Uchwycił niedostrzegalne zjawisko
Największy taki zakup. Polska zawarła kontrakt z Amerykanami
Największy taki zakup. Polska zawarła kontrakt z Amerykanami
Chcieli wystraszyć Zachód. Rosyjska rakieta spadła na ziemię
Chcieli wystraszyć Zachód. Rosyjska rakieta spadła na ziemię
Rozważają rezygnację z F-35. USA coraz mocniej się niecierpliwią
Rozważają rezygnację z F-35. USA coraz mocniej się niecierpliwią
Polska zamówiła więcej Herculesów. To pancerne warsztaty dla Abramsów
Polska zamówiła więcej Herculesów. To pancerne warsztaty dla Abramsów
To "mały Einstein". Ma 15 lat i doktorat z fizyki kwantowej
To "mały Einstein". Ma 15 lat i doktorat z fizyki kwantowej
Stacja kosmiczna Lunar Gateway powstanie? ESA potwierdza
Stacja kosmiczna Lunar Gateway powstanie? ESA potwierdza
MOŻE JESZCZE JEDEN ARTYKUŁ? ZOBACZ CO POLECAMY 🌟