YouTube usunął filmy znanego szachisty. Powód: "biały bił czarnego"

Pod koniec czerwca 2020 roku, algorytm YouTube'a uznał filmy przedstawiające pojedynki w szachach za rasistowskie. Z kanału Antonio Radića, znanego bliżej jako "Agadmator", zniknęły wszystkie produkcje. Teraz pewien programista sprawdził, dlaczego algorytm popełnił tak kuriozalny błąd.

SzachyWedług algorytmu, szachy są rasistowskie
Źródło zdjęć: © YouTube | Agadmator
Arkadiusz Stando

O sprawie informował w ubiegłym roku serwis O2. 28 czerwca 2020 roku, filmy Agadmatora (1 milion subskrypcji) zaczęły nagle znikać z YouTube'a. Szachista dowiedział się o tym dopiero od swoich fanów. Okazało się, że jego filmy zniknęły z serwisu przez "złamanie regulaminu, obraźliwą i szkodliwą zawartość".

Nad moderacją tego typu treści w serwisie pracuje algorytm. Sztuczna inteligencja analizuje zawartość filmów ich nazwę i opis oraz komentarze. Następnie algorytm wyszukuje słowa "zakazane" i próbuje zbudować kontekst. Jeśli znajdzie zbyt wiele określeń typu "biały bije czarnego", może uznać, że nagranie zawiera rasistowską treść. A przecież to standardowy element szachowej rozgrywki.

How I Tricked an International Master - My Plan Was To Resign

Czy szachy to rasistowska gra? Według algorytmu – tak

Teraz naukowcy z Carnegie Mellon University rozpoczęli badanie nad tym, dlaczego sztuczna inteligencja popełniła tak absurdalny błąd. Wyniki są dość niepokojące, ponieważ wskazują, że algorytm opracowany przez YouTube zupełnie sobie nie radzi. Przypadek Agadmatora to zaledwie kropla w morzu wszystkich problemów cyfrowego moderatora.

"Jeśli wykorzystają sztuczną inteligencję do wykrywania rasistowskich określeń, taki wypadek może się zdarzyć" - powiedział Ashiqur KhudaBukhsh, naukowiec z Instytutu Technologii Językowych CMU. Badacz przetestował swoją teorię, korzystając z najnowszej wersji algorytmu. Następnie sprawdził 680 tysięcy komentarzy pochodzących z pięciu popularnych kanałów szachowych na YouTube.

Następnie przejrzał ręcznie 1000 komentarzy, które sztuczna inteligencja sklasyfikowała jako "szerzenie nienawiści". Aż 82 procent z nich zostało błędnie sklasyfikowanych z powodu użycia słów takich jak "czarny", "biały", "atak" lub "zagrożenie". Wszystkie z nich to standardowe określenia w szachowym żargonie.

Źródło artykułu: WP Tech

Wybrane dla Ciebie

Powstanie nowy sojusz wojskowy? Będzie podobny do NATO
Powstanie nowy sojusz wojskowy? Będzie podobny do NATO
Nothing odpalił promocję. 1000 zł rabatu na nowy smartfon
Nothing odpalił promocję. 1000 zł rabatu na nowy smartfon
Polski akcent misji IMAP. Nowa era badań kosmicznych
Polski akcent misji IMAP. Nowa era badań kosmicznych
Chiny zestrzeliły meteoryt? Ukraińcy przeanalizowali nagranie
Chiny zestrzeliły meteoryt? Ukraińcy przeanalizowali nagranie
Była na nich woda dłużej niż sądzono. Pomóc mają badania nad asteroidą
Była na nich woda dłużej niż sądzono. Pomóc mają badania nad asteroidą
Ukraiński gigant w Polsce. Nie wiadomo, w jakim celu przyleciał
Ukraiński gigant w Polsce. Nie wiadomo, w jakim celu przyleciał
Ciekawe zjawisko. Księżyc regularnie oddala się od Ziemi
Ciekawe zjawisko. Księżyc regularnie oddala się od Ziemi
Kupowali broń z Rosji i Chin. Nieoczekiwanie zmienili kierunek
Kupowali broń z Rosji i Chin. Nieoczekiwanie zmienili kierunek
Japonia testuje broń przyszłości. Zatopiła statek strzałami z railguna
Japonia testuje broń przyszłości. Zatopiła statek strzałami z railguna
Niezwykły zakątek kosmosu. Gwiazdy powstają dziesięć razy szybciej
Niezwykły zakątek kosmosu. Gwiazdy powstają dziesięć razy szybciej
Wpływał na ich życie. Można wyczytać to w zębach
Wpływał na ich życie. Można wyczytać to w zębach
ORLEN Neptun rozwija terminal w Świnoujściu. Smulders dołącza do grona partnerów
ORLEN Neptun rozwija terminal w Świnoujściu. Smulders dołącza do grona partnerów