Przemyśl, zanim napiszesz komentarz na YouTube. SI da ci znać, jeśli będzie obraźliwy
Google wprowadza nowe rozwiązania sztucznej inteligencji na YouTube. Jej celem będzie sprawdzanie znaczenia komentarzy i w razie wykrycia obraźliwych treści zasugerowanie użytkownikowi zmian. Oczywiście będzie można to zignorować i napisać swoje.
Nigdzie nie ma tak dużo hejtu jak w mediach społecznościowych. Jakby nie patrzeć – jest nim też YouTube. Google zdaje sobie z tego sprawę i dlatego przedstawia rozwiązanie sztucznej inteligencji sprawdzające komentarze jeszcze przed ich publikacją. W poście na blogu YouTube przeczytamy o tym, że "[SI] ostrzeże użytkownika o obraźliwej treści komentarza i da mu szansę się zreflektować".
Nowa funkcja jest już działa w aplikacji na Androida. Mimo tego, że użytkownik dostanie ostrzeżenie, będzie mógł je zignorować i opublikować komentarz. Jeśli ten zostanie uznany za łamiący politykę serwisu i tak zostanie usunięty przez YT później. Algorytm portalu uczy się na podstawie komentarzy, które zostały zgłoszone przez użytkowników.
Kolejne zabezpieczenie jest dodatkiem do i tak sporej już puli rozwiązań opartych na SI. YouTube obecnie blokuje i usuwa: treści dezinformacyjne, teorie spiskowe, oznaki dyskryminacji oraz nękania, filmy morderstw (tak, serio ludzie wrzucają takie rzeczy!) oraz wykorzystywania dzieci. Komentarze jednak wciąż były problemem. Miejmy nadzieję, że teraz faktycznie się to zmieni.
Ze względu na ilość treści, które pojawiają się na YouTube, nie ma realnie możliwości, by każda z nich była monitorowana przez ludzi. Miesięcznie na portalu są 2 miliardy aktywnych użytkowników, a co minutę pojawia się 500 godzin nowych filmów. Dla porównania – ilość agresywnych komentarzy od początku 2019 roku wzrosła… 46 krotnie! Od września 2020 roku zostały usunięte ponad 54 000 kanałów z powodu mowy nienawiści. Jest to trzykrotnie więcej niż w tym samym okresie zeszłego roku, gdy YouTube wprowadził nową politykę dotyczącą tego tematu.