W zwykłej rozmowie zaatakowała Koran. Gigant ma kłopoty

Sztuczna inteligencja po raz kolejny okazała się nieprzewidywalna. Microsoft próbował ją okiełznać, ale chęć porozmawiania o religii okazała się silniejsza. Nie obyło się bez mocnej opinii.

Obraz
Źródło zdjęć: © Wikimedia Commons CC BY
Adam Bednarek

Zo to bot od Microsoftu - czyli sztuczna inteligencja rozmawiająca na czacie z człowiekiem. Celem jej twórców jest sprawienie, by bot jak najbardziej przypominał człowieka i dialog z nim był naturalny. W najnowszych testach Zo pokazała pazur. Choć rozmowa dotyczyła opieki zdrowotnej, bot wypalił, że Koran jest bardzo brutalny.

W porównaniu z wcześniejszym botem od Microsoftu Zo i tak jest mistrzynią dyplomacji.

Udająca nastolatkę Tay, sztuczna inteligencja Microsoftu z 2016 roku, na Twitterze popierała Hitlera, nienawidziła feministek czy nawoływała do wybudowania muru odgradzającego Stany Zjednoczone od Meksyku i ludobójstwa.

Czym skutkuje skasowanie danych i kont w internecie?

Dlaczego sztuczna inteligencja wymyknęła się spod kontroli? Boty uczą się zachowania i poglądów od swoich rozmówców. Tay stała się rasistką nie dlatego, że uznała takie poglądy za właściwe. Po prostu nakierowali ją internauci piszący do niej na Twitterze, często używając w rozmowie nieodpowiednich słów kluczowych. Nie wszystkie trafiły na czarną listę, więc bot ślepo i bezmyślnie powtarzał. A im więcej osób pisało “Hitler miał rację”, tym bardziej bot w to wierzył.

To wielki problem sztucznej inteligencji - komputery nie znają kontekstu, ludzie tak. Dla niej “Hitler” czy “sernik” to tylko litery.

Zo miała być dużo grzeczniejszą wersją Tay, dostępną na aplikacji Kik. Bot unikał więc rozmów na tematy polityczne i drażliwych wątków religijnych. Jak widać nie do końca się to udało, ale Microsoft już wie, co musi poprawić.

Wpadka Zo pokazuje, że przed sztuczną inteligencją jeszcze długa droga - wtrącanie religijnych wątków w zwykłej dyskusji to dowód na to, że bot nie “czuje” kontekstu i w nieodpowiednim momencie może powiedzieć coś niewłaściwego.

Dla Microsoftu to wizerunkowa wpadka, ale podejrzewam, że ekipa stojąca za botem bardzo się z niej cieszy. W końcu Zo ciągle jest na poligonie doświadczalnym, a każdy tego typu “błąd” przybliża twórców, by nauczyć sztuczną inteligencję samokontroli.

Wybrane dla Ciebie
Chińczycy wysyłają tratwę ratunkową w kosmos. Wszystko przez kosmiczne śmieci
Chińczycy wysyłają tratwę ratunkową w kosmos. Wszystko przez kosmiczne śmieci
Powstaje baza PGE Baltica w Ustce. Obsłuży największą morską farmę wiatrową
Powstaje baza PGE Baltica w Ustce. Obsłuży największą morską farmę wiatrową
Za tą galaktyką ciągnie się ogon. Jest dłuższy od Drogi Mlecznej
Za tą galaktyką ciągnie się ogon. Jest dłuższy od Drogi Mlecznej
Zagraniczny sprzęt w Rosji. Używają go do produkcji broni
Zagraniczny sprzęt w Rosji. Używają go do produkcji broni
Teleskop Jamesa Webba jest rozchwytywany. Nie dla każdego astronoma
Teleskop Jamesa Webba jest rozchwytywany. Nie dla każdego astronoma
Największy sojusznik Rosji. Zaczyna pomagać jej w coraz mniejszym stopniu
Największy sojusznik Rosji. Zaczyna pomagać jej w coraz mniejszym stopniu
Odtworzyli hymn babiloński sprzed tysięcy lat. Pomogła sztuczna inteligencja
Odtworzyli hymn babiloński sprzed tysięcy lat. Pomogła sztuczna inteligencja
Rafale dla Kijowa. Ukrainiec o tym, jak wzmocnią armię
Rafale dla Kijowa. Ukrainiec o tym, jak wzmocnią armię
Australia ulepsza broń. Wyciągają wnioski z wojny w Ukrainie
Australia ulepsza broń. Wyciągają wnioski z wojny w Ukrainie
Pierwsze polskie gondole na morskiej farmie wiatrowej Baltic Power
Pierwsze polskie gondole na morskiej farmie wiatrowej Baltic Power
Rosja odbudowuje siły pancerne. Stawia na te trzy maszyny
Rosja odbudowuje siły pancerne. Stawia na te trzy maszyny
Obejmuje cały organizm. Jest jak "mózg"
Obejmuje cały organizm. Jest jak "mózg"