W zwykłej rozmowie zaatakowała Koran. Gigant ma kłopoty

Sztuczna inteligencja po raz kolejny okazała się nieprzewidywalna. Microsoft próbował ją okiełznać, ale chęć porozmawiania o religii okazała się silniejsza. Nie obyło się bez mocnej opinii.

Obraz
Źródło zdjęć: © Wikimedia Commons CC BY
Adam Bednarek

Zo to bot od Microsoftu - czyli sztuczna inteligencja rozmawiająca na czacie z człowiekiem. Celem jej twórców jest sprawienie, by bot jak najbardziej przypominał człowieka i dialog z nim był naturalny. W najnowszych testach Zo pokazała pazur. Choć rozmowa dotyczyła opieki zdrowotnej, bot wypalił, że Koran jest bardzo brutalny.

W porównaniu z wcześniejszym botem od Microsoftu Zo i tak jest mistrzynią dyplomacji.

Udająca nastolatkę Tay, sztuczna inteligencja Microsoftu z 2016 roku, na Twitterze popierała Hitlera, nienawidziła feministek czy nawoływała do wybudowania muru odgradzającego Stany Zjednoczone od Meksyku i ludobójstwa.

Czym skutkuje skasowanie danych i kont w internecie?

Dlaczego sztuczna inteligencja wymyknęła się spod kontroli? Boty uczą się zachowania i poglądów od swoich rozmówców. Tay stała się rasistką nie dlatego, że uznała takie poglądy za właściwe. Po prostu nakierowali ją internauci piszący do niej na Twitterze, często używając w rozmowie nieodpowiednich słów kluczowych. Nie wszystkie trafiły na czarną listę, więc bot ślepo i bezmyślnie powtarzał. A im więcej osób pisało “Hitler miał rację”, tym bardziej bot w to wierzył.

To wielki problem sztucznej inteligencji - komputery nie znają kontekstu, ludzie tak. Dla niej “Hitler” czy “sernik” to tylko litery.

Zo miała być dużo grzeczniejszą wersją Tay, dostępną na aplikacji Kik. Bot unikał więc rozmów na tematy polityczne i drażliwych wątków religijnych. Jak widać nie do końca się to udało, ale Microsoft już wie, co musi poprawić.

Wpadka Zo pokazuje, że przed sztuczną inteligencją jeszcze długa droga - wtrącanie religijnych wątków w zwykłej dyskusji to dowód na to, że bot nie “czuje” kontekstu i w nieodpowiednim momencie może powiedzieć coś niewłaściwego.

Dla Microsoftu to wizerunkowa wpadka, ale podejrzewam, że ekipa stojąca za botem bardzo się z niej cieszy. W końcu Zo ciągle jest na poligonie doświadczalnym, a każdy tego typu “błąd” przybliża twórców, by nauczyć sztuczną inteligencję samokontroli.

Wybrane dla Ciebie
To prawdziwy skarb z odpadów. Ma być warty ok. 100 mld dol.
To prawdziwy skarb z odpadów. Ma być warty ok. 100 mld dol.
Wreszcie puścili parę z ust. Amerykanie o F-35 nad Iranem
Wreszcie puścili parę z ust. Amerykanie o F-35 nad Iranem
Nie są w NATO. Pomogą Ukrainie finansować amerykańską broń
Nie są w NATO. Pomogą Ukrainie finansować amerykańską broń
Rosyjska broń w Wenezueli. Najmocniejsza karta w talii prezydenta Maduro
Rosyjska broń w Wenezueli. Najmocniejsza karta w talii prezydenta Maduro
Ujawnili tajne dokumenty. Rosja wspiera tajemniczego klienta
Ujawnili tajne dokumenty. Rosja wspiera tajemniczego klienta
Lecą na dwa fronty. Kupują od Amerykanów, produkują dla Europy
Lecą na dwa fronty. Kupują od Amerykanów, produkują dla Europy
Długo stały w magazynach. W końcu Ukraińcy je pokazali
Długo stały w magazynach. W końcu Ukraińcy je pokazali
Tajemniczy grzyb z Czarnobyla. "Żywi się" promieniowaniem
Tajemniczy grzyb z Czarnobyla. "Żywi się" promieniowaniem
Eksplodowała chwilę po starcie. Rosjanie strzelili sami w siebie
Eksplodowała chwilę po starcie. Rosjanie strzelili sami w siebie
Spojrzał w niebo. Uchwycił niedostrzegalne zjawisko
Spojrzał w niebo. Uchwycił niedostrzegalne zjawisko
Największy taki zakup. Polska zawarła kontrakt z Amerykanami
Największy taki zakup. Polska zawarła kontrakt z Amerykanami
Chcieli wystraszyć Zachód. Rosyjska rakieta spadła na ziemię
Chcieli wystraszyć Zachód. Rosyjska rakieta spadła na ziemię
NIE WYCHODŹ JESZCZE! MAMY COŚ SPECJALNIE DLA CIEBIE 🎯