W zwykłej rozmowie zaatakowała Koran. Gigant ma kłopoty

Sztuczna inteligencja po raz kolejny okazała się nieprzewidywalna. Microsoft próbował ją okiełznać, ale chęć porozmawiania o religii okazała się silniejsza. Nie obyło się bez mocnej opinii.

Obraz
Źródło zdjęć: © Wikimedia Commons CC BY
Adam Bednarek

Zo to bot od Microsoftu - czyli sztuczna inteligencja rozmawiająca na czacie z człowiekiem. Celem jej twórców jest sprawienie, by bot jak najbardziej przypominał człowieka i dialog z nim był naturalny. W najnowszych testach Zo pokazała pazur. Choć rozmowa dotyczyła opieki zdrowotnej, bot wypalił, że Koran jest bardzo brutalny.

W porównaniu z wcześniejszym botem od Microsoftu Zo i tak jest mistrzynią dyplomacji.

Udająca nastolatkę Tay, sztuczna inteligencja Microsoftu z 2016 roku, na Twitterze popierała Hitlera, nienawidziła feministek czy nawoływała do wybudowania muru odgradzającego Stany Zjednoczone od Meksyku i ludobójstwa.

Czym skutkuje skasowanie danych i kont w internecie?

Dlaczego sztuczna inteligencja wymyknęła się spod kontroli? Boty uczą się zachowania i poglądów od swoich rozmówców. Tay stała się rasistką nie dlatego, że uznała takie poglądy za właściwe. Po prostu nakierowali ją internauci piszący do niej na Twitterze, często używając w rozmowie nieodpowiednich słów kluczowych. Nie wszystkie trafiły na czarną listę, więc bot ślepo i bezmyślnie powtarzał. A im więcej osób pisało “Hitler miał rację”, tym bardziej bot w to wierzył.

To wielki problem sztucznej inteligencji - komputery nie znają kontekstu, ludzie tak. Dla niej “Hitler” czy “sernik” to tylko litery.

Zo miała być dużo grzeczniejszą wersją Tay, dostępną na aplikacji Kik. Bot unikał więc rozmów na tematy polityczne i drażliwych wątków religijnych. Jak widać nie do końca się to udało, ale Microsoft już wie, co musi poprawić.

Wpadka Zo pokazuje, że przed sztuczną inteligencją jeszcze długa droga - wtrącanie religijnych wątków w zwykłej dyskusji to dowód na to, że bot nie “czuje” kontekstu i w nieodpowiednim momencie może powiedzieć coś niewłaściwego.

Dla Microsoftu to wizerunkowa wpadka, ale podejrzewam, że ekipa stojąca za botem bardzo się z niej cieszy. W końcu Zo ciągle jest na poligonie doświadczalnym, a każdy tego typu “błąd” przybliża twórców, by nauczyć sztuczną inteligencję samokontroli.

Wybrane dla Ciebie

Może spowalniać starzenie. Napój z tą substancją zna każdy
Może spowalniać starzenie. Napój z tą substancją zna każdy
Francja modernizuje siły powietrzne. Zamówiła podniebne bestie
Francja modernizuje siły powietrzne. Zamówiła podniebne bestie
Zyska Korea Południowa. USA sprzedadzą im te rakiety za 34 mln dol.
Zyska Korea Południowa. USA sprzedadzą im te rakiety za 34 mln dol.
Pokazał Oriesznika? Tajemniczy model na biurku Łukaszenki
Pokazał Oriesznika? Tajemniczy model na biurku Łukaszenki
AIM-120D-3 AMRAAM dla Polski. Pociski przeznaczone dla F-35
AIM-120D-3 AMRAAM dla Polski. Pociski przeznaczone dla F-35
Nowy front Putina. Rosja pomaga Chinom przygotować inwazję na Tajwan
Nowy front Putina. Rosja pomaga Chinom przygotować inwazję na Tajwan
"Zadzwoniło do domu". Polski instrument GLOWS na pokładzie misji NASA
"Zadzwoniło do domu". Polski instrument GLOWS na pokładzie misji NASA
TechNielogicznie #1. Czy misja Ignis była stratą pieniędzy?
TechNielogicznie #1. Czy misja Ignis była stratą pieniędzy?
Gigant dla sąsiada Polski. Takiego samolotu jeszcze nie mieli
Gigant dla sąsiada Polski. Takiego samolotu jeszcze nie mieli
Zniknęło całkowicie 6,2 mln lat temu. Wciąż jest na mapie
Zniknęło całkowicie 6,2 mln lat temu. Wciąż jest na mapie
"Okropna spółka". Znany analityk prawie wypowiedział wojnę Sony
"Okropna spółka". Znany analityk prawie wypowiedział wojnę Sony
Rybacy znaleźli podwodnego drona. Miał 3,5 metra długości
Rybacy znaleźli podwodnego drona. Miał 3,5 metra długości