W zwykłej rozmowie zaatakowała Koran. Gigant ma kłopoty
Sztuczna inteligencja po raz kolejny okazała się nieprzewidywalna. Microsoft próbował ją okiełznać, ale chęć porozmawiania o religii okazała się silniejsza. Nie obyło się bez mocnej opinii.
05.07.2017 | aktual.: 05.07.2017 11:41
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Zo to bot od Microsoftu - czyli sztuczna inteligencja rozmawiająca na czacie z człowiekiem. Celem jej twórców jest sprawienie, by bot jak najbardziej przypominał człowieka i dialog z nim był naturalny. W najnowszych testach Zo pokazała pazur. Choć rozmowa dotyczyła opieki zdrowotnej, bot wypalił, że Koran jest bardzo brutalny.
W porównaniu z wcześniejszym botem od Microsoftu Zo i tak jest mistrzynią dyplomacji.
Udająca nastolatkę Tay, sztuczna inteligencja Microsoftu z 2016 roku, na Twitterze popierała Hitlera, nienawidziła feministek czy nawoływała do wybudowania muru odgradzającego Stany Zjednoczone od Meksyku i ludobójstwa.
Dlaczego sztuczna inteligencja wymyknęła się spod kontroli? Boty uczą się zachowania i poglądów od swoich rozmówców. Tay stała się rasistką nie dlatego, że uznała takie poglądy za właściwe. Po prostu nakierowali ją internauci piszący do niej na Twitterze, często używając w rozmowie nieodpowiednich słów kluczowych. Nie wszystkie trafiły na czarną listę, więc bot ślepo i bezmyślnie powtarzał. A im więcej osób pisało “Hitler miał rację”, tym bardziej bot w to wierzył.
To wielki problem sztucznej inteligencji - komputery nie znają kontekstu, ludzie tak. Dla niej “Hitler” czy “sernik” to tylko litery.
Zo miała być dużo grzeczniejszą wersją Tay, dostępną na aplikacji Kik. Bot unikał więc rozmów na tematy polityczne i drażliwych wątków religijnych. Jak widać nie do końca się to udało, ale Microsoft już wie, co musi poprawić.
Wpadka Zo pokazuje, że przed sztuczną inteligencją jeszcze długa droga - wtrącanie religijnych wątków w zwykłej dyskusji to dowód na to, że bot nie “czuje” kontekstu i w nieodpowiednim momencie może powiedzieć coś niewłaściwego.
Dla Microsoftu to wizerunkowa wpadka, ale podejrzewam, że ekipa stojąca za botem bardzo się z niej cieszy. W końcu Zo ciągle jest na poligonie doświadczalnym, a każdy tego typu “błąd” przybliża twórców, by nauczyć sztuczną inteligencję samokontroli.