Sztuczna inteligencja Microsoftu w dobę stała się rasistką pełną nienawiści
Tay to czatbot opracowany przez ekipy Microsoft Reaserch Team i Bing, który miał zachowywać się jak współczesna, nastoletnia dziewczyna. Sztuczna inteligencja zdobywała wiedzę od internautów, którzy podejmowali z nią konwersacje.
25.03.2016 | aktual.: 26.03.2016 08:27
Zazwyczaj w przypadku takich eksperymentów czatbot posiada listę cenzurowanych słów, których nie może używać w rozmowie. Microsoft popuścił jednak cugle, chcąc zaobserwować, czego nauczy się program od innych internautów. By nawiązać rozmowę z Tay wystarczyło wysłać tweeta lub wiadomość prywatną na @_ tayandyou _. Internauci, a raczej - internetowe trolle - szybko zaczęli wykorzystywać system oparty na kluczowych słowach i "naiwność" algorytmu.
W ciągu zaledwie doby Tay nauczyła się rasistowskich, seksistowskich i ksenofobicznych zachowań - m.in. twierdziła, że Hitler nie zrobił nic złego, a George Bush stoi za zamachem z 1. września. Oberwało się także konsoli Microsoftu - czatbot stwierdził, że PlayStation 4 jest lepsze i tańsze od Xbox One. Większość obraźliwych tweetów Microsoft szybko zdjął z profilu, a pod koniec dnia postanowił zawiesić pracę Tay do odwołania.
słk
Polecamy w wydaniu internetowym chip.pl: Przez pomyłkę w Google Maps zbudzyli nie ten dom