Sztuczna inteligencja Microsoftu w dobę stała się rasistką pełną nienawiści

Tay to czatbot opracowany przez ekipy Microsoft Reaserch Team i Bing, który miał zachowywać się jak współczesna, nastoletnia dziewczyna. Sztuczna inteligencja zdobywała wiedzę od internautów, którzy podejmowali z nią konwersacje.

Sztuczna inteligencja Microsoftu w dobę stała się rasistką pełną nienawiści
Źródło zdjęć: © Andreas Eldh / Flickr / CC

25.03.2016 | aktual.: 26.03.2016 08:27

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Zazwyczaj w przypadku takich eksperymentów czatbot posiada listę cenzurowanych słów, których nie może używać w rozmowie. Microsoft popuścił jednak cugle, chcąc zaobserwować, czego nauczy się program od innych internautów. By nawiązać rozmowę z Tay wystarczyło wysłać tweeta lub wiadomość prywatną na @_ tayandyou _. Internauci, a raczej - internetowe trolle - szybko zaczęli wykorzystywać system oparty na kluczowych słowach i "naiwność" algorytmu.

Obraz
© (fot. Twitter)

W ciągu zaledwie doby Tay nauczyła się rasistowskich, seksistowskich i ksenofobicznych zachowań - m.in. twierdziła, że Hitler nie zrobił nic złego, a George Bush stoi za zamachem z 1. września. Oberwało się także konsoli Microsoftu - czatbot stwierdził, że PlayStation 4 jest lepsze i tańsze od Xbox One. Większość obraźliwych tweetów Microsoft szybko zdjął z profilu, a pod koniec dnia postanowił zawiesić pracę Tay do odwołania.

Obraz
© (fot. Twitter)

słk

Polecamy w wydaniu internetowym chip.pl: Przez pomyłkę w Google Maps zbudzyli nie ten dom

Komentarze (31)