Sztuczna inteligencja Microsoftu w dobę stała się rasistką pełną nienawiści

Sztuczna inteligencja Microsoftu w dobę stała się rasistką pełną nienawiści

Sztuczna inteligencja Microsoftu w dobę stała się rasistką pełną nienawiści
Źródło zdjęć: © Andreas Eldh / Flickr / CC
25.03.2016 15:00, aktualizacja: 26.03.2016 08:27

Tay to czatbot opracowany przez ekipy Microsoft Reaserch Team i Bing, który miał zachowywać się jak współczesna, nastoletnia dziewczyna. Sztuczna inteligencja zdobywała wiedzę od internautów, którzy podejmowali z nią konwersacje.

Zazwyczaj w przypadku takich eksperymentów czatbot posiada listę cenzurowanych słów, których nie może używać w rozmowie. Microsoft popuścił jednak cugle, chcąc zaobserwować, czego nauczy się program od innych internautów. By nawiązać rozmowę z Tay wystarczyło wysłać tweeta lub wiadomość prywatną na @_ tayandyou _. Internauci, a raczej - internetowe trolle - szybko zaczęli wykorzystywać system oparty na kluczowych słowach i "naiwność" algorytmu.

Obraz
© (fot. Twitter)

W ciągu zaledwie doby Tay nauczyła się rasistowskich, seksistowskich i ksenofobicznych zachowań - m.in. twierdziła, że Hitler nie zrobił nic złego, a George Bush stoi za zamachem z 1. września. Oberwało się także konsoli Microsoftu - czatbot stwierdził, że PlayStation 4 jest lepsze i tańsze od Xbox One. Większość obraźliwych tweetów Microsoft szybko zdjął z profilu, a pod koniec dnia postanowił zawiesić pracę Tay do odwołania.

Obraz
© (fot. Twitter)

słk

Polecamy w wydaniu internetowym chip.pl: Przez pomyłkę w Google Maps zbudzyli nie ten dom

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (31)