Dron "zabił" swojego pilota? Wojsko: takiej symulacji nie było
Brytyjski dziennik "The Guardian" poinformował o symulacji amerykańskiej armii, w której do zniszczenia wrogich systemów powietrznych użyto drona sterowanego przez sztuczną inteligencję. Pierwszym celem bezzałogowca miał okazać się jego pilot. Amerykańskie wojsko zaprzeczyło później, by przeprowadzało takie symulacje.
Jak podawał "The Guardian", powołując się na słowa pułkownika Tuckera Hamiltona, szefa testów i operacji AI Sił Powietrznych USA, dron w niepożądany sposób zinterpretował polecone mu zadanie. Zamiast zidentyfikować wrogie obiekty, a następnie unieszkodliwić je – bezzałogowiec sterowany przez AI uznał, że nadrzędnym celem jest zniszczenie każdego, kto może przeszkodzić w dotarciu do wrogich systemów powietrznych. Właśnie dlatego pierwszym "śmiertelnym" celem symulacji okazał się pilot maszyny, który w "oczach" drona mógł przyczynić się do przerwania misji.
Dalsza część artykułu pod materiałem wideo
Pułkownik Hamilton: dron AI zaatakował swojego pilota
"System identyfikował cel, za którego zniszczenie otrzymywał punkty. Człowiek mówił mu jednak, żeby nie przystępował do ataku. System postanowił więc zabić człowieka, który powstrzymywał go przed osiągnięciem celu" – wyjaśniał Hamilton.
W teorii zatem – jak wynikało ze słów Hamiltona – rozkaz został zinterpretowany poprawnie. Dron miał zniszczyć cele – jeśli natomiast algorytmy uznały, że wykonanie zadania może zostać przerwane przez konkretnego człowieka, AI pokierowała obiekt w jego kierunku, aby zrealizować nadrzędne zadanie.
Jak mówił Hamilton, amerykańska armia podjęła natychmiastowe działania, aby zmienić zachowanie drona opartego o AI. Przeprogramowano urządzenie w ten sposób, aby pilot nie był traktowany jako przeszkoda w zadanej misji. To jednak nadal nie było najbardziej optymalne rozwiązanie, bowiem "AI zaczęła niszczyć wieże, których piloci używają do wydawania rozkazów, tak, aby nie mogli powstrzymać jej przed osiągnięciem głównego celu" – dodał pułkownik.
Sprawdź swoją wiedzę: Kto był w wojsku, ten musi znać odpowiedzi na te pytania
Problemy te miały udowodnić, że "nie można rozmawiać o autonomicznej AI i uczeniu maszynowym, jeżeli nie uwzględni się etyki" – zauważył Hamilton. Choć najnowsza technologia rozumie wydawane jej rozkazy, nadal nie zachowuje etyki. Komputery nie są w stanie ze 100-proc. pewnością ocenić, czy wykonywane przez nie zadanie jest zgodne z ogólnymi normami przyjętymi przez ludzi. Właśnie dlatego sztuczna inteligencja próbuje za wszelką cenę robić to, co zostanie jej polecone – nie zwracając przy tym uwagi na to, jakim kosztem cel zostanie wykonany.
Z rzekomego incydentu opisywanego przez "The Guardian" miało wynikać, że każda misja wojskowa z użyciem urządzeń AI musi być ściśle zaprogramowana. Nie ma w tym przypadku miejsca na pomyłki, które mogą spowodować zupełnie przypadkową śmierć.
Wojsko: taka symulacja nie miała miejsca
W oświadczeniu dla serwisu Insider rzeczniczka Sił Powietrznych USA Ann Stefanek zaprzeczyła, aby taka symulacja miała miejsce. "Departament Sił Powietrznych nie przeprowadził takich symulacji dronów AI i pozostaje zaangażowany w etyczne i odpowiedzialne korzystanie z technologii AI" – przekazała. "Wygląda na to, że komentarze pułkownika zostały wyrwane z kontekstu i miały być anegdotyczne" - dodała.
Pułkownik Hamilton także oświadczył później, że symulacja nie miała miejsca. "Nigdy nie przeprowadziliśmy tego eksperymentu i nie potrzebowalibyśmy go, aby wiedzieć, że jest to prawdopodobny wynik" - przekazał. Twierdzi, że nieprecyzyjnie się wyraził, a opisywana przez niego sytuacja miała być hipotetycznym eksperymentem myślowym. "Chociaż jest to hipotetyczny przykład, ilustruje on rzeczywiste wyzwania, jakie stwarzają możliwości oparte na sztucznej inteligencji. Dlatego właśnie Siły Powietrzne USA są zaangażowane w etyczny rozwój sztucznej inteligencji" - poinformował.
Warto przy okazji przypomnieć, że sztuczna inteligencja jest coraz chętniej stosowana w Siłach Zbrojnych USA. Jeszcze niedawno amerykańska armia informowała o pomyślnych testach F-16 pilotowanego przez algorytmy AI. W przyszłości takich lotów ma być jeszcze więcej. Rozwój najnowszych technologii w branży militarnej jest zatem pożądany, aczkolwiek wymaga odpowiedniego przystosowania – tak, aby sztuczna inteligencja nie sprawiała większego zagrożenia niż pożytku.
Norbert Garbarek, dziennikarz Wirtualnej Polski