Dron "zabił" swojego pilota? Wojsko: takiej symulacji nie było

Dron "zabił" swojego pilota? Wojsko: takiej symulacji nie było02.06.2023 12:13
Dron MQ-9 Reaper - zdjęcie ilustracyjne.
Źródło zdjęć: © Wikimedia Commons

Brytyjski dziennik "The Guardian" poinformował o symulacji amerykańskiej armii, w której do zniszczenia wrogich systemów powietrznych użyto drona sterowanego przez sztuczną inteligencję. Pierwszym celem bezzałogowca miał okazać się jego pilot. Amerykańskie wojsko zaprzeczyło później, by przeprowadzało takie symulacje.

Jak podawał "The Guardian", powołując się na słowa pułkownika Tuckera Hamiltona, szefa testów i operacji AI Sił Powietrznych USA, dron w niepożądany sposób zinterpretował polecone mu zadanie. Zamiast zidentyfikować wrogie obiekty, a następnie unieszkodliwić je – bezzałogowiec sterowany przez AI uznał, że nadrzędnym celem jest zniszczenie każdego, kto może przeszkodzić w dotarciu do wrogich systemów powietrznych. Właśnie dlatego pierwszym "śmiertelnym" celem symulacji okazał się pilot maszyny, który w "oczach" drona mógł przyczynić się do przerwania misji.

Dalsza część artykułu pod materiałem wideo

Czy warto kupić monitor mobilny ViewSonic VG1655?

Pułkownik Hamilton: dron AI zaatakował swojego pilota

"System identyfikował cel, za którego zniszczenie otrzymywał punkty. Człowiek mówił mu jednak, żeby nie przystępował do ataku. System postanowił więc zabić człowieka, który powstrzymywał go przed osiągnięciem celu" – wyjaśniał Hamilton.

W teorii zatem – jak wynikało ze słów Hamiltona – rozkaz został zinterpretowany poprawnie. Dron miał zniszczyć cele – jeśli natomiast algorytmy uznały, że wykonanie zadania może zostać przerwane przez konkretnego człowieka, AI pokierowała obiekt w jego kierunku, aby zrealizować nadrzędne zadanie.

Jak mówił Hamilton, amerykańska armia podjęła natychmiastowe działania, aby zmienić zachowanie drona opartego o AI. Przeprogramowano urządzenie w ten sposób, aby pilot nie był traktowany jako przeszkoda w zadanej misji. To jednak nadal nie było najbardziej optymalne rozwiązanie, bowiem "AI zaczęła niszczyć wieże, których piloci używają do wydawania rozkazów, tak, aby nie mogli powstrzymać jej przed osiągnięciem głównego celu" – dodał pułkownik.

Problemy te miały udowodnić, że "nie można rozmawiać o autonomicznej AI i uczeniu maszynowym, jeżeli nie uwzględni się etyki" – zauważył Hamilton. Choć najnowsza technologia rozumie wydawane jej rozkazy, nadal nie zachowuje etyki. Komputery nie są w stanie ze 100-proc. pewnością ocenić, czy wykonywane przez nie zadanie jest zgodne z ogólnymi normami przyjętymi przez ludzi. Właśnie dlatego sztuczna inteligencja próbuje za wszelką cenę robić to, co zostanie jej polecone – nie zwracając przy tym uwagi na to, jakim kosztem cel zostanie wykonany.

Z rzekomego incydentu opisywanego przez "The Guardian" miało wynikać, że każda misja wojskowa z użyciem urządzeń AI musi być ściśle zaprogramowana. Nie ma w tym przypadku miejsca na pomyłki, które mogą spowodować zupełnie przypadkową śmierć.

Wojsko: taka symulacja nie miała miejsca

W oświadczeniu dla serwisu Insider rzeczniczka Sił Powietrznych USA Ann Stefanek zaprzeczyła, aby taka symulacja miała miejsce. "Departament Sił Powietrznych nie przeprowadził takich symulacji dronów AI i pozostaje zaangażowany w etyczne i odpowiedzialne korzystanie z technologii AI" – przekazała. "Wygląda na to, że komentarze pułkownika zostały wyrwane z kontekstu i miały być anegdotyczne" - dodała.

Pułkownik Hamilton także oświadczył później, że symulacja nie miała miejsca. "Nigdy nie przeprowadziliśmy tego eksperymentu i nie potrzebowalibyśmy go, aby wiedzieć, że jest to prawdopodobny wynik" - przekazał. Twierdzi, że nieprecyzyjnie się wyraził, a opisywana przez niego sytuacja miała być hipotetycznym eksperymentem myślowym. "Chociaż jest to hipotetyczny przykład, ilustruje on rzeczywiste wyzwania, jakie stwarzają możliwości oparte na sztucznej inteligencji. Dlatego właśnie Siły Powietrzne USA są zaangażowane w etyczny rozwój sztucznej inteligencji" - poinformował.

Warto przy okazji przypomnieć, że sztuczna inteligencja jest coraz chętniej stosowana w Siłach Zbrojnych USA. Jeszcze niedawno amerykańska armia informowała o pomyślnych testach F-16 pilotowanego przez algorytmy AI. W przyszłości takich lotów ma być jeszcze więcej. Rozwój najnowszych technologii w branży militarnej jest zatem pożądany, aczkolwiek wymaga odpowiedniego przystosowania – tak, aby sztuczna inteligencja nie sprawiała większego zagrożenia niż pożytku.

Norbert Garbarek, dziennikarz Wirtualnej Polski

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.