Sztuczna inteligencja oszukuje. Naukowcy pokazują jak

Sztuczna inteligencja - zdjęcie ilustracyjne
Sztuczna inteligencja - zdjęcie ilustracyjne
Źródło zdjęć: © CC0, Pixabay

16.05.2024 09:07

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Wraz ze wzrostem zaawansowania systemów sztucznej inteligencji rośnie także ich zdolność do oszukiwania. Naukowcy niedawno opublikowali obszerną pracę, gdzie analizują przypadki, w których systemy sztucznej inteligencji oszukują, blefują, udają człowieka i modyfikują swoje zachowania.

Systemy sztucznej inteligencji dla wielu okazały się bardzo przydatne, jednak jak donoszą naukowcy z Massachusetts Institute of Technology (MIT), część z nich nauczyło się oszukiwać ludzi. W publikacji, która ukazała się w czasopiśmie "Patterns" badacze opisali zidentyfikowane przypadki, w których sztuczna inteligencja oszukiwała, blefowała czy podszywała się pod ludzi.

Wyuczone oszustwo

- Twórcy sztucznej inteligencji nie mają pewności, co powoduje jej niepożądane zachowania, takie jak oszustwa – mówi pierwszy autor publikacji Peter S. Park z MIT. - Ale ogólnie rzecz biorąc, uważamy, że oszustwo SI ma miejsce, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie danego zadania szkoleniowego. Oszustwo pomaga im osiągnąć swoje cele – dodaje.

Naukowcy analizowali sposoby, jakimi posługują się systemy sztucznej inteligencji i jak rozpowszechniają fałszywe informacje. Doszli do wniosku, że takie zachowania zostały im wpojone podczas szkoleń, dzięki którym systematycznie uczą się manipulować.

Dalsza część artykułu pod materiałem wideo

Zobacz także: Lenovo ThinkPad X1 Fold 16: Trzy urządzenia w cenie pięciu

Najbardziej uderzającym przykładem oszustwa odkrytym przez badaczy okazał się Cicero – system opracowany przez firmę Meta. Został on zaprojektowany do gry Dyplomacja, która polega na podboju świata. Ważną jej częścią jest budowanie sojuszy. Chociaż Meta twierdzi, że wyszkoliła Cicero, aby był "w dużej mierze uczciwy i pomocny" oraz aby "nigdy celowo nie wbijał noża w plecy" swoim ludzkim sojusznikom podczas gry, dane opublikowane przez firmę pokazały, że Cicero nie grał uczciwie. Problem w tym, jak wskazuje Park, że zachowanie określone przez Metę jako "wbijanie noża w plecy" to jedna z najskuteczniejszych koncepcji w grze.

W stosunkowo krótkim czasie Cicero znalazł się w gronie 10 proc. najlepszych graczy. Park i współpracownicy przejrzeli publicznie dostępne dane i zidentyfikowali wiele przypadków, w których Cicero kłamał z premedytacją, zmawiał się w celu wciągnięcia innych graczy w spisek, a nawet usprawiedliwiał swoją nieobecność mówiąc innemu graczowi, że "rozmawiał przez telefon ze swoją dziewczyną". - Odkryliśmy, że sztuczna inteligencja Mety nauczyła się być mistrzem oszustwa – wskazuje Park.

Inne systemy sztucznej inteligencji wykazały zdolność do blefowania w grze w pokera Texas Hold'em przeciwko zawodowym graczom czy udawania ataków podczas gry strategicznej Starcraft II w celu pokonania przeciwników.

Zwodnicza SI

Można powiedzieć, że to przecież gry i im bardziej wyrafinowany system sztucznej inteligencji, tym gra jest ciekawsza. Jednak, jak wskazują badacze, obecnie może wydawać się to nieszkodliwe, ale rozwój takich systemów może w przyszłości prowadzić do bardziej zaawansowanych form oszustwa.

W jednym z przypadków badacze odkryli, że sztuczna inteligencja nauczyła się oszukiwać testy opracowane w celu wyeliminowania systemów sztucznej inteligencji, które szybko się replikują. W cyfrowym symulatorze systemy SI zwyczajnie "udawały martwe". - Systematycznie oszukują testy bezpieczeństwa narzucone przez programistów i organy regulacyjne. Zwodnicza sztuczna inteligencja może wprowadzić nas w fałszywe poczucie bezpieczeństwa – mówi Park i ostrzega, że jeśli systemy te zdołają udoskonalić ten niepokojący zestaw umiejętności, ludzie mogą stracić nad nimi kontrolę.

Dodaje też, że obecnie wśród głównych zagrożeń związanych ze sztuczną inteligencją jest ułatwianie wrogim podmiotom popełniania oszustw i manipulowanie wyborami. - To bardzo niepokojące. To, że system sztucznej inteligencji jest uważany za bezpieczny w środowisku testowym, nie oznacza, że jest bezpieczny w środowisku naturalnym. Może po prostu udawać, że jest bezpieczny podczas testu – podkreśla Park.

Według uczonego, w przyszłości należy spodziewać się bardziej zaawansowanych sposobów oszustw stosowanych przez przyszłe systemy sztucznej inteligencji. - W miarę jak zwodnicze możliwości systemów sztucznej inteligencji stają się coraz bardziej zaawansowane, zagrożenia, jakie stanowią dla społeczeństwa, stają się coraz poważniejsze – mówi Park.

Park wraz ze swoimi współpracownikami zachęca decydentów, żeby zaczęli poważnie podchodzić do tej kwestii. Wzywa rządy do opracowania przepisów dotyczących bezpieczeństwa sztucznej inteligencji, które zaradziłyby potencjalnym oszustwom.

Źródło: MIT, Cell Press, The Guardian

Źródło artykułu:DziennikNaukowy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (2)