Sztuczna inteligencja zdecyduje o losie ataku nuklearnego. Można ją jednak oszukać
14.06.2018 11:37, aktual.: 14.06.2018 13:37
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Donald Trump odtrąbił już sukces rozmów z Kim Dzong Unem. Zagrożenie nuklearne ze strony Korei Północnej ma być już zażegnane. Wiadomo jednak, że kontrola jest najwyższą formą zaufania. Pentagon również o tym pamięta.
Głęboko w ośrodkach naukowo-badawczych Departamentu Obrony opracowywane są projekty dotyczące sztucznej inteligencji, donosi Reuters. Skąd w ogóle o nich wiadomo? Jak podaje agencja, wnioski nasuwają się po przeczytaniu tegorocznego budżetu Pentagonu. Obecnie naukowcy pracują nad kilkoma programami, które mają za zadanie ochronę granic USA przed potencjalnym bombardowaniem nuklearnym.
Miliony na roboty
Według anonimowych źródeł z instytucji, opracowanie tego systemu pozwoli sztucznej inteligencji na sprawdzenie, czy w ogóle takowy atak jest przygotowywany. Wystarczy, że satelity spostrzegą ruch transporterów z głowicami, by wprowadzić system w ruch. Będzie on oczywiście reagować szybciej niż ludzie, wysyłając analitykom informację oraz ocenę prawdopodobieństwa potencjalnego ataku. W ten sposób rząd ma mieć czas na kroki dyplomatyczne lub przygotowanie się do przechwycenia czy zniszczenia nadlatujących pocisków.
Gabinet Donalda Trumpa planuje potroić budżet na jeden z projektów do kwoty 83 milionów dolarów. Mówimy cały czas o badaniach utajnionych, a te jawne również są hojnie dotowane.
- Specyfiką inwestycji rządu Stanów Zjednoczonych w sztuczną inteligencję jest fakt, że ponad 50% z nich pochodzi z Departamentu Obrony. W samym 2016 roku przekazał on ponad 600 mln dolarów na nieutajnione badania i rozwój w tym sektorze - tłumaczy WP Tech Robert Siudak z Instytutu Kościuszki.
Zobacz też: "Hipersoniczny" Kindżał zagrożeniem dla Europy
Z kolei Leszek Tasiemski, wiceprezes ds. badań i rozwoju w firmie F-Secure, zauważa również czysto pragmatyczną kwestię przerzucania analiz na sztuczną inteligencję. Jak tłumaczy, Pentagon na pewno starannie analizuje wszelkie ryzyka związane z wprowadzaniem nowych technologii militarnych czy wywiadowczych. W tym przypadku korzyści z zastosowania algorytmów uczenia maszynowego są w jego opinii warte podjęcia pewnego ryzyka. Próba wyśledzenia wszelkich ruchów pocisków balistycznych przed odpaleniem to ogromny nakład mrówczej pracy, która z pewnością obarczona jest ryzykiem błędu i przeoczenia, podkreśla.
- Zdaje się, że inżynierowie z Pentagonu doszli do wniosku, że pozostawią maszynom to, co robią najlepiej. Czyli przerzucanie ogromnych ilości danych w bardzo krótkim czasie i wyłapywanie anomalii pasujących do uogólnionego przez algorytm wzorca - mówi WP Tech. - Z całą pewnością na drugiej linii stoją analitycy z krwi i kości, którzy będą starannie weryfikować te anomalie i jednocześnie dostarczać algorytmom informacji zwrotnej, na podstawie której będą się one ciągle uczy – dodaje.
(Nie)omylna maszyna
Sztuczna inteligencja w militariach ciągle wzbudzają jednak mieszane emocje albo stanowczy opór. Dr Steven Walker, dyrektor agencji obronnej DARPA, pioniera badań nad sztuczną inteligencją i internetem, powiedział krótko: "Te systemy można oszukać". Jak?
- Jak praktycznie każdy algorytm uczenia maszynowego, również ten może być podatny na próby "podtruwania świadomości" przez hakerów. Chodzi o manipulowanie danymi wejściowymi, żeby algorytm oswoić i oślepić na to, co ma wykrywać. W tym przypadku byłyby to ruchy świadczące o przygotowaniach do odpalenia pocisku balistycznego - tłumaczy Tasiemski. - Istnieją jednak techniki, które pozwalają takim atakom skutecznie zapobiegać.
Tasiemski wylicza, że należą do nich takie metody jak staranna kontrola tak zwanego zbioru uczącego (czyli przykładów, na podstawie których algorytm się uczy). Albo techniki polegające na świadomym "wstrzykiwaniu" do algorytmu uczącego się w czasie rzeczywistym podchwytliwych przykładów (takich, których używaliby hakerzy), żeby algorytm lepiej nauczył się je filtrować.
Zobacz też: Nowy pocisk Izraela
- Jak pokazują najnowsze publikacje oraz badania, systemy samouczące oparte na widzeniu komputerowym, a więc analizie obrazów, podatne są na różnego rodzaju ataki - dodaje ekspert z Instytutu Kościuszki. Studentom MIT przy wykorzystaniu drukarki 3D udało się oszukać algorytm tak, aby w stworzonym przez nich modelu żółwia rozpoznał on karabin.
Badacze z Google pokazali natomiast, że naklejenie dwóch zwykłych pasków taśmy w odpowiednie miejsce na znaku drogowym uniemożliwia jego prawidłową interpretację przez systemy AI autonomicznego samochodu. W tych wypadkach problemem jest wprowadzanie kontrolowanego szumu na poziomie pikseli, który zniekształca postrzeganie algorytmu. Inną formą niepożądanego działania może być także celowe zniekształcanie danych, na których uczą się systemy (np. zdjęcia), co skutkować może ich niepoprawnym działaniem w przyszłości, dodaje Siudak.
Na razie jednak nic nie obędzie się bez interwencji człowieka.
- Kluczową kwestią jest to, jak takie narzędzia analizujące dane wywiadowcze będą wkomponowane w system dowodzenia. Zgodnie z obowiązującą dyrektywą amerykańskiego DOD [Departament Obrony – przyp. red.], dotyczącą wykorzystania systemów autonomicznych, wymagają one za każdym razem nadzoru oraz oceny człowieka. Nie wydaje się, aby miało się to zmienić w najbliższym czasie – konkluduje ekspert.
Sztuczna inteligencja w militariach pozostaje faktem. USA nad nim pracuje, tak samo jak Rosja, Chiny.... oraz pewnie także Korea Północna. Nowoczesna wojna nie obędzie się w końcu bez internetu i satelitów. Możliwe, że wygranym pozostanie ten, kto pierwszy oszuka system ostrzegania przeciwnika.