Hawking, Musk i Wozniak przeciwko autonomicznym systemom bojowym
28.07.2015 13:46, aktual.: 28.07.2015 14:51
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Od jakiegoś czasu sprawa zakazu produkcji i badań nad całkowicie autonomicznymi robotami bojowymi powraca na forum ONZ, na razie bez większego rezultatu. Dlatego amerykańska organizacja Future of Life Institute (FLI) wystosowała list otwarty wzywający do zajęcia się tym problemem, a sprawą udało im się zainteresować całkiem sporo osób.
Wśród sygnatariuszy listu znajdują się nie tylko naukowcy z wiodących światowych ośrodków badań nad sztuczną inteligencją, takich jak Uniwersytet Harvarda, Stanforda czy UCLA Berkeley, ale też szefowie Microsoft Research czy Google DeepMind. Pod listem otwartym podpisało się już tysiąc osób związanych z badaniami nad AI lub z pokrewnymi dziedzinami nauki lub techniki, między innymi Stephen Hawking, Elon Musk, Steve Wozniak czy George Dyson.
Autorzy listu przestrzegają przed tworzeniem systemów, które mogłyby „wybierać i atakować cele bez interwencji człowieka”. Według nich systemy takie, choć najprawdopodobniej spełnią pokładane w nich nadzieje wojskowych, nie tylko wcale nie przyczynią się do tego, że świat stanie się bezpieczniejszym miejscem, ale też zaszkodzą badaniom nad pozytywnym wykorzystaniem technologii AI.
"Technologia sztucznej inteligencji znajduje się obecnie na takim poziomie rozwoju, że z praktycznego, nie prawnego, punktu widzenia już za kilka lat, a nie dekad, będzie można umieścić autonomiczne systemy bojowe na polach bitew. Stawka jest wysoka. Autonomiczne systemy bojowe określane są czasem jako trzecia rewolucja w prowadzeniu wojny, zaraz po wynalazku prochu i broni atomowej".
"W przeszłości przytaczano wiele argumentów popierających autonomiczne systemy bojowe, które mają na przykład zastąpić żołnierzy, a przez to przyczynić się do zmniejszenia strat. Ale to jednocześnie oznacza, że łatwiej będzie pójść na wojnę. Kluczową kwestią, przed którą stoi dziś ludzkość, jest pytanie o to, czy rozpocząć światowy wyścig zbrojeń w dziedzinie AI, czy mu zapobiec. Jeśli któraś ze światowych potęg wojskowych zacznie opracowywać autonomiczne systemy bojowe, wyścig zbrojeń będzie praktycznie nieunikniony, a jego skutki łatwe do przewidzenia – autonomiczne systemy bojowe staną się ‚kałasznikowami przyszłości’. W odróżnieniu od broni atomowej nie wymagają kosztownych i trudnych do zdobycia materiałów, więc mogą być produkowane masowo przez wszystkie znaczące siły. Tylko kwestią czasu jest, aż pojawią się na czarnym rynku w rękach terrorystów, dyktatorów chcących kontrolować populację swojego kraju, watażków gotowych przeprowadzić czystki etniczne itp".
"Tak jak większość chemików i biologów nie chce tworzyć broni chemicznej czy biologicznej, tak większość badaczy zajmujących się sztuczną inteligencją nie jest zainteresowana tworzeniem autonomicznych systemów bojowych. Nie chcą też by inni zaszkodzili ich dziedzinie nauki tworząc sytuację, w której opinia społeczna mogłaby odwrócić się od wszystkich badań nad AI, łącznie z tymi potencjalnie pożytecznymi dla społeczeństwa" - to wybrane fragmenty listu.
FLI nie jest jedyną organizacją, która lobbuje za wprowadzeniem zakazu rozwoju autonomicznych systemów bojowych, a wielu spośród sygnatariuszy listu już wcześniej ostrzegało przed niebezpieczeństwami, jakie wiązać się mogą z rozwojem tej technologii.
Polecamy na stronach Giznet.pl: NASA odkryła starszą kuzynkę Ziemi