Dron ze sztuczną inteligencją. Amerykanie testują XQ‑58 Valkyrie
Amerykanie przetestowali wyposażonego w sztuczną inteligencję drona XQ-58 Valkyrie, jak poinformowało Laboratorium Badawcze Sił Powietrznych Stanów Zjednoczonych. Testy odbyły się na poligonie testowo szkoleniowym Eglin Gulf, a maszyna przeszła je pomyślnie.
24.09.2023 18:38
XQ-58 Valkyrie jest konstrukcją Kratos Defence & Security, która 23 czerwca podpisała umowę z firmą Shield AI, na wyposażenie jej drona w sztuczną inteligencję. Testami zajął się Dział Autonomicznych Operacji Powietrznych amerykańskiego lotnictwa, a te obejmowały algorytmy opracowane z wykorzystaniem technologii głębokiego uczenia AI.
Co testowano na AI Vakyrie?
Ryan Bowers, główny inżynier ds. testów, który był odpowiedzialny za ten projekt, powiedział: "Testowanie sztucznej inteligencji wymaga połączenia nowych i tradycyjnych technik testowania i oceny. Zespół wyciągnął wiele wniosków, które wykorzysta w przyszłych programach".
Dalsza część artykułu pod materiałem wideo
Algorytmy AI współpracowały podczas testu z sieciami neuronowymi, które pomagały sztucznej inteligencji w kontroli nad maszyną, "tworzyły" projekcje przeciwników i symulowały broń. Razem z dronem w powietrzu znalazły się załogowe samoloty, które miały przetestować działanie AI w grupie. XQ-58 Valkyrie został pomyślany przede wszystkim jako wsparcie dla samolotów F-35 lub F-22 Raptor. Maszyna ma 8,8 metra długości i 6,7 metra rozpiętości skrzydeł. Dron uniesie około 260 kilogramów uzbrojenia, a jego zasięg przekracza 5,5 tys. kilometrów. Pierwsze próby XQ-58 Valkyrie miały miejsce w 2019 roku, choć kontrakt na stworzenie drona Kratos Defense & Security Solutions otrzymało już w 2016.
AI w obronności
Stany Zjednoczone aktywnie badają możliwości szerszego wprowadzenia sztucznej inteligencji do przemysłu obronnego. Pentagon powołał nawet specjalną grupę zadaniową o kryptonimie Task Force Lima, która zajmuje się tym zagadnieniem. Głównym jej zadaniem jest określanie poziomu bezpieczeństwa AI. Członkowie grupy zadaniowej identyfikują sytuacje, w których powierzenie kontroli sztucznej inteligencji staje się zbyt niebezpieczne.
Mateusz Tomiczek, dziennikarz Wirtualnej Polski