Dron ze sztuczną inteligencją. Amerykanie testują XQ-58 Valkyrie

Dron ze sztuczną inteligencją. Amerykanie testują XQ‑58 Valkyrie

Dron XQ-58 Valkyrie podczas startu
Dron XQ-58 Valkyrie podczas startu
Źródło zdjęć: © Laboratorium Badawcze Sił Powietrznych USA
Mateusz Tomiczek
24.09.2023 18:38

Amerykanie przetestowali wyposażonego w sztuczną inteligencję drona XQ-58 Valkyrie, jak poinformowało Laboratorium Badawcze Sił Powietrznych Stanów Zjednoczonych. Testy odbyły się na poligonie testowo szkoleniowym Eglin Gulf, a maszyna przeszła je pomyślnie.

XQ-58 Valkyrie jest konstrukcją Kratos Defence & Security, która 23 czerwca podpisała umowę z firmą Shield AI, na wyposażenie jej drona w sztuczną inteligencję. Testami zajął się Dział Autonomicznych Operacji Powietrznych amerykańskiego lotnictwa, a te obejmowały algorytmy opracowane z wykorzystaniem technologii głębokiego uczenia AI.

Co testowano na AI Vakyrie?

Ryan Bowers, główny inżynier ds. testów, który był odpowiedzialny za ten projekt, powiedział: "Testowanie sztucznej inteligencji wymaga połączenia nowych i tradycyjnych technik testowania i oceny. Zespół wyciągnął wiele wniosków, które wykorzysta w przyszłych programach".

Dalsza część artykułu pod materiałem wideo

Algorytmy AI współpracowały podczas testu z sieciami neuronowymi, które pomagały sztucznej inteligencji w kontroli nad maszyną, "tworzyły" projekcje przeciwników i symulowały broń. Razem z dronem w powietrzu znalazły się załogowe samoloty, które miały przetestować działanie AI w grupie. XQ-58 Valkyrie został pomyślany przede wszystkim jako wsparcie dla samolotów F-35 lub F-22 Raptor. Maszyna ma 8,8 metra długości i 6,7 metra rozpiętości skrzydeł. Dron uniesie około 260 kilogramów uzbrojenia, a jego zasięg przekracza 5,5 tys. kilometrów. Pierwsze próby XQ-58 Valkyrie miały miejsce w 2019 roku, choć kontrakt na stworzenie drona Kratos Defense & Security Solutions otrzymało już w 2016.

AI w obronności

Stany Zjednoczone aktywnie badają możliwości szerszego wprowadzenia sztucznej inteligencji do przemysłu obronnego. Pentagon powołał nawet specjalną grupę zadaniową o kryptonimie Task Force Lima, która zajmuje się tym zagadnieniem. Głównym jej zadaniem jest określanie poziomu bezpieczeństwa AI. Członkowie grupy zadaniowej identyfikują sytuacje, w których powierzenie kontroli sztucznej inteligencji staje się zbyt niebezpieczne.

Mateusz Tomiczek, dziennikarz Wirtualnej Polski

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (11)