Siły Powietrzne Stanów Zjednoczonych zyskają własny wykrywacz deepfake
Visimo nawiązało współpracę z Florida State University w celu opracowania technologii wykrywania i zapobiegania deepfake. Jest to technika obróbki obrazów, która pozwala na tworzenie fałszywych nagrań. Przyczyniają się one do wprowadzania w błąd opinii publicznej.
Departament Obrony Stanów Zjednoczonych (ang. United States Department of Defense, DoD) uważa deepfake za poważny problem, który zagraża bezpieczeństwu narodowemu. Jest to szczególnie niebezpieczne w przypadku danych wywiadowczych o otwartym kodzie źródłowym, na których polega wojsko, ale też jeśli chodzi o szerzenie się dezinformacji wśród społeczeństwa. Przeciwnicy rządu USA najczęściej wykorzystują deepfake w próbach wpływania na wybory, a nawet politykę zagraniczną państwa. Dlatego resort poszukuje sposobów na walkę z coraz popularniejszą techniką.
Siły Powietrzne USA wykryją deepfake
Visimo poinformował o nawiązaniu współpracy z Florida State University w celu stworzenia oprogramowania Aletheia. Nazwa programu nawiązuje do imienia greckiej bogini prawdy. Jego celem ma być wykrywanie szerszego zakresu typów deepfake w porównaniu z istniejącymi systemami. Byłoby to możliwe za sprawą analizy "cyfrowych odcisków palców" w fałszywych nagraniach, dźwięku i obrazach. Pozwoli to na identyfikację źródła deepfake.
- Od dawna rozumiemy, że deepfake może wpływać na ludzkie przekonania i zachowanie – powiedział James Julius, prezes i dyrektor generalny VISIMO. Dodał: - ale co z technologią, która jest szkolona na tendencyjnych danych? Jeśli algorytmy DoD są nieświadomie szkolone na zmanipulowanych danych, stanowi to poważne zagrożenie dla bezpieczeństwa narodowego.
Według Juliusa jednym z przykładów takich zagrożeń jest takie manipulowanie danym, które sprawi, że algorytm namierzania wrogich celów błędnie je zaklasyfikuje lub go zignoruje.
Aletheia jest trzecim projektem przyznanym firmie Visimo w ramach programu STTR Sił Powietrznych USA, który zakłada współpracę małych firm z instytucjami akademickimi w celu rozwoju technologii. Pozostałe dwa dotyczą warunkowej sieci kontradyktoryjnej (CGAN) do generowania danych syntetycznych oraz wykrywania i unikania architektury dla dronów.