Wojna informacyjna w epoce postprawdy. AI na usługach reżimu w Teheranie
"Zanim prawda włoży buty, kłamstwo obiegnie Ziemię" – miał zauważyć przed laty Mark Twain. Przypisywane mu słowa trafnie opisują zjawisko, które w czasie wojny Izraela i Stanów Zjednoczonych z Iranem stało się wyraźnie widoczne: zalewają nas generowane przez AI propagandowe treści, które skutecznie zacierają granicę pomiędzy prawdą i fałszem.
Płonący wieżowiec Burdż Chalifa, amerykański lotniskowiec USS Abraham Lincoln trafiony serią rakiet czy setki ciał ofiar jednego z nalotów – wszystko to możemy zobaczyć na filmach, których jakość jest na tyle wysoka, że na pierwszy rzut oka nie budzą podejrzeń. Jeśli widzimy coś na filmie, to musi być prawdą?
Nie musi, a we wspomnianych przypadkach zdecydowanie nie jest. Choć próbę narzucenia własnej narracji podejmują wszystkie strony konfliktu, wykorzystanie AI do generowania propagandowych treści widać przede wszystkim po stronie Iranu.
Polska ma czego szukać w kosmosie
Irańskie media na dużą skalę pokazują materiały wideo, na których oglądamy zmieniony w gruzy Tel Awiw, skuteczny atak rakietowy lub lotniczy na amerykański lotniskowiec czy zniszczone amerykańskie bazy wojskowe.
Fałsz, który wygląda jak prawda
Realizm tych treści jest na tyle wysoki, że w niektórych przypadkach dają się nabrać nie tylko zwykli użytkownicy, ale także media z całego świata – zwłaszcza, że w niektórych przypadkach przekaz wzmacniają komunikaty różnych irańskich instytucji. Przykładem jest choćby komunikat przedstawiciela Korpusu Strażników Rewolucji Islamskiej, chwalącego się skutecznym atakiem na lotniskowiec.
Dynamiczny rozwój narzędzi generatywnej sztucznej inteligencji sprawia, że tworzenie treści propagandowych lub po prostu takich, które mają wprowadzić odbiorcę w błąd, jest coraz łatwiejsze. AI potrafi dziś w kilka sekund wygenerować grafikę, którą trudno odróżnić od prawdziwego zdjęcia. To samo dotyczy nagrań. Nasilającym się problemem jest to, że wszelkie grafiki i nagrania generowane przez AI są coraz lepszej jakości, a co za tym idzie - są wiarygodne i na pierwszy rzut oka trudno je odróżnić od rzeczywistości.
Na lep propagandy dają się złapać nie tylko przypadkowe osoby, ale także dziennikarze, czego potwierdzeniem jest jedna z polskich redakcji publikująca nagranie z gry wideo pokazujące rzekome zestrzelenie amerykańskiego samolotu czy amerykańska stacja CNN udostępniająca propagandowy film irańskiej agencji prasowej, przedstawiający wielki arsenał dronów.
Kto korzysta z fałszywej narracji?
Jak zauważa "The New York Times", powielane w ten sposób materiały – choć znajdują odbiorców na całym świecie – są generowane w Iranie przede wszystkim na użytek wewnętrznej polityki i przekonania mieszkańców Iranu, i zwolenników z całego świata o wielkich sukcesach militarnych irańskiego reżimu. Co istotne, nie są to oddolne, przypadkowe działania, ale skoordynowana akcja, której powodzeniem pochwalił się w irańskiej telewizji jeden z urzędników.
Na systemowość takich działań zwraca uwagę m.in. brytyjski think tank Institute for Strategic Dialogue, który znajduje wiele analogii pomiędzy propagandowym wykorzystaniem narzędzi AI przez Iran, a podobnymi działaniami prowadzonymi przez Rosję w związku z wojną w Ukrainie. Również w przypadku treści dotyczących wojny w Iranie można natrafić na rosyjski ślad – jak w przypadku filmów pokazujących muzułmanów w Europie, nawołujących do uczczenia śmierci ajatollaha Alego Chameneiego.
Jak w wielu innych przypadkach Rosja wykorzystuje tu prawdziwe wydarzenia do stworzenia fałszywego przekazu, którego celem jest antagonizowanie społeczeństw Zachodu i kierowanie ich przeciwko sobie.
AI na usługach reżimów
Obrona przed fałszywą narracją jest tym trudniejsza, że dotyczy zarówno treści wideo, jak i wyników wyszukiwań, serwowanych użytkownikom różnych usług internetowych - czatboty AI przejęły znaczną część zadań, które do niedawna wykonywały wyszukiwarki.
Tymczasem – jak wskazała firma OpenAI, odpowiedzialna za usługę ChatGPT, "grupy z Rosji, Chin, Iranu i Izraela wykorzystywały modele AI należące do OpenAI do prowadzenia ukrytych operacji wpływu w mediach społecznościowych, publikując m.in. komentarze w języku polskim".
Celem propagandowych działań są przy tym nie tylko użytkownicy, ale same algorytmy, które dzięki masowej dostępności fałszywych treści – budują swoje odpowiedzi czerpiąc z "zatrutych źródeł" – serwisów o niskiej reputacji, tworzonych z myślą o kampaniach wpływu i powielających propagandowy przekaz.
Dowodzi tego badanie przeprowadzone przez firmę NewsGuard. Zbadane przez nią 15 narracji, kolportowanych przez rosyjską sieć serwisów Prawda (Pravda.ru) trafiło do odpowiedzi siedmiu z ośmiu badanych czatbotów, podających w swoich odpowiedziach odnośniki do źródeł informacji.
Obrona przed dezinformacją
Problem polega na tym, że – choć możemy mieć świadomość istnienia takiego zjawiska – bardzo często nie mamy narzędzi, aby z nim skutecznie walczyć. Wciąż jednak w niektórych przypadkach można wskazać detale, pozwalające na rozpoznanie fałszywych treści.
Przede wszystkim warto zwracać uwagę na szczegóły takich dzieł - czy w tle wszystkie postaci i budynki wyglądają naturalnie, czy napisy przedstawiają jakiekolwiek słowa, czy są tylko zlepkiem niezrozumiałych pikseli. "Czerwoną lampkę" może też zapalić jakość nagrania - w dobie coraz to lepszych aparatów w telefonach, nagrania w bardzo niskiej jakości - wręcz uniemożliwiającej przyjrzenie się szczegółom - może oznaczać, że w ten sposób autor wygenerowanego obrazu chciał ukryć tzw. fejka.
Obok technicznej analizy różnych treści, metodą obrony pozostaje próba weryfikacji, kto je rozpowszechnia: czy jest to anonimowe konto bez historii, które niedawno uaktywniło się w jakimś serwisie, oficjalne medium państwowe czy znana z weryfikacji faktów redakcja. Widząc jakąś treść – zwłaszcza budzącą kontrowersje – warto zadać sobie pytanie: jeśli uznam to co widzę za prawdę, kto na tym skorzysta?