Roje AI przejmą social media? Eksperci: Będą udawać ludzi i ich nękać
Naukowcy ostrzegają, że "roje sztucznej inteligencji" nowej generacji zaatakują media społecznościowe, symulując zachowania ludzi i nękając prawdziwych użytkowników - donosi "Science".
Naukowcy alarmują, że tzw. "roje sztucznej inteligencji" mogą niebawem masowo pojawiać się na platformach społecznościowych, aby szerzyć fałszywe narracje, nękać użytkowników i podważać demokrację. Jak opisuje zespół badaczy w czasopiśmie "Science", "roje AI" staną się częścią nowego frontu wojny informacyjnej, zdolnej naśladować ludzkie zachowania, aby uniknąć wykrycia, jednocześnie tworząc iluzję autentycznego ruchu online.
Rój AI to rodzaj "samowystarczalnego organizmu"
Każdy użytkownik social mediów zdaje sobie sprawę, że platformy te to dziś przestrzeń silnych podziałów i sporów. Internet jest dziś dodatkowo zalany botami - kontami obsługiwanymi wyłącznie przez oprogramowanie, bez udziału człowieka, które odpowiadają już za ponad połowę całego ruchu w sieci. Tradycyjne boty zazwyczaj ograniczają się do powtarzania prostych czynności, jak np. wielokrotne publikowanie takich samych, prowokacyjnych treści. Choć nadal mogą wyrządzać szkody - szerząc dezinformację i sztucznie wzmacniać fałszywe narracje - zwykle są łatwe do zidentyfikowania.
Zupełnie inaczej działają jednak roje sztucznej inteligencji nowej generacji, koordynowane przez duże modele językowe (LLM), stojące za popularnymi chatbotami, typu: ChatGPT czy Claude. Dzięki nim, systemy te będą wystarczająco dopasowane do infiltracji społeczności online, przybierając różnorodne persony. Gdy taki model stoi na czele, rój może funkcjonować w sposób znacznie bardziej zaawansowany.
Okulary AI. Technologia istnieje, ale jeszcze się nie przyjęła
"Mówimy [o roju AI - red.] jako o rodzaju organizmu, który jest samowystarczalny, potrafi się koordynować, uczyć, adaptować z czasem i dzięki temu specjalizuje się w wykorzystywaniu ludzkich słabości" – komentował dla "Live Science" Jonas Kunst, profesor psychologii kulturowej i społecznej na Uniwersytecie w Oslo.
Taki system potrafi dostosowywać się do społeczności, do których przenika, tworząc zestawy odmiennych person, zachowujących pamięć i spójną tożsamość. Działa jak samodzielny organizm - uczy się, koordynuje własne działania i z czasem coraz skuteczniej wykorzystuje ludzkie słabości, jednocześnie unikając wykrycia przez mechanizmy moderacji.
Rój to mogą być miliony agentów AI
Roje AI mogą działać jako narzędzie prześladowania, aby zniechęcić do argumentów podważających ich narrację. Mogą one odgrywać rolę wściekłego tłumu, atakując jednostki z odmiennymi poglądami i zmuszając je do opuszczenia platformy. Choć badacze nie określili dokładnie, kiedy takie roje zaczną się pojawiać, zaznaczyli, że będą trudne do wykrycia. Ślady rosnącego wpływu botów w mediach społecznościowych są już zauważalne. Teorie spiskowe, jak "martwy internet", sugerują, że większość aktywności online jest generowana przez boty.
Rój może zawierać setki, tysiące, a nawet milion agentów sztucznej inteligencji. Kunst zauważył, że liczba ta zależy od mocy obliczeniowej i będzie również ograniczona przez ograniczenia, które firmy mediów społecznościowych mogą wprowadzić w celu zwalczania rojów.
"Myślę, że im bardziej zaawansowane są te boty, tym mniej ich faktycznie potrzeba" – powiedział w wywiadzie dla Live Science Daniel Schroeder, główny autor badania, badacz z norweskiej organizacji badawczej SINTEF.
Zdaniem autorów badania opublikowanego w "Science", agenci mają przewagę w dyskusjach z prawdziwymi użytkownikami, ponieważ mogą publikować posty 24 godziny na dobę, każdego dnia, tak długo, jak długo ich narracja się utrwali. Uważają oni, że w "wojnie poznawczej" nieustępliwość i wytrwałość sztucznej inteligencji mogą być bronią przeciwko ograniczonym ludzkim wysiłkom.
Platformy społecznościowe chcą przyciągać realnych użytkowników, a nie agentów SI, dlatego - zdaniem naukowców - odpowiedzią na ataki AI będzie zaostrzenie weryfikacji kont i wymuszanie potwierdzania tożsamości. Takie rozwiązanie niesie jednak ryzyko, bo może ograniczać anonimowy sprzeciw polityczny w krajach autorytarnych, a dodatkowo nawet prawdziwe konta mogą zostać przejęte. Mimo to badacze podkreślają, że silniejsze uwierzytelnianie znacząco podniosłoby koszty i trudność wdrażania rojów SI.
Naukowcy mówią, jak się bronić przed rojem sztucznej inteligencji
Aby przeciwdziałać zagrożeniu, naukowcy proponują wzmocnienie weryfikacji kont oraz monitorowanie ruchu internetowego w celu wykrywania statystycznie anormalnych wzorców. Powstanie "Obserwatorium Wpływu AI" mogłoby pomóc w badaniach i świadomości zagrożenia przed zakłóceniami wyborów i innych dużych wydarzeń.
"Z uzasadnioną pewnością ostrzegamy przed przyszłym rozwojem sytuacji, który może mieć nieproporcjonalne konsekwencje dla demokracji i musimy zacząć się do tego przygotowywać" - powiedział Kunst. "Musimy działać proaktywnie, zamiast czekać na pierwsze tego typu większe wydarzenia, na które negatywnie wpłyną roje sztucznej inteligencji".