Filmy z gwiazdami i politykami mogą być fejkiem
Dziś wszyscy mogą zmusić znane osoby do powiedzenia rzeczy, kt órych nigdy by nie powiedzieli. Nowa technologia internetowa tworzy takie filmy, że prawie niemożliwie jest by rozpoznać w nich fejk.
Technologia wykorzystuje sztuczną inteligencję i detaliczne mapowanie twarzy, tworząc wideo takiej jakości, że ustalenie fałszywości filmiku dla zwykłego internauty jest prawie niemożliwe. Prawnicy wraz z przedstawicielami rządu amerykańskiego są zaniepokojeni – sądzą, że jest to poważne zagrożenie dla polityki wewnętrznej i zagranicznej.
W świecie, gdzie każdy potrafi stworzyć realistycznie wyglądający film z prezydentem w roli głównej, już nie możemy z pewnością powiedzieć, że to, co widzimy, jest prawdziwe. Każdy materiał medialny teraz musi być sprawdzany, a to jest przecież bardzo skomplikowany proces. Amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności już przez 2 lata opracowuje program wynalezienia technologii, która wykrywałaby fałszywe obrazy i wideo. Obecnie postępów dokonano tylko w rozpoznawaniu sfałszowanych nagrań telefonicznych.
Podobne filmiki wśród internautów noszą nazwy „deepfakes”. Tworzy się je na podstawie zdjęć i nagrań audiowizualnych konkretnej osoby. Technologia dokładnie analizuje głos, mimikę i sposób zachowania, wskutek czego powstaje dość realistyczny wizerunek. Na razie ofiarami deepfaków były gwiazdy, ale specjaliści z Agencji Projektów Badawczych uważają, że wykorzystanie technologii do kopiowania polityków jest tylko kwestią czasu.
Oczywiście, deepfakes też mają swoje wady – mruganie wygląda zbyt sztucznie, ale technologia ciągle się rozwija. Za 2 czy 3 lata granica pomiędzy rzeczywistym nagraniem a sfałszowanym całkowicie zaniknie. W takim świecie będzie bardzo łatwo manipulować opinią publiczną, podkopując wiarygodność znanych osób. Może to doprowadzić do konfliktów międzynarodowych, zwłaszcza w świetle obecnych dość napiętych stosunków między niektórymi państwami.
źródło: https://www.apnews.com/21fa207a1254401197fd1e0d7ecd14cb/I-never-said-that!-High-tech-deception-of-'deepfake'-videos