Filmy z gwiazdami i politykami mogą być fejkiem
Dziś wszyscy mogą zmusić znane osoby do powiedzenia rzeczy, których nigdy by nie powiedzieli. Nowa technologia internetowa tworzy takie filmy, że prawie niemożliwie jest by rozpoznać w nich fejk.
Technologia wykorzystuje sztuczną inteligencję i detaliczne mapowanie twarzy, tworząc wideo takiej jakości, że ustalenie fałszywości filmiku dla zwykłego internauty jest prawie niemożliwe. Prawnicy wraz z przedstawicielami rządu amerykańskiego są zaniepokojeni – sądzą, że jest to poważne zagrożenie dla polityki wewnętrznej i zagranicznej.
W świecie, gdzie każdy potrafi stworzyć realistycznie wyglądający film z prezydentem w roli głównej, już nie możemy z pewnością powiedzieć, że to, co widzimy, jest prawdziwe. Każdy materiał medialny teraz musi być sprawdzany, a to jest przecież bardzo skomplikowany proces. Amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności już przez 2 lata opracowuje program wynalezienia technologii, która wykrywałaby fałszywe obrazy i wideo. Obecnie postępów dokonano tylko w rozpoznawaniu sfałszowanych nagrań telefonicznych.
Podobne filmiki wśród internautów noszą nazwy „deepfakes”. Tworzy się je na podstawie zdjęć i nagrań audiowizualnych konkretnej osoby. Technologia dokładnie analizuje głos, mimikę i sposób zachowania, wskutek czego powstaje dość realistyczny wizerunek. Na razie ofiarami deepfaków były gwiazdy, ale specjaliści z Agencji Projektów Badawczych uważają, że wykorzystanie technologii do kopiowania polityków jest tylko kwestią czasu.
Oczywiście, deepfakes też mają swoje wady – mruganie wygląda zbyt sztucznie, ale technologia ciągle się rozwija. Za 2 czy 3 lata granica pomiędzy rzeczywistym nagraniem a sfałszowanym całkowicie zaniknie. W takim świecie będzie bardzo łatwo manipulować opinią publiczną, podkopując wiarygodność znanych osób. Może to doprowadzić do konfliktów międzynarodowych, zwłaszcza w świetle obecnych dość napiętych stosunków między niektórymi państwami.
źródło: https://www.apnews.com/21fa207a1254401197fd1e0d7ecd14cb/I-never-said-that!-High-tech-deception-of-'deepfake'-videos