Koniec z fałszywymi zdjęciami. Sztuczna Inteligencja od Adobe wykryje każdego "fotoszopa"

Koniec z fałszywymi zdjęciami. Sztuczna Inteligencja od Adobe wykryje każdego "fotoszopa"

Koniec z fałszywymi zdjęciami. Sztuczna Inteligencja od Adobe wykryje każdego "fotoszopa"
Źródło zdjęć: © Adobe
Arkadiusz Stando
26.06.2018 11:47, aktualizacja: 26.06.2018 12:26

Rozwój głębokiego nauczania doprowadził jakiś czas temu do rozwoju tzw. "deepfakes". To fałszywe filmy porno, w których zamienia się twarz aktorów z potencjalnymi ofiarami. Jednak łatwo zauważyć, że nie są prawdziwe, inaczej jest z przerobionymi zdjęciami, z którymi Adobe postanowił walczyć.

Chociaż "deepfakes" są oczywistym fałszerstwem, to obiły się szerokim echem w internecie i mediach. Na szczęście zniknęły już z popularniejszych portali, takich jak Reddit, czy Twitter. Ich twórcy umieszczali je tam z powodzeniem przez kilka tygodni, aż serwisy zareagowały.

Jednak sztuczna inteligencja potrafi więcej, niż "deepfakes". Niedawno pojawiło się wideo, w którym oglądamy przemowę Baracka Obamy. W nagraniu możemy usłyszeć między innymi obelgi w kierunku Donalda Trumpa. Wideo jest oczywiście fałszywe, do jego stworzenia wykorzystano Adobe After Effects i sztuczną inteligencję do podmiany twarzy - FakeApp.

Prawdopodobnie był to jeden z argumentów dla których Adobe stwierdziło, że czas stworzyć broń przeciwko tym "fejkom". Co prawda projekt, który rozpoczęło Adobe dotyczy zdjęć a nie nagrań, to może pomóc w przyszłości opracować urządzenie do analizy wideo. Sztuczna inteligencja Adobe'ama rozpoznawać wszelkie zmiany w zdjęciach, które sprawiają, że są fotomontażami.

Vlad Morarium, badacz firmy Adobe, spędził 14 lat na badaniu manipulowania zdjęciami z wykorzystaniem programów takich jak Photoshop. Wykorzystał teraz swoją wiedzę do wyszkolenia sztucznej inteligencji, za pomocą nauczania maszynowego, która potrafi rozróżniać przerobione zdjęcia. SI może stwierdzić, czy część obrazu została dodana, przesunięta, wycięta, czy jakkolwiek edytowana.

Podobnie jak w większości przypadków, podczas tworzenia tej SI, wykorzystano ogromną bazę danych. Sztucznej inteligencji przedstawiono ogromny zbiór przerobionych zdjęć. W niektórych testach poradziła sobie lepiej od jakichkolwiek wcześniej zbudowanych narzędzi, oraz od specjalistów w dziedzinie "przerabiania" zdjęć.

Niestety póki co, nie da się bezpośrednio wykorzystać tej SI do analizowania "deepfakes". Narzędzie może posłużyć do obalania fałszywych zdjęć między innymi celebrytów czy polityków, ale tak naprawdę zastosowań jest mnóstwo. Takich fałszywych obrazów widujemy pewnie tysiące.

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (3)