Przestępcy mogą zyskać nową broń. Wystarczy głos
Sztuczna inteligencja stwarza coraz więcej możliwości działania dla przestępców, o czym ostrzega BBC. Według serwisu, technologia klonowania głosu może pomóc naśladować głos wybranych osób.
Sztuczna inteligencja (ang. artificial intelligence – AI) jest obecna w wielu dziedzinach naszego życia. Technologia stale się rozwija i jest doskonalona. Niektórzy eksperci zwracają nawet uwagę, że może stanowić zagrożenie dla ludzkości, bo stanie się "mądrzejsza" od nas.
Cyberprzestępcy z nową bronią
W podobny sposób wypowiada się o niej miliarder, CEO Tesli i SpaceX – Elon Musk. W wywiadzie udzielonym "The New York Times" przyznał: "myślę, że zagrożenie ze strony AI jest kompletnie ignorowane przez bardzo mądrych ludzi, bo ci bardzo mądrzy ludzie nie sądzą, że komputer kiedykolwiek mógłby być tak samo mądry jak oni. To pycha i ewidentny błąd".
Zdania na temat zagrożeń związanych z AI są podzielone. Wiadomo jednak, że rozwój technologii ułatwia działanie cyberprzestępców, co również należy rozpatrywać w kategorii wyzwań dla bezpieczeństwa ludzkości. Serwis BBC zwrócił ostatnio uwagę na technologię klonowania głosu. W najprostszy sposób można ją opisać jako odtwarzanie głosu za pośrednictwem programów komputerowych, które tworzą jego syntetyczną kopię.
Oprogramowanie jest w stanie odtworzyć głos z nagrania i bazując na nim "wypowiadać" dowolne słowa lub zdania, które są wpisywane na klawiaturze. Program komputerowy odtwarza akcent, barwę, ton, tempo, ale też sposób oddychania podczas mówienia i naśladuje płynność mowy. Dodatkowo jest w stanie dopasowywać głos do różnych emocji – złości, szczęścia czy gniewu.
Eksperci technologię klonowania głosu nazywają "deepfake", czyli tak samo jak fałszywe filmy, które powstają za sprawą techniki obróbki obrazów bazującej na sztucznej inteligencji. Eddy Bobritsky, specjalista ds. cyberbezpieczeństwa z firmy Minerva Labs uważa, że tworzenie syntetycznych głosów wiąże się z "ogromnym zagrożeniem bezpieczeństwa". Tak samo jak ma to miejsce w przypadku tradycyjnego deepfake.
- Jeśli chodzi o e-maile lub wiadomości tekstowe, od lat wiadomo, że dość łatwo jest podszywać się pod innych – wyjaśnia Bobritsky. Dodaje: - ale do tej pory rozmowa przez telefon z kimś, komu ufasz i dobrze znasz, była jednym z najczęstszych sposobów na upewnienie się, że rzeczywiście znasz tę osobę.
Zdaniem eksperta przykładem może być sytuacja, gdy do pracownika zadzwoni szef z prośbą o podanie poufnych informacji. Ten, gdy rozpozna jego głos, po prostu zrobi to, o co został poproszony. Może to wykorzystać wielu cyberprzestępców.
Rozwój technologii, która początkowo miała pomóc aktorom i twórcom filmów (bo pozwalała np. wykorzystać klonowanie głosu do tłumaczenia słów aktora na różne języki) może okazać się szansą na rozwój nowych metod działania oszustów. Jak zaznacza BBC, wystarczy zaledwie 10-minutowe nagranie, aby wygenerować wysokiej jakości kopię czyjegoś głosu.