Sztuczna inteligencja w rękach hakerów dokona spustoszeń, jakich jeszcze nie widzieliśmy
Samochód, który sam się ukradnie? To nie żart. Już za chwilę z możliwości sztucznej inteligencji zaczną korzystać przestępcy. Będą uczyli komputery, jak infekować i atakować systemy bankowe, sieci energetyczne i prywatne urządzenia. Początki tego trendu obserwujemy już dzisiaj.
13.12.2017 | aktual.: 13.12.2017 16:33
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
- Już w przyszłym roku możemy spodziewać się ataków hakerskich wykorzystujących sztuczną inteligencję i uczenie maszynowe – mówi w rozmowie z WP Robert Dąbrowski, szef zespołu inżynierów Fortinet, firmy zajmującej się bezpieczeństwem internetowym.
Według niego już całkiem niedługo będziemy musieli zmierzyć się z nowym zagrożeniem jakim będą hivenety. Będą to sieci zarażonych urządzeń wykorzystujące sztuczną inteligencję i działające częściowo bez ingerencji człowieka.
- Hivenety to połączone ze sobą i wymieniające się danymi zarażone elementy sieci. Komputery, serwery, routery, a nawet inteligentne pralki, lodówki i samochody. Do tej pory, w typowym botnecie (czyli sieci zarażonych komputerów - przyp. red.), każda jednostka musi komunikować się z serwerem zarządzającym. Wymiana informacji, aktualizacje i wydawanie poleceń odbywa się w zhierarchizowany sposób. Istnieją konkretne jednostki zarządzające, do których podłączone są wszystkie urządzenia botnetu, to one zbierają i następnie rozsyłają informacje i polecenia – mówi Robert Dąbrowski. – Z hivenetem będzie zupełnie inaczej.
Robert Dąbrowski
- W hivenecie wszystkie jednostki komunikują się stale między sobą, niczym pszczoły w roju. Jeśli któraś z nich znajdzie jakąś podatność czy niezałataną dziurę w systemie, informacje o niej przekaże bezpośrednio do pozostałych jednostek hivenetu. Te będą w stanie, za pomocą sztucznej inteligencji i uczenia maszynowego, same stworzyć exploity i nowe wersje malware'u (czyli programy atakujące i przejmujące kontrolę nad komputerem - przyp. red.). Będą mogły też same podejmować decyzje o przeprowadzeniu ataku, gdy pojawią się dogodne warunki – tłumaczy specjalista.
Pod cyberostrzałem
- Wykorzystanie hivenetów przez hakerów sprawi, że skala ataków wzrośnie nawet kilkukrotnie – ocenia Dąbrowski. – Obecnie w sieci działają miliony przestarzałych i nieaktualizowanych systemów. Wykorzystanie hivenetów opartych o sztuczną inteligencję pozwoli przestępcom na szybkie ich wyszukiwanie i atakowanie. Do tej pory tę mozolną pracę wykonywali ludzie. Teraz inteligentne maszyny zrobią to za nich.
Dużo bardziej "przyziemne" zagrożenia związane z wykorzystaniem inteligentnych algorytmów widzi dr Radosław Nielek z Polsko-Japońskiej Akademii Nauk Komputerowych.
- Sztuczna inteligencja to bardzo szerokie pojęcie - mowi dr Radosław Nielek. - Z jednej strony można w nim zawrzeć inteligentne maszyny z powieści i filmów science-ficition, z drugiej, są to technologie, których używamy już dziś. Są nimi np. filtry antyspamowe, algorytmy rekomendujące książki czy filmy . Wszystko to nazywamy właśnie sztuczną inteligencją. I to właśnie tego typu algorytmy zostaną w pierwszej kolejności wykorzystane przez cyberprzestępców - ostrzega.
Dr Radosław Nielek
Sieć botów do wynajęcia
Pomyślmy nad tym, jak dziś działają hakerzy. Jednym z najczęstszych rodzajów ataku jest tzw. phishing. To próba skłonienia osoby do kliknięcia w link, ściągnięcia pliku lub podania loginu i hasła poprzez podszycie się pod zaufane strony lub kogoś znajomego (czy np. kuriera). Teraz robi się to hurtowo, czyli wysyła tę samą wiadomość do setek albo tysięcy użytkowników, w nadziei, że ktoś da się oszukać. Odsetek "sukcesów" w tym przypadku jest na szczęście niewielki.
Dużo większe szanse powodzenia ma metoda znana jako spear-phising. Jest to bardziej dopracowana i spersonalizowana metoda phishingu, gdzie haker dokładnie sprawdza swój cel i specjalnie dla niego dopasowuje wiadomość lub stronę, która ma posłużyć do ataku. Taka metoda jest skuteczniejsza, ale z oczywistych powodów bardziej czasochłonna. W tym miejscu z pomocą przyjdą algorytmy profilujące i rekomendujące. Dzięki nim przestępcy będą mogli hurtowo przeprowadzać spersonalizowane ataki, które będą miały dużo większe szanse powodzenia.
- Nie jest to wcale odległy scenariusz - uważa dr Nielek. - Już teraz coraz więcej narzędzi wykorzystujących sztuczną inteligencję i głębokie uczenie maszynowe dostępnych jest w ramach płatnych usług (ang. software-as-a-service). Oznacza to, że przestępcy nie będą musieli rozwijać własnych sieci uczących się, a po prostu je sobie wynajmą. Inny problem stanowi dostępność danych, na których sieci mogą się uczyć. A potrzebują ich naprawdę dużo. Takimi bazami dysponują np. Google czy Facebook, z którymi dzielimy się już prawie wszystkimi aspektami naszego życia i codzienności. Cyberprzestępcy nie mieli do tej pory do nich dostępu, jednak co raz więcej danych o nas udostępniamy publicznie. Oprócz tego co raz bardziej możliwe wydają się kradzieże tego typu baz danych. Są to bowiem niezwykle wrażliwe informacje.
- Dlatego to nie robotów-morderców powinniśmy się obawiać, myśląc o zagrożeniu ze strony sztucznej inteligencji, a praktyk znanych nam już dziś - przestrzega dr Radosław Nielek. - Na szczęście wraz z rozwojem tej technologii, coraz lepsze stają się również usługi, które mają nas chronić przed nowymi niestandardowymi atakami.
Napad na smart dom
Inne zagrożenie związane ze sztuczną inteligencją widzi Leszek Tasiemski, zarządzający zespołem Rapid Detection Center w F-Secure. Według niego możemy spodziewać się ataków wymierzonych w sztuczną inteligencję działającą w asystentach głosowych, inteligentnych domach czy autonomicznych samochodach.
- Znana nam dziś sztuczna inteligencja, to tak naprawdę algorytmy uczenia maszynowego – mówi Leszek Tasiemski. - Potrafią one z ogromną dozą dokładności wykryć komórki nowotworowe, określić, jak prawdopodobne jest, że osoba popełni przestępstwo czy nawet jaka jest jej orientacja seksualna, i to wyłącznie na podstawie zdjęcia tej osoby. Jednak we wnętrzu tych inteligentnych algorytmów drzemie mroczna tajemnica – uważa Tasiemski.
Leszek Tasiemski
- Chociaż algorytmy działają tak jak sobie tego zażyczyli ich twórcy, to nawet oni sami nie wiedzą do końca, na jakiej podstawie algorytm podjął decyzję taką, a nie inną. Algorytmy uczenia maszynowego nie są programowane w typowy sposób, a trenowane na milionach przykładów. Podczas tego procesu algorytm sam wybiera czynniki, na podstawie których podejmuje późniejsze decyzje – tłumaczy Tasiemski. – Już teraz widzimy niewinne ataki na sztuczną inteligencję, gdzie np. reklama aktywuje asystenta głosowego, żeby wykonał pewne akcje.
- Już teraz musimy przygotować się na zupełnie nowe rodzaje ataków, polegające na zatruwaniu świadomości sztucznej inteligencji – przewiduje Tasiemski. - Wyobraźmy sobie, że atakujący preparuje dane dla algorytmu, żeby osłabić jego czułość. Oswoić z czymś, co jest anomalią, sprawić aby nie reagował na groźne sytuacje lub reagował tak jak chce tego haker. Jaki może być efekt? W przypadku algorytmów, które niebawem będą podejmować decyzje biznesowe, będą to beztrosko udzielane kredyty czy bardzo niska stawka ubezpieczenia. Natomiast autonomiczne pojazdy pomylą czerwone światło z zielonym czy same się ukradną, ponieważ haker wyznaczył inne miejsce jako bazę – dodaje Tasiemski.