Nie ustawiaj tak hasła. Każdy może je odgadnąć
Generowanie haseł przez chatboty AI może obniżać bezpieczeństwo kont. Testy firmy Irregular i serwisu Android Police pokazują przewidywalne wzorce w hasłach tworzonych przez ChatGPT, Claude i Gemini.
Wyniki Irregular wskazują, że hasła z AI są schematyczne. W teście 50 propozycji od Claude tylko 23 były unikalne. Jeden ciąg, K9#mPx$vL2nQ8wR, powtórzył się 10 razy. To oznacza realne ryzyko łatwiejszego złamania kont.
Sztuczna inteligencja a bezpieczeństwo haseł
Badacze podkreślają, że choć takie hasła wyglądają na silne, przewidywalność wzorców ułatwia ataki. Cyberprzestępcy mogą poprosić model o „silne hasło” i trafić na te same układy znaków co ofiara.
Android Police opisał, że Gemini na żądanie „silnego hasła” często powtarza te same słowa. W 10 próbach wracały m.in. "Solar", "Thunder", "Panda" i "Jacket", a zmieniał się głównie ciąg cyfr po trzech rzeczownikach.
Powtarzalne schematy w ChatGPT, Claude i Gemini
Irregular zauważa, że różne prompty modyfikują styl, ale nie losowość. Najlepiej wypadł ChatGPT, jednak i on generował rozpoznawalne schematy. Większa różnorodność pojawia się przy prośbie o wiele haseł naraz.
Autorzy zwracają uwagę, że automaty oceniają takie propozycje jako „silne”, ale człowiek szybko zauważy regułę. Zbudowanie biblioteki często używanych liter, cyfr i struktur zawęża przestrzeń możliwych kombinacji.
Jak tworzyć bezpieczne hasła i chronić konto
Eksperci radzą nie powierzać samym chatbotom generowania haseł. Lepszą metodą jest wybór czterech losowych słów z dodaniem znaków specjalnych i liczb w losowych miejscach.
Kluczowe jest dwuskładnikowe uwierzytelnianie. Nawet jeśli ktoś pozna hasło, dodatkowy etap logowania utrudnia przejęcie konta. Pomocne mogą być też klucze dostępu i menedżery haseł, choć te ostatnie nie dają 100 proc. pewności.