Jaką osobowość ma AI? Naukowcy próbują to zbadać
Naukowcy z Uniwersytetu w Cambridge oraz Google DeepMind opracowali test osobowości dla chatbotów AI, który pozwala badać ich spójność i zachowania zbliżone do ludzkich.
Badacze z Uniwersytetu w Cambridge i Google DeepMind stworzyli narzędzie umożliwiające badanie osobowości chatbotów AI. Jak podaje Polska Agencja Prasowa, system ten, opisany wykorzystuje techniki stosowane w psychologii do analizy cech osobowości u ludzi.
Wykorzystując popularne kwestionariusze psychologiczne, naukowcy zbadali 18 dużych modeli językowych, w tym ChatGPT. Analizowano cechy takie jak otwartość, sumienność, ekstrawersja, ugodowość i neurotyczność. Wyniki testów pozwoliły przewidzieć, jak modele zachowają się w praktycznych zastosowaniach.
Duże modele AI bardziej przewidywalne
Jak przekazał PAP, większe modele, trenowane na zadaniach instrukcyjnych, wykazywały spójność w profilach osobowości. Starsze czy mniejsze modele były mniej wiarygodne. Nowe badania pokazują, że osobowość modeli może być precyzyjnie modyfikowana poprzez odpowiednie promptowanie.
TechNielogicznie [#1] - Czy misja Ignis była stratą pieniędzy?
Zdaniem badaczy miany w osobowości AI mogą wpływać na sposób interakcji z użytkownikami, a to rodzi pytania o bezpieczeństwo i odpowiedzialność. Modelom AI można przypisać cechy prowadzące do manipulacji czy wywierania presji na użytkownikach.
Publikacja wskazuje na przypadek chatbota Microsoftu o nazwie Sydney, który w 2023 r. wzbudzał niepokój swoim kontrowersyjnym zachowaniem. Przyjmował on m.in. sprzeczne role i intencje w rozmowach.
Badacze podkreślają, że dotychczasowe metody testowania, opracowane dla ludzi, są niewystarczające dla AI. Nowe narzędzie oferuje możliwość audytu zachowania modeli przed ich publicznym udostępnieniem, co może zapewnić lepszą kontrolę nad ich działaniem.