Zaskakujące efekty używania ChataGPT. Naukowcy odkryli coś niepokojącego
Zespół MIT Media Lab i OpenAI zbadał, jak interakcje z ChatGPT wpływają na dobrostan emocjonalny użytkowników. Naukowcy odkryli, że tzw. "power users", czyli osoby, które bardzo często korzystają z ChatGPT, mogą uzależniać się emocjonalnie od tego narzędzia.
ChatGPT jest tak nowym narzędziem, którego długoterminowe skutki użytkowania wciąż pozostają nieznane. Choć widzimy, że jest rewolucyjnym odkryciem i z pewnością ułatwia codzienną pracę, to ostatnie badania wskazują, że już niektórzy nie wyobrażają sobie bez niego dnia i traktują go jak osobistego doradcę. Wyniki zebranych danych mogą zaniepokoić najbardziej aktywnych użytkowników tej technologii.
Użytkownicy traktują ChataGPT jak swojego przyjaciela
Zespół MIT Media Lab we współpracy z OpenAI postanowił zbadać, jak interakcje z chatbotem takim jak ChatGPT wpływają na społeczne i emocjonalne samopoczucie użytkowników. Zwrócili uwagę, że ludzie korzystają z tego narzędzia na różne sposoby, nie zawsze zgodne z zamierzeniami twórców, co może prowadzić do nieprzewidzianych konsekwencji. Ich wyniki wskazują na złożone relacje między użytkownikami a AI. Użytkownicy często zaczynają postrzegać ChataGPT jako swojego przyjaciela. "ChatGPT nie jest zaprojektowany do zastępowania ludzkich relacji, ale jego styl konwersacyjny może skłaniać do takiego użycia" - podkreślili badacze w analizie.
Badania składały się z dwóch części. Pierwsza to analiza 40 milionów interakcji z ChatGPT, przeprowadzona przez OpenAI. "Analiza ta pozwoliła na zrozumienie wzorców użycia i ich wpływu na emocjonalne samopoczucie użytkowników" - informują naukowcy. Druga część to kontrolowane badanie z udziałem 1000 uczestników, które miało na celu zidentyfikowanie wpływu różnych funkcji platformy na stan psychospołeczny użytkowników.
Dalsza część artykułu pod materiałem wideo
Emocjonalne zaangażowanie w przypadku wiadomości głosowych
Wyniki testów wykazały, że większość codziennych interakcji z chatbotem nie wykazywała oznak emocjonalnego zaangażowania. Inaczej sytuacja wyglądała w przypadku osób korzystających z wiadomości głosowych. W tej grupie rozmowy były znacznie bardziej ekspresyjne i emocjonalne, a użytkownicy częściej uznawali ChatGPT za swojego przyjaciela. Co więcej, intensywne korzystanie z chata głosowo wiązało się z pogorszeniem samopoczucia psychicznego.
To jednak nie koniec niepokojących odkryć. Badanie objęło również osoby, które używały ChatGPT do rozmów o charakterze osobistym, na przykład w celu uzyskania porady. Tacy użytkownicy przyznawali, że czują się bardziej samotnie, choć nie wykazywali oznak uzależnienia emocjonalnego. Z kolei uzależnienie było bardziej widoczne u osób korzystających z chata do rozmów o charakterze zawodowym lub w celu zdobycia nowych pomysłów.
Kto jest najbardziej narażony na negatywne skutki?
Badacze zauważyli, że osoby łatwo przywiązujące się w relacjach oraz te, które postrzegały AI jako przyjaciela, były bardziej narażone na negatywne skutki korzystania z chatbota. Długotrwałe i codzienne użytkowanie ChatGPT również wiązało się z pogorszeniem stanu psychicznego.
Jednym z kluczowych wniosków badania było to, że częste korzystanie z chata, niezależnie od tematu rozmowy czy formy (głosowej lub tekstowej), wiązało się z pogorszeniem samopoczucia psychicznego. Istnieją więc podstawy do stwierdzenia, że nadmierne korzystanie z technologii AI może prowadzić do pogorszenia jakości życia.
Wyniki badań trzeba interpretować ostrożnie
Twórcy ChatGPT zdają sobie sprawę z narastającego problemu i dlatego zainicjowali badania nad wpływem AI na stan psychiczny użytkowników. Wyrazili nadzieję, że temat ten zostanie podjęty przez środowiska akademickie i branżę nowych technologii, aby wnikliwie badać relacje między człowiekiem a AI. "Wyniki nie zostały jeszcze poddane recenzji naukowej, co oznacza, że należy je interpretować ostrożnie" - zaznaczają autorzy analizy. Ponadto, badania dotyczyły wyłącznie użytkowników ChatGPT w USA, co podkreśla potrzebę dalszych badań w różnych językach i kulturach.
Wyniki badań są istotnym krokiem w zrozumieniu wpływu zaawansowanych modeli AI na ludzkie doświadczenia. "Nasze odkrycia mogą zachęcić do dalszych badań nad interakcjami człowiek-AI" - dodają badacze. Wskazują również na potrzebę dalszych badań, aby lepiej zrozumieć, jak i dlaczego użycie AI wpływa na użytkowników. Podkreślili, że ich celem jest tworzenie AI, które maksymalizuje korzyści dla użytkowników, jednocześnie minimalizując potencjalne szkody, zwłaszcza w zakresie dobrostanu psychicznego i uzależnienia od technologii. Badania te mają na celu odpowiedzieć na pojawiające się wyzwania zarówno dla OpenAI, jak i całej branży.
ChatGPT niczym filmowy system operacyjny "Samantha"
Wyniki badań zmuszają do refleksji nad tym, jak technologia może wpływać na nasze emocje, więzi i postrzeganie rzeczywistości. To wszystko przypomina fabułę niezwykle aktualnego dziś filmu "Her" z 2013 r., w reż. Spike'a Jonze'a, opowiadającego o samotnym pisarzu, który nawiązał bardzo emocjonalną więź z systemem operacyjnym, wyposażonym w sztuczną inteligencję, przypominającym ChatGPT.
System ten, nazwany Samantha, szybko stał się bliską towarzyszką mężczyzny, a ich relację zaczęły łączyć silne emocje, właśnie za sprawą głównie rozmów głosowych. Choć nakręcony ponad dekadę temu, świetnie oddaje kwestie samotności, relacji międzyludzkich, uzależnienia od technologii oraz granic między człowiekiem a maszyną.