ChatGPT w prestiżowych pracach naukowych. Niemały skandal?
Analiza prof. Artura Strzeleckiego ujawnia obecność charakterystycznych fraz ChatGPT w prestiżowych czasopismach naukowych. Może to mocno wpływać na zaufanie społeczeństwa wobec naukowców.
W recenzowanych publikacjach naukowych pojawiają się frazy typowe dla ChatGPT, co wynika z analizy przeprowadzonej przez prof. Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Katowicach. Naukowiec zauważa, że takie praktyki mogą podważać zaufanie do procesu tworzenia treści naukowych.
Prof. Strzelecki zwrócił uwagę na specyficzne struktury językowe, które są charakterystyczne dla ChatGPT, takie jak "Według mojej wiedzy na dzień ostatniej aktualizacji...", "Mam nadzieję, że to pomoże!", "Oczywiście! Tutaj jest/są ...", "Cieszę się, że mogę pomóc!", "Mam nadzieję, że to wyjaśnia Twoje pytanie. Jeśli potrzebujesz więcej informacji, daj znać!". Takie sformułowania, które nie są typowe dla ludzkiego języka, zaczęły pojawiać się w anglojęzycznych publikacjach naukowych. Sugeruje to, że autorzy kopiują fragmenty generowane przez sztuczną inteligencję bez ich weryfikacji.
Dalsza część artykułu pod materiałem wideo
Zachwiane zaufanie
W swojej pracy prof. Strzelecki przeanalizował artykuły, które nie deklarowały użycia ChatGPT. Wyszukiwał typowe dla tego narzędzia zwroty w bazie Google Scholar. Okazało się, że ich popularność wzrosła po wprowadzeniu ChatGPT, a w prestiżowych czasopismach z bazy Scopus znaleziono je w 89 artykułach.
Odpowiedzialność autorów
- ChatGPT jest tylko narzędziem. To autor bierze całą odpowiedzialność za to, co zawrze w swoim artykule naukowym - mówi prof. Strzelecki w rozmowie z PAP.
Podkreślił przy tym, że bezmyślne korzystanie z AI w nauce podkopuje jej autorytet. Naukowiec apeluje o krytyczne podejście do treści generowanych przez AI i odpowiedzialne ich wykorzystanie.
Wykorzystanie ChatGPT
Prof. Strzelecki zauważa, że ChatGPT może być pomocny w korekcie językowej czy tłumaczeniu tekstów, ale nie należy bezkrytycznie przyjmować wszystkiego, co generuje AI. "Nie wszystko, co brzmi profesjonalnie, jest prawdziwe" - podkreśla naukowiec. Zachęca do odpowiedzialnego korzystania z narzędzi AI w pracy naukowej. Dotyczy to zarówno naukowców, jak i studentów, piszących np. prace dyplomowe.