ChatGPT w prestiżowych pracach naukowych. Niemały skandal?

Analiza prof. Artura Strzeleckiego ujawnia obecność charakterystycznych fraz ChatGPT w prestiżowych czasopismach naukowych. Może to mocno wpływać na zaufanie społeczeństwa wobec naukowców.

Niezwykłe odkrycie zespołu japońskich naukowcówNaukowcy mają powód do wstydu?
Źródło zdjęć: © Getty Images
oprac.  KLT

W recenzowanych publikacjach naukowych pojawiają się frazy typowe dla ChatGPT, co wynika z analizy przeprowadzonej przez prof. Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Katowicach. Naukowiec zauważa, że takie praktyki mogą podważać zaufanie do procesu tworzenia treści naukowych.

Prof. Strzelecki zwrócił uwagę na specyficzne struktury językowe, które są charakterystyczne dla ChatGPT, takie jak "Według mojej wiedzy na dzień ostatniej aktualizacji...", "Mam nadzieję, że to pomoże!", "Oczywiście! Tutaj jest/są ...", "Cieszę się, że mogę pomóc!", "Mam nadzieję, że to wyjaśnia Twoje pytanie. Jeśli potrzebujesz więcej informacji, daj znać!". Takie sformułowania, które nie są typowe dla ludzkiego języka, zaczęły pojawiać się w anglojęzycznych publikacjach naukowych. Sugeruje to, że autorzy kopiują fragmenty generowane przez sztuczną inteligencję bez ich weryfikacji.

Dalsza część artykułu pod materiałem wideo

Zachwiane zaufanie

W swojej pracy prof. Strzelecki przeanalizował artykuły, które nie deklarowały użycia ChatGPT. Wyszukiwał typowe dla tego narzędzia zwroty w bazie Google Scholar. Okazało się, że ich popularność wzrosła po wprowadzeniu ChatGPT, a w prestiżowych czasopismach z bazy Scopus znaleziono je w 89 artykułach.

Odpowiedzialność autorów

- ChatGPT jest tylko narzędziem. To autor bierze całą odpowiedzialność za to, co zawrze w swoim artykule naukowym - mówi prof. Strzelecki w rozmowie z PAP.

Podkreślił przy tym, że bezmyślne korzystanie z AI w nauce podkopuje jej autorytet. Naukowiec apeluje o krytyczne podejście do treści generowanych przez AI i odpowiedzialne ich wykorzystanie.

Wykorzystanie ChatGPT

Prof. Strzelecki zauważa, że ChatGPT może być pomocny w korekcie językowej czy tłumaczeniu tekstów, ale nie należy bezkrytycznie przyjmować wszystkiego, co generuje AI. "Nie wszystko, co brzmi profesjonalnie, jest prawdziwe" - podkreśla naukowiec. Zachęca do odpowiedzialnego korzystania z narzędzi AI w pracy naukowej. Dotyczy to zarówno naukowców, jak i studentów, piszących np. prace dyplomowe.

Źródło artykułu:
Wybrane dla Ciebie
Odparowuje wszystko co żywe. Rosjanie zaczęli demontować potężną broń
Odparowuje wszystko co żywe. Rosjanie zaczęli demontować potężną broń
Najstarsze powietrze w historii. Było uwięzione w 6-milionowym lodzie
Najstarsze powietrze w historii. Było uwięzione w 6-milionowym lodzie
Sprawdzono ją w Ukrainie. Polska chce nią zwalczać drony
Sprawdzono ją w Ukrainie. Polska chce nią zwalczać drony
Chiny mają nowy okręt. Rzuca wyzwanie największym mocarstwom
Chiny mają nowy okręt. Rzuca wyzwanie największym mocarstwom
Nie tylko Koreańczycy. Ujawniono, kto jeszcze walczy za Rosję
Nie tylko Koreańczycy. Ujawniono, kto jeszcze walczy za Rosję
Mówią, że są lepsze niż F-35. Będą produkowane w Ukrainie
Mówią, że są lepsze niż F-35. Będą produkowane w Ukrainie
Lotnicze marzenie Ukraińców. Chcą je składać u siebie
Lotnicze marzenie Ukraińców. Chcą je składać u siebie
USA wsparły Polskę w zwalczaniu dronów. Rozstawiły system z Turcji
USA wsparły Polskę w zwalczaniu dronów. Rozstawiły system z Turcji
Polskie satelity ICEYE i PIAST lecą w kosmos. Start planowany na wtorek
Polskie satelity ICEYE i PIAST lecą w kosmos. Start planowany na wtorek
Widziały je tysiące osób. Czym były jasne kule na niebie?
Widziały je tysiące osób. Czym były jasne kule na niebie?
Top Gun. Rewolucja w amerykańskim lotnictwie zaczęła się od porażki
Top Gun. Rewolucja w amerykańskim lotnictwie zaczęła się od porażki
Ewolucyjna zagadka. Dlaczego ludzie nie mają ogonów?
Ewolucyjna zagadka. Dlaczego ludzie nie mają ogonów?