Błędnie zdiagnozowała raka. AI myli się w 7 na 10 przypadków
Włoskie badania dowodzą, że chatboty sztucznej inteligencji mogą być zawodne przy diagnozach medycznych. Choć mogą wspierać pracę lekarzy, ich efektywność pozostawia wiele do życzenia. Dowodzą tego nowe dane.
Włoscy naukowcy przeprowadzili badania, które wykazały, że sztuczna inteligencja (AI) popełnia błędy w diagnozowaniu chorób w około 70 proc. przypadków. Jak podaje włoski dziennik "Il Messaggero", problem ten dotyczy bardzo poważnych schorzeń, jak rak skóry czy piersi.
ChatGPT halucynował w 7 na 10 przypadkach
Badania zaprezentowane w "European Journal of Pathology" koncentrowały się na analizie odpowiedzi udzielanych przez narzędzie AI, ChatGPT. Zespół pod nadzorem Vincenzo Guastafierro, współpracującego z Instytutem Klinicznym i Uniwersytetem Humanitas w Rozzano, od 2023 r. analizował odpowiedzi dostarczone przez ChatGPT w 200 przypadkach klinicznych dotyczących różnych specjalizacji lekarskich.
Przebadane przypadki opracowano przy współpracy z medycznymi specjalistami, uwzględniając najnowsze wytyczne diagnostyczne. W efekcie, 70 proc. odpowiedzi okazało się błędnych, a 30 proc. bazowało na fałszywych lub niedokładnych źródłach. Połowicznie przydatne były 62 proc. z nich, natomiast całkowicie wolne od błędów zaledwie 32 proc. Najbardziej znaczące błędy obejmowały niepoprawne diagnozy raka lub mylenie typów nowotworów piersi.
"Oko lekarza pozostaje niezastąpione"
Wnioski? Sztuczna inteligencja powinna być traktowana jako pomoc, a nie jako substytut dla ludzkich kompetencji. Jak zaznaczył Vincenzo Guastafierro, cytowany przez dziennik "Il Messaggero", rezultaty te pokazują, jak bardzo konieczna jest ostrożność przy wykorzystywaniu AI na polu medycyny, bo pomyłki w diagnozie, które wykryto, mogłyby mieć poważne konsekwencje.
"Oko kliniczne lekarza pozostaje niezastąpione. AI musi być uważana za wsparcie, ale nie za zamiennik kompetencji człowieka" - zaznaczył Guastafierro.