ChatGPT vs starożytna matematyka. Wynik zaskoczył naukowców
Naukowcy z Cambridge i Jerozolimy poprosili ChatGPT o rozwiązanie starożytnego problemu matematycznego. Odpowiedź AI ich zaskoczyła.
Grecki filozof Platon opisał kiedyś, jak Sokrates zadawał uczniowi zadanie podwojenia pola kwadratu. Uczeń próbował podwoić długość boków, nie wiedząc, że klucz tkwi w przekątnej. Ten klasyczny problem matematyczny, znany od ponad 2 tys. lat, stał się punktem wyjścia dla badaczy z Cambridge i Uniwersytetu Hebrajskiego w Jerozolimie.
Sztuczna inteligencja kontra starożytna matematyka
Naukowcy wybrali ten problem do rozwiązania w ChatGPT ze względu na jego nieoczywiste rozwiązanie. Od czasów Platona, 2400 lat temu, uczeni wykorzystywali problem podwojenia pola kwadratu do argumentowania, czy wiedza matematyczna potrzebna do jego rozwiązania "jest już w nas", jest uwalniana przez rozum, czy też może dostępna jedynie poprzez doświadczenie i naukę.
Przelot Black Hawków nad Warszawą
Jak wyjaśnia Live Science, ponieważ ChatGPT jest trenowany głównie na tekście, a nie na obrazach, naukowcy uznali, że istnieje niewielkie prawdopodobieństwo, że odpowiedź na problem podwojenia kwadratu znajdzie się w danych treningowych. Oznacza to, że gdyby ChatGPT samodzielnie doszedł do prawidłowego rozwiązania, można by argumentować, że zdolności matematyczne są nabyte, a nie wrodzone.
W kolejnym kroku poproszono zatem ChatGPT o podwojenie pola prostokąta. Model odpowiedział, że ponieważ przekątna prostokąta nie może być użyta do podwojenia jego pola, to nie ma rozwiązania w geometrii. Naukowcy podkreślili, że taka błędna odpowiedź raczej nie występuje w danych treningowych, więc AI improwizowała na podstawie wcześniejszych rozmów.
ChatGPT zachowuje się jak uczeń
Nadav Marco z Uniwersytetu Hebrajskiego zauważył, że ChatGPT wykazuje cechy podobne do ucznia: "Kiedy stajemy przed nowym problemem, naszym instynktem często jest wypróbowywanie rozwiązań w oparciu o nasze wcześniejsze doświadczenia" - stwierdził. - W naszym eksperymencie ChatGPT zdawał się robić coś podobnego. Niczym uczeń czy naukowiec, zdawał się tworzyć własne hipotezy i rozwiązania - dodał.
Eksperci ostrzegają jednak, by nie przeceniać możliwości AI. "W przeciwieństwie do dowodów z podręczników, nie można zakładać, że dowody generowane przez ChatGPT są poprawne" - podkreślił prof. Andreas Stylianides.