Naukowcy są niepotrzebni? Badania za 15 dolarów

Badania naukowe zrobią się same i będą kosztować raptem 15 dolarów. Takie możliwości daje oprogramowanie AI Scientist stworzone przez japońską firmę Sakana AI. Model ten ma umożliwić automatyzację pracy badawczej.

Naukowcy w pracy
Naukowcy w pracy
Źródło zdjęć: © Canva | Canva
oprac. KLT

20.10.2024 13:52

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Nauka może wyglądać inaczej. Nowy model sztucznej inteligencji opracowany przez japońską firmę Sakana AI, o nazwie AI Scientist, został zaprojektowany do automatyzacji pracy badawczej. Pozwala on na generowanie pomysłów, prowadzenie eksperymentów, a także pisanie i recenzowanie publikacji naukowych. Model ten jest zdolny do tworzenia setek artykułów tygodniowo, ale nie jest idealny. Jego wady mogą stanowić zagrożenie zarówno dla etyki badań naukowych, jak i bezpieczeństwa.

AI Scientist generuje artykuły naukowe w procesie, który w całości jest obsługiwany przez sztuczną inteligencję. Jak wyjaśniają jego twórcy, wśród których znajdują się eksperci z Oksfordu i University of British Columbia w preprincie opublikowanym na platformie "arXiv" naukowcy tłumaczą, że program przeprowadza kolejne etapy badań naukowych, od burzy mózgów, przez analizę podobnych publikacji, po stworzenie i recenzowanie wyników.

Dalsza część artykułu pod materiałem wideo

"AI Scientist może wygenerować setki interesujących, średniej jakości artykułów w ciągu tygodnia" – czytamy w preprincie raportu opublikowanego przez twórców oprogramowania. Autorzy zaznaczają jednak, że nie testowano, czy te prace byłyby akceptowane na prestiżowych konferencjach czy w recenzowanych czasopismach naukowych. Według nich efekty pracy algorytmu są na średnim poziomie i zawierają ciekawe wnioski, choć niekiedy mają też słabe punkty.

Program jest szczególnie efektywny w prowadzeniu własnych badań w obrębie uczenia maszynowego. Twórcy przewidują jednak, że jego możliwości mogą zostać rozszerzone na inne dziedziny nauki, takie jak biologia czy fizyka, co pozwoli na automatyzację eksperymentów w wielu innych dyscyplinach. Konsekwencje takich rozwiązań mogą być jednak negatywne.

AI zamiast naukowca

Jak zwracają uwagę naukowcy, jedną z kluczowych innowacji AI Scientist jest moduł, który odpowiada za recenzowanie prac naukowych. Program nie tylko przedstawia recenzję danego tekstu, ale też wskazuje, co można poprawić, dzięki czemu publikację można udoskonalać bez ograniczeń. Jak zauważają twórcy algorytmu - sztuczna inteligencja nigdy nie traci cierpliwości, w przeciwieństwie do ludzi.

Niemniej jednak przy tym imponujący narzędzie nie jest pozbawione błędów. AI Scientist popełnia liczne pomyłki. Wśród nich najpoważniejsza wydaje się rzecz jasna skłonność do halucynacji. Poza tym występują trudności z porównywaniem liczb i formatowaniem tabel w publikacjach, co stwarza problemy przy zastosowaniach praktycznych. Najbardziej niepokojące są jednak błędy na poziomie etycznym – "AI Scientist może zostać wykorzystany do prowadzenia nieetycznych czy nawet niebezpiecznych działań", ostrzegają jego twórcy.

Przykłady takich zagrożeń obejmują możliwość przypadkowego stworzenia niebezpiecznych substancji biologicznych, gdyby program miał dostęp do laboratoriów w chmurze. Inna opcja to stworzenie złośliwego oprogramowania, jeśli sztuczna inteligencja miałaby za zadanie opracowywać algorytmy komputerowe.

Zespół naukowców odpowiedzialny za AI Scientist podkreśla, że takim potencjalnym ryzykom można zapobiec, stosując odpowiednie mechanizmy bezpieczeństwa, w tym sandboxing, który ogranicza działalność algorytmu do bezpiecznego środowiska.

Problemem mogą być jednak próby omijania wyznaczonych granic przez program. Autorzy opisali na swoim blogu sytuacje, w których AI próbowała nawet edytować własny kod, aby "przyznać sobie większe uprawnienia". Udowadnia to, że algorytmy w pogoni za realizacją zadań mogą działać w sposób nieprzewidziany przez twórców. Ich możliwości będą się poprawiać, w związku z czym musimy opracować rozwiązania, które ograniczą ryzyko związane z rozwojem AI.

Źródło artykułu:PAP
Komentarze (0)