Wikipedia może być bezbłędna. Ale wcale tego nie chcemy
Sztuczna inteligencja może uporządkować Wikipedię. Przeszkolony do tego celu model językowy udowodnił... że wcale tego nie chcemy.
Wikipedia to niezmiernie aktualna, ale i nie pozbawiona błędów internetowa encyklopedia. Prezentowane tam treści może tworzyć i edytować każdy odwiedzający. Zdarza się więc, że astronomia miesza się tam z astrologią, a fizykę zwalczają płaskoziemcy.
Sztuczna inteligencja obsługująca źródła Wikipedii
Tę wadę Wikipedii ograniczać powinny źródła, ale ich rzetelność bywa różna. Linki potwierdzające prezentowane w serwisie informacje czasem wskazują rzetelne treści. Wikipedia równie często przekierowuje na do nieistniejących lub nierzetelnych stron internetowych. Okazuje się, że sprzątać je można i to na bieżąco, ale trzeba użyć sztucznej inteligencji.
Dalsza część artykułu pod materiałem wideo
Potrzebna jest jednak inny model językowy, niż ten stosowany przez ChatGPT. Źródła nie są mocną stroną oprogramowania OpenAI, a skłonność popularnego chatbota AI do konfabulacji jest legendarna. Wszystko jednak zależy od treningu.
Opisane na łamach Nature Machine Intelligence oprogramowanie SIDE wykorzystuje model sztucznej inteligencji wyróżnia specyficzny trening. Naukowcy wyspecjalizowali go w obsłudze źródeł Wikipedii. Nie jest to chatbot, zdolny dostarczyć informacji na temat klimatu panującego na Hawajach. SIDE umie tylko bezbłędnie wskazywać źródła takich informacji.
Jak działa oprogramowanie SIDE w Wikipedii
SIDE był szkolony w rozpoznawaniu wiarygodnych źródeł na podstawie pozytywnych doświadczeń serwisu Wikipedia. Jego model językowy dostawał pakiety artykułów, które cieszą się dużym zainteresowaniem redaktorów i moderatorów. Były to treści często aktualizowane, a błędy i nieścisłości szybko usuwane.
W ten sposób SIDE nauczył się jak identyfikować odnośniki niskiej jakości oraz wskazywać w zasobach sieci internetowej te bardziej wiarygodne. Perspektywa stosowania SIDE przez serwis Wikipedia wydaje się więc kusząca. Oprogramowanie wydaje się zdolne pozbawić internetową encyklopedią błędów oraz nieścisłości. Według specjalistów niekoniecznie.
Ludzie nie chcą rzetelnej Wikipedii
Podczas testów SIDE miał za zadanie ocenić rzetelność nieznanych mu wcześniej, losowo wybranych artykułów Wikipedii. Wskazał, że niemal 50% przypadków uwzględnia już najlepsze źródła, a w pozostałych znalazł alternatywne odniesienia.
Problem w tym, że testy sprawności SIDE sugerują także, że jego funkcjonalność może nie być oczekiwaną. Weryfikując jego pracę tylko 21% użytkowników Wikipedii wolało źródła znalezione przez sztuczną inteligencję. 10% respondentów preferowało wcześniejsze cytaty, a 39% nie miało zdania.
Aż dwóch na trzech testujących SIDE nie przywiązywało uwagi do źródeł wskazywanych przez Wikipedię. Zakładali, że obecność treści w serwisie wskazuje na ich wystarczającą rzetelność lub mieli zamiar zweryfikować je na własną rękę.
Katarzyna Rutkowska, dziennikarka Wirtualnej Polski