Wikipedia może być bezbłędna. Ale wcale tego nie chcemy

Wikipedię można posprzątać. Ale ludzie tego nie chcą
Wikipedię można posprzątać. Ale ludzie tego nie chcą
Źródło zdjęć: © GETTY | NurPhoto

22.10.2023 14:11, aktual.: 17.01.2024 15:49

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Sztuczna inteligencja może uporządkować Wikipedię. Przeszkolony do tego celu model językowy udowodnił... że wcale tego nie chcemy.

Wikipedia to niezmiernie aktualna, ale i nie pozbawiona błędów internetowa encyklopedia. Prezentowane tam treści może tworzyć i edytować każdy odwiedzający. Zdarza się więc, że astronomia miesza się tam z astrologią, a fizykę zwalczają płaskoziemcy.

Sztuczna inteligencja obsługująca źródła Wikipedii

Tę wadę Wikipedii ograniczać powinny źródła, ale ich rzetelność bywa różna. Linki potwierdzające prezentowane w serwisie informacje czasem wskazują rzetelne treści. Wikipedia równie często przekierowuje na do nieistniejących lub nierzetelnych stron internetowych. Okazuje się, że sprzątać je można i to na bieżąco, ale trzeba użyć sztucznej inteligencji.

Dalsza część artykułu pod materiałem wideo

Potrzebna jest jednak inny model językowy, niż ten stosowany przez ChatGPT. Źródła nie są mocną stroną oprogramowania OpenAI, a skłonność popularnego chatbota AI do konfabulacji jest legendarna. Wszystko jednak zależy od treningu.

"modele językowe AI to znacznie więcej niż chatboty"

Noah Giansiracusaspecjalista od sztucznej inteligencji, Uniwersytet Bentley w Waltham w stanie Massachusetts

Opisane na łamach Nature Machine Intelligence oprogramowanie SIDE wykorzystuje model sztucznej inteligencji wyróżnia specyficzny trening. Naukowcy wyspecjalizowali go w obsłudze źródeł Wikipedii. Nie jest to chatbot, zdolny dostarczyć informacji na temat klimatu panującego na Hawajach. SIDE umie tylko bezbłędnie wskazywać źródła takich informacji.

Jak działa oprogramowanie SIDE w Wikipedii

SIDE był szkolony w rozpoznawaniu wiarygodnych źródeł na podstawie pozytywnych doświadczeń serwisu Wikipedia. Jego model językowy dostawał pakiety artykułów, które cieszą się dużym zainteresowaniem redaktorów i moderatorów. Były to treści często aktualizowane, a błędy i nieścisłości szybko usuwane.

W ten sposób SIDE nauczył się jak identyfikować odnośniki niskiej jakości oraz wskazywać w zasobach sieci internetowej te bardziej wiarygodne. Perspektywa stosowania SIDE przez serwis Wikipedia wydaje się więc kusząca. Oprogramowanie wydaje się zdolne pozbawić internetową encyklopedią błędów oraz nieścisłości. Według specjalistów niekoniecznie.

Ludzie nie chcą rzetelnej Wikipedii

Podczas testów SIDE miał za zadanie ocenić rzetelność nieznanych mu wcześniej, losowo wybranych artykułów Wikipedii. Wskazał, że niemal 50% przypadków uwzględnia już najlepsze źródła, a w pozostałych znalazł alternatywne odniesienia.  

Problem w tym, że testy sprawności SIDE sugerują także, że jego funkcjonalność może nie być oczekiwaną. Weryfikując jego pracę tylko 21% użytkowników Wikipedii wolało źródła znalezione przez sztuczną inteligencję. 10% respondentów preferowało wcześniejsze cytaty, a 39% nie miało zdania.

"System może być przydatny do oznaczania potencjalnie niepasujących cytatów. Ale z drugiej strony pytanie brzmi: co społeczność Wikipedii uznałaby za najbardziej przydatne".

Aleksandra Urmannaukowiec zajmujący się komunikacją obliczeniową na Uniwersytecie w Zurychu

Aż dwóch na trzech testujących SIDE nie przywiązywało uwagi do źródeł wskazywanych przez Wikipedię. Zakładali, że obecność treści w serwisie wskazuje na ich wystarczającą rzetelność lub mieli zamiar zweryfikować je na własną rękę.

Katarzyna Rutkowska, dziennikarka Wirtualnej Polski

wiadomościsztuczna inteligencjawikipedia
Komentarze (0)