Facebook opracował własny "Test Turinga". Z tymi pytaniami nie radzi sobie żadna maszyna

Facebook opracował własny "Test Turinga". Z tymi pytaniami nie radzi sobie żadna maszyna

Facebook opracował własny "Test Turinga". Z tymi pytaniami nie radzi sobie żadna maszyna
Źródło zdjęć: © Olivier Le Moal – Fotolia.com
05.03.2015 12:48, aktualizacja: 05.03.2015 14:16

Inżynierowie Facebooka stworzyli listę 20 problemów, które według nich powinna być w stanie rozwiązać maszyna, żebyśmy mogli nazwać ją zdolną do prowadzenia naturalnej konwersacji. Ciekawe tylko, czy poradziliby sobie z nimi wszyscy ludzie.

Obraz
© (fot. Olivier Le Moal – Fotolia.com)

Głównym celem autorów pracy, o której mowa, było dołożenie cegiełki do badań nad sztuczną inteligencją, a w szczególności – systemami konwersacyjnymi. Chodzi tu więc o wszelkiego rodzaju boty, automaty, które – chociaż niekoniecznie inteligentne w ludzkim rozumieniu – mogą być w stanie prowadzić rozmowę w naturalny dla człowieka sposób. Istniejące już rozwiązania są w stanie poradzić sobie przynajmniej z częścią zaproponowanych przez nich problemów. Żaden automat nie jest sobie jednak w stanie poradzić ze wszystkimi.

Przykładowe pytania podzielono w pracy na 20 kategorii, badających zdolności łączenia faktów, rozumienia związków między nimi, radzenia sobie z negacją, liczeniem, konstruowania list, czy przeprowadzenia prostej dedukcji i indukcji. Jak podkreślają autorzy pracy, nawet jeżeli uda się stworzyć bota, radzącego sobie ze wszystkimi tymi rodzajami problemów, nie będzie to oznaczało, że powstała sztuczna inteligencja. Ale od tego trzeba zacząć.

Jest tak dlatego, że w przypadku wszystkich pytań cała wiedza, potrzebna na udzielenie odpowiedzi, zawarta jest w ich treści. Nie są wymagane żadne dodatkowe informacje czy doświadczenia, wystarczy umiejętność wnioskowania i znajomość języka. Poniżej przedstawiamy część z nich.

Pytania wymagające połączenia dwóch faktów
John jest na placu zabaw.
Bob jest w biurze. John podniósł piłkę.
Bob wszedł do kuchni.
_ Gdzie jest piłka? Gdzie był Bob zanim wszedł do kuchni? _

Podstawowa dedukcja
Owce boją się wilków.
Koty boją się psów.
Gertruda jest owcą.
_ Czego boi się Gertruda? _

Wnioskowanie na temat rozmiaru
Piłka mieści się w walizce.
Walizka mieści się w szafie.
Pudełko czekoladek jest mniejsze od piłki.
_ Czy pudełko czekoladek zmieści się w walizce? _

Wnioskowanie na temat czasu
Po południu Julie poszła do parku.
Wczoraj Julie była w szkole.
Wieczorem Julie poszła do kina.
_ Gdzie Julie poszła po wizycie w parku? _

Obraz
© Pomnik Turinga w Bletchley Park (fot. Jon Callas / CC)

Pomysł oparcia testu na inteligencję o zdolności konwersacyjne nie jest oczywiście niczym nowym. Ten sposób zaproponował jeden z pionierów współczesnej informatyki (oraz całej teorii informacji), Alan Turing. W tzw. Teście Turinga zakłada się, że mówić o stworzeniu sztucznej inteligencji będzie można dopiero wtedy, gdy maszyna będzie w stanie rozmawiać z człowiekiem tak, że ten nie będzie jej w stanie odróżnić od drugiej istoty ludzkiej. Zaproponowany przez angielskiego matematyka w 1950 test był od czasu jego sformułowania wielokrotnie krytykowany, nie raz też mówiło się już o tym, że gdzieś jakiejś maszynie udało się go przejść.

Ostatni raz miało to miejsce w połowie zeszłego roku. Świat obiegła wtedy informacja, według których z Testem Turinga uporał się program komputerowy Eugene Goostman. Osiągnięto to jednak drobnym oszustwem i manipulacją – sprawdzających bota sędziów udało się przekonać, że rozmawiają z nastolatkiem. Więcej w tym było lingwistycznych sztuczek i psychologii niż komputerowego geniuszu.

Naukowcom z Facebooka - jak sami zapewniają - chodzi o coś innego. Nie o oszukanie człowieka, a o stworzenie automatu, który będzie w stanie faktycznie rozumować i inteligentnie wnioskować – i na tej podstawie prowadzić rozmowę. Programy takie jak Eugene Goostman, nawet jeżeli są w stanie nabrać człowieka, opierają się jedynie na szeregu reguł, które stosują automatycznie.

Obraz
© Hal-9000, Odyseja kosmiczna 2001 (fot. Metro-Goldwyn-Mayer)

Pozostaje tylko pytanie – czy naprawdę chcemy, żeby taka sztuczna inteligencja powstała? Naukowcy i informatycy pracują nad tym niezłomnie, ale są też tacy, którzy obawiają się kolejnych postępów. I nie mówimy tu wcale o miłośnikach fantastyki naukowej i filmów takich jak "Terminator" czy "Matrix". Sceptycznie do rozwoju tej dziedziny nastawiony jest Stephen Hawking, osobiście wielki orędownik nauki. W połowie zeszłego roku, na miesiąc przed wyżej wspomnianym "zwycięstwem" bota Eugene Groostman, mówił on:

- Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć. Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować. Zatem w obliczu ewentualnych, acz nieprzewidywalnych możliwości i zagrożeń eksperci robią, co mogą, by osiągnąć najlepsze rezultaty, prawda? Błąd. Jeśli przeważająca nad nami obca cywilizacja prześle nam wiadomość: "Przybędziemy za kilka dekad", odpowiemy: "Dobrze, dajcie znać, kiedy dotrzecie, zostawimy wam otwarte drzwi"? Prawdopodobnie nie, ale w mniejszym lub większym stopniu właśnie tak postępujemy ze sztuczną inteligencją.

Wtóruje mu Bill Gates, który na początku tego roku w podobnym tonie wypowiedział się na Reddicie. Zauważył wtedy, że początkowo kolejne postępy dziedzinie sztucznej inteligencji będą jednoznacznie pozytywne i przyniosą ludzkości wiele pożytku – maszyny zaczną wykonywać za nas wiele kłopotliwej pracy, a ich inteligencja nie będzie nam zagrażać. Ale wraz z kolejnymi osiągnięciami ryzyko będzie stawało się większe i trzeba będzie wziąć je pod uwagę. Gates zaznaczył, że nie rozumie tych, którzy nie zauważają tego ryzyka.

_ DG _

Źródło artykułu:WP Tech
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (32)