Czy powinniśmy tworzyć androidy?

Czy powinniśmy tworzyć androidy?21.08.2009 13:07
Czy powinniśmy tworzyć androidy?

Czy możliwe jest stworzenie robota, który wyglądałby i myślał jak człowiek? Obecnie prace nad humanoidalnymi cyborgami prowadzone są głównie w Japonii. Wielu naukowców uznaje ideę tworzenia robota, który byłby nie do odróżnienia od człowieka, za potencjalnie niebezpieczną. Nie można im odmówić racji, tym bardziej, że tworzenie humanoidalnych androidów nie wydaje się konieczne

Na całym świecie naukowcy tworzą i rozwijają różnego rodzaju roboty. Przede wszystkim są one wykorzystywane w wojsku oraz w fabrykach produkcyjnych. Zastosowanie robotów w armii ma jeden główny cel - zastąpienie żołnierzy maszynami zdolnymi do prowadzenia działań zbrojnych. Tymczasem w fabrykach głównym powodem stosowania robotów jest wyeliminowanie człowieka z prac, które są żmudne i męczące lub, które odbywają się w warunkach szkodliwych dla naszego zdrowia, takich jak obecność trujących gazów lub bardzo wysoka temperatura. Oczywistą zaletą robotów jest również fakt, że maszyna nigdy się nie męczy i może pracować bez przerwy przez całą dobę.

_ Roboty przemysłowe stosowane w fabrykach. Programowane są przez człowieka do konkretnych zadań i ciężko je nazwać inteligentnymi _

Jednakże, żadne z tych maszyn nie przypominają ludzi. Wojsko dalekie jest od tworzenia znanych z kinowego hitu "terminatorów". Za to coraz powszechniej na teatrze działań wojennych stosowane są roboty mobilne, które potrafią dokonać rozpoznania terenu, rozbroić miny lub zajrzeć za róg budynku, gdzie mogą czaić się żołnierze wroga. Roboty te najczęściej wyposażane są w koła, które pozwalają im poruszać się szybko po nierównym terenie. Prowadzone są również prace nad robotami, które naśladują sposób poruszania się węży. W fabrykach natomiast najczęściej spotykamy zrobotyzowane ramiona, wykonujące określone zadania, takie jak spawanie, malowanie lub cięcie. Nierzadko roboty te wyposażone są w system kamer, który pozwala im na zmierzenie wymiarów obiektu, określenie jego kształtu i położenia, dzięki czemu ramie potrafi dostosować swoje zachowanie do obrabianego elementu.

Wciąż pozostaje jednak pytanie czy maszyny powinny być inteligentne? A jeśli tak, to w jakim stopniu powinny tę inteligencję wykorzystywać? Na te pytania nie ma oczywiście jasnej odpowiedzi. Chwilowo prace nad stworzeniem prawdziwej sztucznej inteligencji są jeszcze we wczesnej fazie rozwoju, ale naukowcy prognozują, że przy obecnym tempie rozwoju technologii pierwszy komputerowy odpowiednik ludzkiego mózgu uda się stworzyć już za 1. lat. Obecnie jednak prace nad myślącymi robotami skupiają się w poszczególnych obszarach. Zamiast próby odtworzenia pracy ludzkiego mózgu badacze starają się sprawić, aby roboty rozpoznawały ludzką mowę, zapach albo twarze. Wszystko to jednak dokonywane jest za pomocą metod obliczeniowych, które trudno nazwać inteligencją.

_ Robot poruszający się ruchem wężopodobnym, jeśli założyć mu odpowiedni kamuflaż, będzie nie do odróżnienia od prawdziwego węża _

W roku 195. angielski matematyk Alan Turing opracował test, który pozwala określić czy maszyna jest inteligentna. Test opiera się na tezie, że jeżeli maszyna będzie potrafiła prowadzić konwersację z człowiekiem, w taki sposób, że nie zorientuje się on, iż rozmawia z maszyną to możemy uznać ją za inteligentną. Do dzisiaj żaden z komputerów świata, albo raczej żadne oprogramowanie, nie przeszło testu Turinga. Ponadto sam test, jak i możliwość stworzenia sztucznej inteligencji ma wielu przeciwników. Zwracają oni uwagę m.in. na fakt, że nawet niektórzy ludzie nie byliby w stanie przejść testu Turinga.

Jednakże najsłynniejsze podważenie omawianego testu inteligencji maszyny stanowi argument "chińskiego pokoju" wysunięty przez amerykańskiego filozofa Johna Searle'a. Opiera się on na założeniu, że skonstruowaliśmy komputer, który zachowuje się jakby rozumiał język chiński. Innymi słowy, komputer bierze chińskie znaki jako dane wejściowe i na podstawie zbioru reguł nimi rządzących (podobnie jak wszystkie komputery), koreluje je z innymi chińskimi znakami, które prezentuje jako informację wyjściową.

_ Robot potrafiący układać kostkę Rubika, musi odbierać sygnały wzrokowe określające położenie kostki oraz kolory na poszczególnych ściankach _

Załóżmy, że ten komputer wykonuje to zadanie w sposób tak przekonujący, że łatwo przechodzi test Turinga, tzn. przekonuje Chińczyka, że jest Chińczykiem. Na wszystkie pytania, które człowiek zadaje, udziela właściwych odpowiedzi w sposób tak naturalny, że Chińczyk jest przekonany, iż rozmawia z innym Chińczykiem. Zwolennicy mocnej sztucznej inteligencji wyciągają stąd wniosek, że komputer rozumie chiński, tak jak człowiek.

Teraz Searle proponuje, żeby założyć, iż to on sam siedzi wewnątrz komputera. Innymi słowy, on sam znajduje się w małym pokoju, w którym dostaje chińskie znaki, konsultuje książkę reguł, a następnie zwraca inne chińskie znaki, ułożone zgodnie z tymi regułami. Searle zauważa, że oczywiście nie rozumie ani słowa po chińsku, mimo iż wykonuje powierzone mu zadanie. Następnie argumentuje, że jego brak rozumienia dowodzi, że i komputery nie rozumieją chińskiego, znajdując się w takiej samej sytuacji jak on: są bezumysłowymi manipulatorami symboli i nie rozumieją, co "mówią", tak jak i on nie rozumie treści chińskich znaków, którymi operował.

W ten sposób powracamy do pytania czy stworzenie maszyn inteligentnych jest w ogóle możliwe, a co ważniejsze czy jest w ogóle konieczne? Poza tym powinniśmy również zastanowić się nad tym, czy maszyny uczące się nie powinny również posiadać moralności, aby odróżnić dobro od zła. Inaczej bowiem możemy w prosty sposób doprowadzić do sytuacji znanej z filmów fantastycznych, kiedy komputer może uznać człowieka za zagrożenie, a skutki takiej decyzji łatwo sobie wyobrazić. Zachęcamy Was do dyskusji na ten nowoczesny, acz drażliwy temat.

Grzegorz Barnik

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Udostępnij:
Wybrane dla Ciebie
Komentarze (0)