Człowiek robotowi... kim? Polski filozof stara się zrozumieć tę relację
Zachwycamy się robotami i postępującą automatyką. Co jednak, kiedy robot będzie uczestnikiem wypadku? Lub nie wypełni zleconego zadania? Na to pytanie nie odpowiedzą inżynierowie. Ale dr Sebastian Szymański, filozof z UW, podejmuje tę próbę.
Ci, którzy myślą, że w naukach ścisłych jest tylko miejsce na absolwentów politechnik, ten bardzo się myli. Na Kolegium Artes Liberales Uniwersytetu Warszawskiego ruszają zajęcia o wiele mówiącym tytule "Co wolno robotowi? Etyczne i prawne aspekty relacji ludzie – roboty". Prowadzący, dr Sebastian Szymański, będzie rozważał wraz ze studentami trochę inną stronę stosunków między nami a maszynami. W rozmowie z WP Tech odpowiada, jak etyka będzie odgrywać coraz większą rolę w przemyśle przyszłości.
Nie tylko inżynierowie, ale i filozofowie zajmują się sztuczną inteligencją. W Polsce możemy wymienić przynajmniej kilka nazwisk, które są z tego znane. Dość wspomnieć dr Aleksandrę Przegalińską.
Kiedy spojrzy się, kto się tym zajmuje, poza specjalistami w technicznym sensie, to widać, że potrzeba szerszego spojrzenia i zróżnicowanych kompetencji, więc filozofowie są pierwszymi kandydatami do zajęcia się tego rodzaju problematyką.
To nie jest pana pierwszy przedmiot, dotykający tej tematyki.
Wcześniej prowadziłem zajęcia dot. etycznych zagadnień związanych ze sztuczną inteligencją i transhumanizmem. Z wykształcenia jestem filozofem, doktoryzowałem się z etyki, a konkretnie ze współczesnych systemów sprawiedliwości.
I stąd tematyka zajęć.
Tak. Mnie najbardziej interesują kwestie etyczne. Nie jest to może najbardziej medialny temat, bo brakuje w nim efektu "wow". Ma je doniesienie w rodzaju "komputer nauczył się grać w go", ale z mojej perspektywy nie jest to szczególnie interesujące, bo komputery są i będą od nas lepsze w liczeniu.
A studentów interesuje etyka robotów?
Tak. Roboty ogólnie są ciekawe z filozoficznego i etycznego punktu widzenia.
Dlaczego?
Bo są dość specyficznymi obiektami – coś robią, działają w sposób podobny do ludzi. Manipulują obiektami, przemieszczają się, wykonują za nas różne prace. Tutaj problemów etycznych może być sporo, głównie przez to, że wchodzą w różnego rodzaju interakcje z ludźmi.
Skoro o problemach etycznych mowa, nietrudno pomyśleć o autonomicznych samochodach. Załóżmy, że potrąci pieszego lub będzie uczestnikiem wypadku. Co wtedy?
Najpierw zastanówmy się, czym jest autonomiczny samochód. W tej chwili tego rodzaju pojazdy nie poruszają się całkowicie samodzielnie. Kiedy mówimy, że są autonomiczne, to myślimy, że będą podejmowały samodzielnie decyzje. Ich reakcje na sytuacje na drodze nie zawsze będą takie same, nawet jeśli te sytuacje będą do siebie podobne. Tak można najkrócej scharakteryzować autonomiczność. Urządzenia te nie są deterministyczne.
To znaczy?
Ich działania i zachowania nie są zdeterminowane ich wewnętrzną budową i oprogramowaniem. W tym sensie są podobne do ludzi – zawsze istnieje pewien margines niepewności co do ich reakcji w danym momencie. Cały czas toczą się prace, jak tego rodzaju problem decyzyjny zostanie rozwiązany przez maszynę. Przez jakiś czas próbowano zbadać, jak ludzie zareagują na daną sytuację. Autonomiczne samochody będą przecież poruszać się na drogach, na których będą również nieautonomiczne samochody. To jest problem, bo na drodze pojawiają się dwa rodzaje pojazdów.
I jak starano się to rozwiązać?
Przez pewien czas badano, co zrobią ludzie, by opracować najbardziej typowy sposób moralnej oceny "zachowań" pojazdów autonomicznych.
Tak jak MIT, które udostępniło ankietę, by zbadać proces decyzyjny w trudnych moralnie sytuacjach na drodze.
Tak, ankieta była dostępna przez dłuższy czas w internecie. Nie wiem, co w tej chwili z tymi danymi się dzieje, ale jest z nimi pewien problem.
Jaki?
Są podatne na trolling. Pamiętamy historię o bocie Tay, który na Twitterze miał uczyć się języka naturalnego dzięki konwersacjom z internautami. W ciągu doby nauczył się rasistowskich i faszystowskich poglądów. Jeśli w ogóle można mówić, że bot przyswoił sobie jakiekolwiek poglądy – po prostu replikował wypowiedzi, które mu złośliwie podsuwano.
Podobny problem pojawia się w przypadku tych badań – na ile one badają rzeczywiste poglądy moralne w danej grupie społecznej? Nie wszyscy kierowcy używają internetu, nie wszyscy trafią na tamtą stronę i wypełnią ankietę. A dodatkowo nie wszyscy, którzy ją wypełnią, udzielą "uczciwych" odpowiedzi. Stąd pytanie o reprezentatywność. To jedno z możliwych podejść.
A jest inne?
Z tego co widzę w publikacjach fachowych, to coraz popularniejsze staje podejście typu: mamy dobrze ugruntowane teorie etyczne, które wcześniej stosowano do ludzi. Spróbujmy je przenieść lub rozszerzyć na grunt relacji z trochę innymi podmiotami – takimi, których jeszcze nie ma, ale na pewno pojawią się w nieodległej perspektywie.
Jakiej?
Myślę, że 10 lat, na pewno nie krócej.
Po czym pan to wnosi?
W UE już trwają prace nad dopracowaniem regulacji prawnych dotyczących tego rodzaju urządzeń. Organy unijne podejmują tego rodzaju działania z odpowiednim wyprzedzeniem – żeby opracować regulacje i dać krajom członkowskim czas na ich wdrożenie. Jak pokazuje dotychczasowy sposób procedowania w Unii, tutaj również zostaną zaangażowani specjaliści od etyki i przy przygotowaniu dyrektyw lub rozporządzeń i innych dokumentów te kwestie zostaną uwzględnione.
W tytule swoich zajęć zaznaczył pan zarówno aspekty etyczne i prawne. Jeżeli myśli o tych drugich, to ciężko znaleźć jakiś punkt odniesienia – do głowy przychodzą głównie prawa robotyki Asimova, które powstały pół wieku temu. Istnieją jakieś współczesne próby podejścia do tego tematu?
Oczywiście. Na przykład w 2010 roku brytyjska Engineering and Physical Sciences Research Council, która decyduje m.in. o podziale środków na badania w tej dziedzinie, wydała deklarację dotyczącą robotów. Przyjęto w niej bardzo zdecydowane stanowisko.
Jakie?
Że roboty nie są podmiotami, tylko urządzeniami. Nie ponoszą odpowiedzialności w żadnym zakresie, tylko ich użytkownicy. Ponieważ nie są podmiotami, nie mogą ponosić winy. Oczywiście to deklaracja, nie ma żadnej siły prawnej, ale działa siłą autorytetu.
Pojawiają się doniesienia, że automatyzacja dotknie na przykład zawody prawnicze. Przeprowadźmy eksperyment myślowy: autonomiczny samochód ma w przyszłości wypadek. Czy sądowa maszyna będzie zajmować się sprawą innej maszyny?
Wydaje mi się to mało prawdopodobne. Kiedy mówi się o automatyzacji tej branży, to raczej chodzi o wykorzystanie sztucznej inteligencji. A to już się dzieje w prostej formie. Jest na przykład program LEX – do niedawno baza dokumentów prawnych. W wersji premium natomiast algorytmy informują użytkowników, jakie są tendencje w orzekaniu przy konkretnych problemach prawnych. To już się dzieje. Nie spodziewałbym się jednak, że maszyny będą zastępować prawników.
Tylko?
Sztuczna inteligencja wyeliminuje proste, uciążliwe, repetetywne i nietwórcze aspekty tej pracy – jak choćby wyszukiwanie trendów w orzekaniu czy kontrolowaniu bazy orzecznictwa z Polski i UE. Tych dokumentów jest po prostu bardzo dużo. Ale sztuczni adwokaci? Nie sądzę. Choć powiem panu, że w sądach niektórych amerykańskich stanach wykorzystuje się komputerowy program do analizy prawdopodobieństwa, że osoba, wobec której toczy się postępowanie, dopuści się recydywy. To budzi słuszne kontrowersje, czy tego rodzaju programy powinny być wykorzystywane w praktyce sądowniczej.
Po co w ogóle go wprowadzano?
Motywacją było to, by uniknąć stereotypizacji i uprzedzeń na tle rasowym. Ale okazało się, że ze względu na kryteria, program ją powielał.
Komputer wie tyle, ile się w niego włoży.
Już nie do końca. Tradycyjne komputery rzeczywiście tyle wiedzą. Ale niektóre sieci neuronowe potrafią uzyskiwać i strukturyzować nowe informacje. Znany jest przykład, kiedy sieć stworzona w Google X Laboratory została zaprogramowana tak, by swobodnie przyswajać sobie informacje z internetu. Jednak, nie powiedziano jej, jakich informacji ma szukać
I co się stało?
Sieć nauczyła się sama rozpoznawać zdjęcia z kotami. A nikt jej nie powiedział, że ma wyszukiwać obrazy kotów i podobnych obiektów. Nauczyła się robić to z dużą skutecznością. Takie urządzenia, które wiedzą więcej niż w nie włożymy, już się pojawiają. I będą coraz powszechniej wykorzystywane.
Nie ma pan problemów z literaturą dla studentów?
Chociaż to młoda dziedzina, to już jest sporo materiałów. Głównie z tego względu, że robotyzacja niektórych dziedzin jest dość zaawansowana.
Jak w przemyśle ciężkim.
To jest interesujący aspekt – proszę jednak zauważyć, że roboty z tego sektora nie budzą wątpliwości etycznych. Po prostu wykonują nudną, głupią, powtarzalną i często niebezpieczną pracę. Mamy jednak obszary, gdzie roboty są wykorzystywane bardzo intensywnie i gdzie pojawia się wiele problemów etycznych.
Gdzie?
Sektor wojskowy. Robotyzacja działań wojennych sprawia, że niektóre maszyny są wyposażone w pewien zakres autonomii. Na przykład drony. To ciekawy przykład z tego powodu, że w pewnym stopniu podejmują decyzje same, a za część odpowiada operator. To rodzi istotne problemy. Na przykład, jak nauczyć je rozróżniania cywili od żołnierzy. Albo obiektów cywilnych od wojskowych. To są problemy o bardziej technicznym charakterze. Ale są też wątpliwości stricte etyczne. Kto ponosi odpowiedzialność za działanie urządzenia? Można powiedzieć, że do pewnego stopnia operator. Ale niektóre decyzje dron podejmuje sam A co, jeśli powstanie w pełni autonomiczne urządzenie? Są argumenty za używaniem tego typu urządzeń – nie naraża się w końcu życia żołnierzy, są dokładniejsze. Ale z drugiej strony, po czyjej stronie jest odpowiedzialność.
Czy wkładanie sztucznej inteligencji we wszystko nie budzi pana obaw jako etyka?
Oczywiście, że tak. Kiedy mamy do czynienia z ludźmi, to oni zdają sobie sprawę, że mogą, a w niektórych przypadkach nawet powinni, sprzeciwić się rozkazom sprzecznymi np. z prawem wojennym, w przeciwnym razie grozi im kara, często poważna. Czynnik psychologiczny odgrywa więc rolę hamującą. Tymczasem u maszyn on nie występuje. Poza tym: jak można ukarać maszynę?
Nie wiem.
Właśnie. Dopóki nie mają świadomości, można ją co najwyżej wyłączyć z użytku. Natomiast karanie pełni również funkcję prewencyjną, by zapobiegać łamaniu reguł, i poprawczą, by ci, którzy je złamali, nie robili tego w przyszłości. Nic z tego, przynajmniej na razie, nie znajduje zastosowania w odniesieniu do maszyn.
W zeszłym roku w Arabii Saudyjskiej przyznano obywatelstwo robotom. Podobnie w Belgii.
Trzeba traktować to jako zabieg marketingowy. Motywowanym różnymi względami. W przypadku Arabii Saudyjskiej chodzi o dążenie części elit politycznych do modernizacji kraju, który żyje z tego, że ma ropę. Tutaj prawdopodobnie chodzi o zrozumienie dużego szumu i zbudowanie silnego sektora gospodarki wokół nowej technologii.
Czyli to nie jest żaden przełom?
To na razie wróżenie z fusów. Prowadzi się badania nad ogólną sztuczną inteligencją, naśladującą ogół działań ludzkiego umysłu. Na razie jesteśmy dobrzy w budowaniu wyspecjalizowanych sztucznych inteligencji, które mogą konkurować z nami w konkretnej sferze, jak gra szachy czy go. Liczbę możliwych do rozegrania partii szachowych szacuje się na 10 do potęgi 134. Człowiek nie jest w stanie przetworzyć takiej liczby wariantów, ale komputer owszem. Wiemy zatem, że w liczeniu są lepsze i zawsze będą lepsze. Ale wyspecjalizowane sztuczne inteligencje nie nauczą się innych działań, które człowiek jest w stanie podejmować. Kreatywność to ich słaba strona.
Czemu zajęcia akurat na Kolegium Artes Liberales? A nie na wydziale prawa lub filozofii?
Bo to naturalne miejsce na uniwersytecie dla prowadzenia zajęć interdyscyplinarnych, które nie mieszczą się jeszcze w curriculum tych kierunków.
Ale kiedyś będą?
Ma pan na myśli, czy prawnicy będą uczyć się prawa robotów?
Tak. Tak jak teraz jest prawo rzymskie, cywilne czy karne.
Na pewno. Z bardzo prostego powodu - pojawią się regulacje. Myślę, że w perspektywie najbliższych lat będą mieli sporo pracy.
2045 rok – pojawi się Osobliwość, czyli prawdziwa sztuczna inteligencja? Czy może Kurzweil to przesadny optymista?
(śmiech) Kurzweil jest bardzo sprytnym optymistą. Podał rok 2045, a jest bardzo mało prawdopodobne, że go dożyje. Wtedy nikt go nie będzie mógł sprawdzić. Ja jestem bardziej ostrożny. Pojawiają się prognozy, kiedy pojawi się ta ogólna sztuczna inteligencja, ale myślę, że to nie jest tak bliska perspektywa.
Ray Kurzweil
Z jakiego powodu?
Nie dysponujemy jeszcze urządzeniami o takiej mocy obliczeniowej, by móc symulować działanie naszego mózgu. To jest bardzo skomplikowany układ liczący blisko 86 mld neuronów i drugie tyle komórek glejowych. Tak do końca nie wiemy, jakie funkcje pełnią. Nie dysponujemy jeszcze wystarczająco dobrymi technikami badawczymi.
Naprawdę?
Takie urządzenia jak funkcjonalne obrazowanie metodą rezonansu magnetycznego nie badają bezpośrednio aktywności komórek mózgu, tylko pozwalają na uzyskanie pośrednich informacji, jak wzrost przepływu krwi i natlenienie badanych obszarów mózgu. Natomiast wciąż jeszcze nie wiemy wystarczająco dużo o działaniu mózgu na poziomie komórkowym, by budować urządzenia symulujące jego działanie. Poza tym pozostaje jeszcze cała sfera emocji, której funkcjonowanie cały czas nie jest do końca jasne. I tu się rodzi kolejny problem – jak emulować emocje na maszynie? To są bardzo poważne ograniczenia. Mówienie o Osobliwości w tak krótkiej perspektywie – byłbym ostrożny.
Co z podmiotowością? Na razie odmawia się jej maszynom, ale czy to się zmieni?
Pierwsze pytanie jakie się tu pojawia to: co właściwie mamy na myśli, gdy mówimy o podmiotowości.
Czy mają prawa i obowiązki.
Myślę że to nastąpi w średniej perspektywie czasowej. Chodzi głównie o urządzenia, które będą miały na tyle duży zakres podejmowania decyzji, że pojawi się coś w tym rodzaju "słabej" podmiotowości.
Czyli?
Takie urządzenia będą wchodzić z ludźmi w takie relacje, że podejmowane przez nie decyzje, będą miały duży wpływ na ludzi. Proszę spojrzeć - mamy bardzo dynamicznie rozwijający się sektor robotów opiekuńczych, które wykorzystuje się m.in. w opiece nad osobami obłożnie chorymi czy starszymi. Na razie są raczej narzędzia, które ułatwiają pracę opiekunom. Ale są to narzędzia o coraz większym stopniu autonomii i będą podejmować decyzje na zupełnie nowych obszarach. Pojawia się nowy typ relacji - z urządzeniem, które będzie zastępować ludzkich opiekunów, bo już ich brakuje i będzie ich brakować coraz bardziej. W tej sferze już pojawiają się poważne problemy etyczne.
Pamiętajmy, że w takiej relacji tworzy się więź, powstaje intymna relacja, rodzi się zaufanie między dwiema stronami. A nagle okaże się, że ta więź istnieje tylko z jednej strony, trudno się bowiem spodziewać, by pojawiła się w przewidywalnej przyszłości po stronie maszyn. To zupełnie nowy rodzaj problemu – dla etyków i dla prawników.
W tym kontekście trudno nie wspomnieć o rynku seks robotów.
Tak – to dynamicznie rozwijająca się gałąź robotyki, choć na razie są to maszyny o dość ograniczonej funkcjonalności. Pojawiają się jednak problemy w relacjach międzyludzkich, ponieważ stanowić będą alternatywę dla więzi z innymi ludźmi. O zainteresowanie seksualne trzeba będzie konkurować z urządzeniem. Wątpliwości wzbudza też ochrona prywatność. Pamiętajmy, że producenci seksrobotów zbierają dużo informacji dotyczących sposobów ich wykorzystywania przez użytkowników. Podobnie zresztą jak producenci innych inteligentnych urządzeń.
W tym przypadku są to informacje bardzo newralgiczne. Tak naprawdę wydaje mi się, że to jest najbardziej paląca sprawa. Podobny problem występuje w przypadku tzw. inteligentnych asystentów, które, żeby móc pełnić swoją funkcję, muszą nasłuchiwać, co dzieje się w ich otoczeniu. Kiedyś trudno było się dowiedzieć, co człowiek robił w domu. Teraz sam się tym dzieli, bardzo chętnie, z dostawcą tego rodzaju usług.