Nie uciekniemy od AI. Polska ekspertka mówi, jak żyć z tą technologią
Strach, obawa, lęk – to słowa, które od lat często są zestawiane ze sztuczną inteligencją. Czy słusznie? Jak rozmawiać z AI? Czy Chat GPT może się na nas obrazić i zemścić? O tych i innych zagadnieniach opowiedziała w rozmowie z Wirtualną Polską prof. Aleksandra Przegalińska – polska filozofka, doktor nauk humanistycznych i ekspertka w dziedzinie AI.
30.10.2024 08:49
Aleksandra Przegalińska-Skierkowska to polska ekspertka, która na co dzień wykłada na Akademii Leona Koźmińskiego w Warszawie (obejmuje stanowisko profesora ALK), a w przeszłości pracowała również m.in. na Massachusetts Institute of Technology (MIT). Z wykształcenia filozofka, doktor nauk humanistycznych i doktor habilitowana nauk społecznych. Jednym z jej obszarów zainteresowań jest sztuczna inteligencja.
Na temat AI z prof. Przegalińską rozmawialiśmy dzięki objęciu przez Wirtualną Polskę patronatu medialnego nad wystawą Artintell – wydarzeniem prezentującym sztukę generatywną i regeneratywną, którego to prof. Przegalińska jest kuratorką. W ramach Artintell odbędzie się szereg warsztatów AI, debat i spotkań z artystami.
Norbert Garbarek, WP: Jeszcze w ubiegłym roku termin "sztuczna inteligencja" był dla wielu trudny do wytłumaczenia. Dziś nadal AI nie jest hasłem, które jest powszechnie zrozumiałe. Czym więc jest ta AI?
Prof. Aleksandra Przegalińska: Termin jest oczywiście trudny, bo jest bardzo pojemny. Po pierwsze jednak sztuczna inteligencja to jest dyscyplina wiedzy rozwijana od 8-9 dekad, prawie od 100 lat. Ta dyscyplina polega na tworzeniu algorytmów, które będą mieć takie własności, które będą trochę podobne do własności naszego mózgu.
Dalsza część artykułu pod materiałem wideo
Mózg jest inspiracją dla sztucznej inteligencji. To, że my wnioskujemy i mamy różne procesy mentalne, jest inspiracją dla sztucznej inteligencji. To po prostu zbiór algorytmów, które posiadają cechę uczenia się – tak zbiorczo można powiedzieć o sztucznej inteligencji. I to jest zbiór, który cały czas się rozrasta.
Zbiór się rozrasta, więc nie jest czymś "nieruchomym". Jak więc zmieniło się postrzeganie sztucznej inteligencji przez ostatnie dwa lata?
Przez ten okres zbiór sztucznej inteligencji bardzo mocno się poszerzył. Przez ostatnie dwa lata narzędzia AI zaczęły się stawać bardzo popularne – dlatego że bardzo łatwo się z nich korzysta. Ten okres dwóch lat to jest obecność tzw. generatywnej sztucznej inteligencji, czyli modeli, które są zdolne do konwersacji z człowiekiem za pomocą tekstu, głosu, ale też generowania obrazów, dźwięków etc.
Dziś doświadczenie wielu ludzi ze sztuczną inteligencją jako taką – i myślenie o niej – jest bardzo mocno zapośredniczone przez tę rewolucję, która się wydarzyła i przez takie narzędzia jak Chat GPT, dlatego obecnie ludzie głównie kojarzą AI z komunikacją.
Sztuczna inteligencja często jest uznawana za coś, co budzi lęk i może nawet przerażenie wśród ludzi. Czy społeczeństwo słusznie postrzega AI jako coś złego i obawia się jej rozwoju?
Z całą pewnością lęk przed tą technologią jest bardzo powszechny. Jest dobrym pytaniem, na ile jednak jest on nakręcony przez Hollywood i filmy, którymi byliśmy karmieni – na przykład "Terminator". To film, który prezentuje podobną tematykę, czyli robotykę opartą na sztucznej inteligencji w świetle negatywnym.
Ludzie często nie mają świadomego kontaktu ze sztuczną inteligencją albo jej nie rozumieją – i to jest zrozumiałe, bo nie programują, nigdy się tym nie zajmowali. Ale w praktyce sztuczna inteligencja występuje wszędzie. Aplikacja pogodowa jest oparta na AI, media społecznościowe, rekomendacja treści na Spotify i Netfliksie – to też jest sztuczna inteligencja. Sztucznej inteligencji jest też bardzo dużo w Mapach Google, więc kontakt ludzi z AI dzieje się cały czas, tylko nie jest on do końca świadomy i nie wiedzą oni, że to jest właśnie ta technologia.
Z kolei świadomy kontakt ze sztuczną inteligencją ludzie mają poprzez popkulturę i wtedy o niej myślą. I nie dziwi, że myślą o niej nieco negatywnie. Uważam, że strach przed czymś, co nowe i bardzo inne, jest naturalną i być może ewolucyjną reakcją na to, co widzimy. My się boimy rzeczy, które są potencjalnie inne niż nasze dotychczasowe doświadczenia.
Myślę, że jest tu jednak powód do obaw – bo tworzymy coś, co wnioskuje, ma zaczątki percepcji, co być może będzie w przyszłości rozumować, a na pewno całkiem nieźle radzi sobie dzisiaj chociażby ze swobodną konwersacją z człowiekiem. To jest technologia, o której możemy powiedzieć, że ma cechy inteligencji. Dla ludzi coś, co nie jest człowiekiem, a jednocześnie jest inteligentne, i to w funkcjach, w których najlepsi są ludzie i takich, które uważamy powszechnie za skomplikowane – jest bardzo trudne.
Czy ludzie słusznie obawiają się, że AI zrobi im krzywdę?
Ludzie się boją, bo nigdy do tej pory nie wytworzyliśmy technologii tak nam bliskiej. Można sobie wyobrazić, że rozwój sprawi, że pojawią się rzeczy, z których nie będziemy zadowoleni. Na przykład model sztucznej inteligencji, który kogoś źle zdiagnozował – wykrył chorobę, której pacjent nie ma albo odwrotnie – nie zauważył choroby. Efektywnie to jest krzywda. Kogoś z kolei mógł potrącić samochód autonomiczny – i choć rzadko się to zdarza, bo te samochody są dużo bezpieczniejsze niż ludzie, to jednak zdarzają się takie sytuacje i są wtedy głośne.
Czy więc AI nawet fizycznie nie wyrządziła ludziom krzywdy? Moglibyśmy znaleźć sporo przykładów, że wyrządziła. Jest możliwość wyrządzenia krzywdy przez AI z całą pewnością. Sztuczna inteligencja jest narzędziem, nie jest istotą, która realizuje swoje cele, ale jako narzędzie może mieć też wymiar krzywdzenia i siania dezinformacji.
Obawy o AI są na pewno rozdęte. Przez to, że jesteśmy karmieni filmami, wyobrażamy sobie, że sztuczna inteligencja chce dla nas źle albo zrobi z nami coś złego. Razem ze zwiększeniem popularności AI wróciły wielkie lęki, które personifikują tę sztuczną inteligencję. Czy należy się jej bać? Należy zachować ostrożność, ale obawy i strach związane z tą technologią wydają mi się nie na miejscu – i jest to podlane mocno hollywoodzkim sosem superprodukcji.
Zauważyła pani, że AI to technologia bliska człowiekowi. Czy więc ma znaczenie, jak rozmawiamy ze sztuczną inteligencją?
Do mnie cały czas dociera z całą mocą, jak istotna jest precyzyjna komunikacja ze sztuczną inteligencją, określanie jej kontekstu, tego, co ona ma zrobić. Algorytmy generatywne AI lubią dużo tekstu. One lubią dostać "ścianę" tekstu, gdzie jest wytłumaczenie, co ten algorytm ma zrobić. Wolą to dużo bardziej niż trzy słowa klucze.
Warto promptować w sposób zadbany. Jeśli ktoś promptuje całymi strukturami i wyraża się precyzyjnie, to z całą pewnością będzie miał z tej sztucznej inteligencji znacznie większy pożytek niż osoba, która napisała niedbały prompt.
Zakładając, że model AI wszystko wie, da nam dużo wartości, kiedy z nim pracujemy w sposób pieczołowity. Ważne, żeby ten kontekst naprawdę bardzo dobrze temu modelowi wyjaśnić. To jest współpraca, gdzie my dużo dajemy sztucznej inteligencji i dużo dostajemy od niej z powrotem.
A co ze zwrotami grzecznościowymi? Ma znaczenie, czy w rozmowie z AI jesteśmy uprzejmi?
Generalnie styl rozmawiania z modelami AI ma znaczenie. Wynika to z tego, że są one wyuczone na naszych konwersacjach w internecie.
Oczywiście można być gburem w stosunku do modelu AI i ona się nie obrazi i nie odpowie – oczywiście, że poda odpowiedź. To jest zwykłe narzędzie. Ale dla przykładu powiedzenie modelowi "słuchaj, musisz mi odpowiedzieć, to jest sprawa życia i śmierci", sprawia, że ten model bardzo często napisze dużo bardziej rozległą odpowiedź – taką, która będzie też bardziej szczegółowa.
Obiecywanie modelowi AI jakichś nagród, których oczywiście nie dostanie – na przykład napiwku – powoduje bardzo często, że odpowiedzi AI są bardziej rozbudowane i to jest już potwierdzone naukowo. To zachowanie, które stosują też ludzie. Rozmawiając ze sobą, mówimy często "to jest dla mnie superważne" i wtedy druga osoba bardzo często się stara i reaguje szybko.
Chwalenie modelu, mówienie "dziękuję" za to, że coś zostało dobrze zrobione, sprawia, że model zapamiętuje, że wykonał dobrą pracę – "OK, dobrze, to zadziałało, następnym razem zrobię to podobnie". To swego rodzaju budowanie zachowania maszyny, która jest statystyczna, ale jest wyuczona na konwersacjach i w związku z tym, że w rozmowach wiele rzeczy pada w rozmowie, to AI rozumie, co się dzieje.
W takim razie modele zapamiętują. Czy jeśli więc za dużo obiecamy AI – i model ciągle nie będzie dostawać wspomnianych nagród, to czy może się "obrazić" i przestać wykonywać polecenia lub wykonywać je gorzej?
Nie, nie obrażą się, bo nie mogą się obrazić. Żeby mogły to zrobić, muszą mieć świadomość i to dość mocno rozbudowaną. Przez to, że rozmowa z AI wygląda jak zwykła konwersacja, przypisujemy modelom emocje albo cechy, które pozwalają sądzić, że AI się obrazi – albo nawet daje poczucie, że AI mnie nie lubi, bo odpisał mi krótko.
Modele się po prostu uczą, ale to nie jest tak, że AI uczy się z każdej konwersacji. One się uczą selektywnie i najczęściej to jest decyzja firmy, z której "paczki" danych mają się uczyć. Ludzie myślą, że kiedy oni tylko rozmawiają z czatem, to wszystko gdzieś "przelatuje", ale najczęściej tak nie jest. Nie wiemy jednak, na czym dokładnie AI się uczy. Dlatego warto być na to wyczulonym i nie wrzucać do AI wrażliwych danych, bo może się zdarzyć, że model będzie się akurat na tym uczyć.
Skoro jednak rozmawiamy nieco w kontekście wystawy Art Intell i w zasadzie pani książki "Przenikanie umysłów", która powstała z wykorzystaniem AI, to przejdźmy na moment do tematu związanego ze sztuką. Czy sztuczna inteligencja jest jakimkolwiek zagrożeniem dla sztuki?
Wystawa Art Intell jest dosyć specyficzna, bo stawia na myślenie o sztucznej inteligencji jako narzędziu ekspresji dla człowieka, a nie o czymś, co samo miałoby wytwarzać dzieła. Głównym tematem jest to, na ile AI może być dla artystów obiektem, od którego się "odbijają" i na ile jest ona narzędziem rzemieślniczym, aby zrobić coś, co inaczej byłoby niemożliwe.
Jest trochę tak, że bardzo łatwo, praktycznie zerowym wysiłkiem, z AI można wytworzyć jakąś pracę. To, co artyści obserwują, zwłaszcza w obszarze sztuki użytkowej, to jest zastępowanie wygenerowanymi grafikami ich pracy, w którą wkładane jest serce i jest w niej intencja i historia.
To by była bardzo nieciekawa przyszłość, gdyby ktoś mi powiedział, że za 10 lat już w ogóle nie będzie grafików, tylko AI będzie tworzyć obrazki. Sztuczna inteligencja zna wzorce, wie, jak coś narysować, ale żadnej własnej historii i subiektywnych doświadczeń do powiedzenie nie ma. To nie byłaby ciekawa sytuacja.
Tu przychodzi słowo klucz – "kreatywność". Dziś za wszystkim, co powstaje, stoi ludzka kreatywność, ale jak będzie w przyszłości? Możemy więc dywagować – czy kreatywność AI można porównać z ludzką kreatywnością i czy jest możliwe, aby modele zastąpiły w tym kontekście ludzi, bo będą kreatywniejsze?
Generować to nie znaczy kreować, wytwarzać to nie znaczy tworzyć. Wytwarzanie czegoś to budowanie na bazie konkretnego materiału. Tworzenie jest natomiast aktem, w którym jest pewnego rodzaju sprawczość – jakaś intencja.
Nikt nie powiedział, że mamy teraz creative, tylko generative AI i to jest bardzo dobre rozróżnienie, które pokazuje nam, że modele sztucznej inteligencji można nauczyć, czym jest styl – na przykład jakiegoś artysty. Model AI będzie w stanie rozpoznać specyficzne wymiary wskazanego stylu i potem je odtwarzać, ale to nie jest twórczy akt, gdzie ktoś wkłada w co całego siebie, tylko to po prostu bazowanie na wzorcach, żeby wytworzyć coś podobnego, co już było.
Oczywiście to samo w sobie może być super i ja znam artystów, których fascynuje, że mogą za pomocą sztucznej inteligencji mieszać różne style i z tego wychodzą bardzo ciekawe rzeczy. To jest ciekawe dla człowieka, który to odbiera, więc AI może nas czasem zaskoczyć. To wynika z tego, z czym człowiek przychodzi do AI, a nie z tego, że AI pomyślała sobie, "a to ja ich zaskoczę i zrobię teraz psychodeliczną sztukę" – nie zachodzi w ogóle ten efekt.
Wracając jednak do kwestii strachu i pozostając przy szeroko rozumianych zajęciach zarobkowych. AI często jest uznawana za coś, co obierze ludziom zajęcie. Czy więc sztuczna inteligencja pozbawi ludzi pracy?
Nie mamy na razie powszechnego albo widocznego trendu, żeby ta praca znikała. Widzimy trochę innych rzeczy, które są moim zdaniem ciekawe i one są jeszcze trudne do "rozpakowania".
To, co robimy w pracy, w wielu różnych zawodach zostanie zmienione przez to, że pojawi się tam sztuczna inteligencja. Już dziś moja praca jako naukowczyni jest bardzo mocno wsparta sztuczną inteligencją. Praca dziennikarzy, wraz z rozwojem AI, też bardzo mocno się zmienia.
Wydaje mi się, że są takie zawody, które znikną. Jakbym była dzisiaj lektorem i czytała np. audiobooki, to byłabym bardzo zmartwiona, bo modele do klonowania głosu już wykonują tę pracę i są w stanie zastąpić głos jeden do jednego.
W większości przypadków to zastąpienie jeden do jednego nie występuje, bo modele sztucznej inteligencji są dobre tylko w pewnych rzeczach, ale nie we wszystkich, które robimy w pracy.
AI może przygotować spis tego, czym ja się do tej pory zajmowałam i nawet podsunąć jakieś pytania, ale najczęściej trzeba będzie to sprawdzić, bo model mógł coś wymyślić. Zdarza mu się to cały czas. Ostatecznie to wszystko musi przetworzyć człowiek.
W wielu zawodach, np. w IT, w pracy opartej na wiedzy i w pracy analitycznej, sztuczna inteligencja będzie przydatna. Zastąpi jakieś zadania, ale wydaje mi się, że jest bardzo marginalnym zjawiskiem, że zastąpi całą pracę.
W dalekiej przyszłości trudno spekulować, bo oczywiście wszystko się może zmienić, ale obecnie myślę, że nie ma powodów do obaw. Przez ostatnie dwa lata zdążyłam się zachwycić tą sztuczną inteligencją i odkryć też bardzo dużo jej ograniczeń. Widzę na przykład, że mimo iż ona potrafi napisać kawałek artykułu naukowego, to nas – naukowców – nie zastąpi. Może nas wspierać, ale nie jest w stanie nas zastąpić w pracach kreatywnych.
W takim razie należy się przygotować, że AI będzie z nami na zawsze?
Moim zdaniem sztuczna inteligencja z nami zostanie. Tak jak internet – to jest podobna technologia, jeśli chodzi o siłę rażenia. Nie zadajemy sobie pytania, czy internet z nami zostaje do końca. Internet po prostu jest. Przyzwyczailiśmy się do tego, żeby za jego pomocą pracować. Sztuczna inteligencja to kolejna taka technologia, która do bardzo wielu naszych aktywności przenika, przesądza się i po prostu staje się rewolucją na miarę rewolucji internetowej, która będzie dla nas bardzo oczywista.
Czy wobec tego, że AI z nami zostaje i jak pani uważa – przesiąka w każde miejsce – nie wydaje się pani, że sztuczna inteligencja jest trochę na siłę "wciskana" wszędzie, gdzie tylko można? Dziś AI jest nawet w przemyśle spożywczym i tworzy smaki napojów, lodów etc.
Tak, jak był szał na NFT, na kryptowaluty i tak dalej – szał na AI jeszcze trwa. Wszyscy chcą wskoczyć do tego pociągu niezależnie od tego, czy sami naprawdę rozwijają AI, czy też nie. Chcą pokazać, że coś z AI zrobili, bo uważają, że AI to jest "to słowo".
Obawiam się, że to może skończyć się tak, że nieufność do sztucznej inteligencji będzie jeszcze większa, bo jeśli ludzie będą oszukiwać, że zrobili coś z AI lub coś jest świetne, bo zostało zrobione z AI, w tym momencie może dojść do tego, że ludzie już nie będą mogli na to patrzeć. Nie będą chcieli tego słuchać i będą po prostu mieć dość tego AI.
Ten szał musi minąć. Musi przejść ta swego rodzaju moda i kiedy ona się uspokoi, wtedy wszyscy nie będą chwalić się AI na każdym kroku, bo ona i tak będzie w bardzo wielu miejscach. Dziś jesteśmy na samym środku krzywej Gartnera (przedstawiającej kolejne stadia zainteresowania) z AI.
Jakie w takim razie sztuczna inteligencja stawia wyzwania społeczeństwu, aby technologia mogła rozwijać się poprawnie – bez jakichkolwiek perturbacji mogących wywołać u ludzi lęk przed AI?
To niemożliwe. Nie ma sytuacji bezlękowych i nie ma sytuacji idealnych. Wyzwań jest mnóstwo, a na część próbują teraz odpowiadać regulacje w zakresie AI. Ja przede wszystkim stawiam na współpracę i o tym piszę też w nowej książce "Przenikanie umysłów", którą napisałyśmy z Tamillą Triantoro, która powstała ze sztuczną inteligencją. Nie chciałyśmy, aby ta książka wygenerowała się sama, tylko chcieliśmy ją napisać wspólnie z AI, osadzając ją w kilku różnych rolach.
Kiedy człowiek korzysta ze sztucznej inteligencji, to myślę, że z tego mogą wyjść bardzo ciekawe rzeczy. A kiedy AI jest puszczona samopas, to albo wyjdzie z tego bełkot, albo wyjdzie z tego problem. To narzędzie, nad którym człowiek musi nauczyć się panować i to jest narzędzie, które należy nadzorować, a nie takie, które ma wykonywać rzeczy za człowieka.
Myślę, że nie ma sytuacji, w której to będzie bezbolesny proces, bo on jest zbyt skomplikowany, żeby był bezbolesny. Z całą pewnością jednak ważnym kompasem dla ludzi powinno być to, że AI to narzędzie, które służy człowiekowi i człowiek powinien je mądrze i umiejętnie wykorzystywać.
Co do wspomnianej książki "Przenikanie umysłów", czy można z nią wchodzić w interakcje, skoro w tworzeniu uczestniczyła AI?
Wydawca postanowił, że "Przenikanie umysłów" to będzie tzw. AI book, czyli książka AI-owa i to nie dotyczy tylko tego wymiaru, jak tak książka powstała, gdzie wykorzystałyśmy sztuczną inteligencję razem z współautorką, żeby tę książkę napisać, tylko chodzi też o to, jak się z niej korzysta, kiedy jest się jej nie czytelnikiem, a właściwie użytkownikiem.
Mamy tzw. książko-bota, czyli książkę, która jest botem, z którym można rozmawiać o niej. Można powiedzieć książce, żeby sama się podsumowała, przytoczyła najważniejsze zdania z rozdziału drugiego lub jako użytkownik stwierdzić, że chcę napisać dodatkowy rozdział – bazując na tym, co już w tej książce jest. To swego rodzaju książko-czat. Dziś mamy takie możliwości – również w kontekście sztuki – aby mieszać różne formaty i ta książka jest właśnie czymś tego rodzaju.
Norbert Garbarek, dziennikarz Wirtualnej Polski