Kiedy powstaną świadome roboty? Ekspert wyjaśnia

Kiedy powstaną świadome roboty? Ekspert wyjaśnia

robot
robot
Źródło zdjęć: © warner bros
oprac. MT
01.05.2023 20:00

Tworzenie moralnej sztucznej inteligencji jest odległą wizją. Przede wszystkim dlatego, że wciąż nie ma ona samoświadomości. Mimo tego wątpliwości etycznych związanych z tą technologia nie brakuje już teraz.

Wraz z gwałtownym rozwojem sztucznej inteligencji (SI) w ostatnich latach, eksperci i naukowcy zwracają uwagę na problemy etyczne związane z jej użytkowaniem. Dlatego coraz częściej dyskutuje się na temat wprowadzenia odpowiednich wytycznych.

Moralna sztuczna inteligencja aktualnie to science-fiction

"Nie jest możliwe nauczenie sztucznej inteligencji zachowań etycznych i moralności, bo ciągle nie jest ona samoświadoma. Nadal nam do tego momentu daleko - to jest science-fiction" - ocenił w rozmowie z PAP dyrektor programowy i współtwórca Centrum Etyki Technologii w Instytucie Humanites oraz członek grupy roboczej ds. sztucznej inteligencji przy KPRM, Maciej Chojnowski.

"Dlatego, gdy mówimy o etyce sztucznej inteligencji, należy pamiętać o tym, że nie mamy na myśli zaprogramowania etyki w maszynach czy wyposażenia robotów w moralność, ale stworzenie takich reguł, takich wskazówek, które pozwoliłyby osobom rozwijającym te systemy robić to w sposób odpowiedzialny" - dodał Chojnowski.

Ekspert zwrócił uwagę na to, że istnieje ścisły związek między etyką a prawem dotyczącym SI. "Ważną rolą etyki sztucznej inteligencji będzie dostarczanie konkretnych narzędzi umożliwiających realizację wymogów zapisanych w prawie" - zaznaczył Chojnowski.

Dalsza część artykułu pod materiałem wideo

Zapytany o to, czy w Europie obowiązują jakieś regulacje dotyczące SI, zwrócił uwagę na przykład na RODO - Ogólne rozporządzenie o ochronie danych.

"RODO może dotyczyć także SI, bo korzysta ona z dużych zbiorów danych. To podstawa uczenia maszynowego, które jest dominującą formą współczesnej SI" - zauważył.

Chojnowski powiedział, że zasadniczym aktem prawnym, który będzie dotyczył SI będzie AI Act (z ang. Artificial Intelligence). To rozporządzenie o sztucznej inteligencji zostało zaproponowane przez Komisję Europejską w kwietniu 2021 r. Chodzi o stworzenie wspólnych ram regulacyjnych i prawnych dla sztucznej inteligencji. Swoim zakresem obejmuje wszystkie sektory (z wyjątkiem wojska) i wszystkie rodzaje sztucznej inteligencji.

Projekt KE ma być odpowiedzią na ryzyka generowane przez określone zastosowania sztucznej inteligencji za pomocą zestawu uzupełniających się, proporcjonalnych i elastycznych przepisów. Zaproponowane ramy prawne dotyczące sztucznej inteligencji proponują podejście oparte na czterech różnych poziomach ryzyka: ryzyko niedopuszczalne, ryzyko wysokie, ryzyko ograniczone i ryzyko minimalne.

Chat GPT na topie

"Okazało się, że zapisy w tym dokumencie należy zmodyfikować w związku z szybkim postępem prac nad SI i pojawieniem się SI ogólnego zastosowania (ang. general purpose AI), jak np. Chat GPT. Ze względu na wielorakie, trudne do przewidzenia zastosowania, może być to narzędzie niebezpieczne" - zaznaczył Chojnowski. Chat GPT opracowała amerykańska firma OpenAI. Służy m.in. do tworzenia odpowiedzi na pytanie lub polecenia wprowadzane przez użytkownika. Potrafi też wykonać bardziej złożone zadania, na przykład napisać opowiadanie lub fragment kodu, czyli programu.

Ekspert zapytany o prace w interdyscyplinarnym gronie ekspertów działającym w ramach grupy roboczej ds. sztucznej inteligencji przy KPRM w zakresie etyki powiedział, że są one zgodne z koncepcją SI godnej zaufania (ang. Trustworthy AI). Wypracowała ją grupa robocza powołana przez Komisję Europejską. Wśród wytycznych napisano, że systemy SI należy opracowywać, wdrażać i wykorzystywać w sposób zgodny z następującymi zasadami etycznymi: poszanowaniem autonomii człowieka, zapobieganiem szkodom, zapewnieniem sprawiedliwości i możliwości wyjaśnienia ich działania.

"Pracujemy m.in. nad rekomendacjami dotyczącymi etycznego zastosowania AI w sektorze publicznym, by korzystano z tego typu narzędzi w sposób świadomy i odpowiedzialny" - podkreślił.

Zwrócił uwagę na to, że zgodnie z polityką rozwoju SI w Polsce, sektor publiczny ma do odegrania w dziedzinie wdrażania SI rolę wzorcotwórczą.

"Właśnie podsumowujemy nasze prace i rozpoczynamy przygotowywanie raportu, który będzie zawierał zarys podstawowych problemów. Będą tam opisane narzędzia i wskazania" - zapewnił.

Dodał, że w przypadku wytycznych z zakresu etyki chodzi m.in. o zapewnienie przewodniej i nadzorczej roli człowieka w przypadku systemów SI. "Człowiek nie może zostać zdominowany przez maszyny, musi móc nimi ostatecznie zarządzać" - wyjaśnił.

Nie tylko w Europie eksperci zastanawiają się nad kontrolą SI. Szef Google Sundar Pichai przyznał w wywiadzie udzielonym w kwietniu telewizji CBS, że pożądane byłoby stworzenia dla SI globalnych ram regulacyjnych, podobnych do Układu o nierozprzestrzenianiu broni jądrowej. Chojnowski komentując tę wypowiedź stwierdził: "Poszczególne jurysdykcje będą tworzyć swoje rozwiązania. Uważam, że Europa ma do odegrania rolę pioniera, który wytyczy szlaki dla innych".

Autor: Szymon Zdziebłowski

Źródło artykułu:PAP
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (14)