Wdrożenie AI w urzędach. Eksperci mówią o stronniczości i deep fake'ach

Sztuczna inteligencja w administracji publicznej niesie ze sobą zarówno korzyści, jak i zagrożenia. Eksperci, których cytuje PAP, ostrzegają m.in. przed stronniczością algorytmiczną. Zwracają też uwagę, że łatwo jest o potencjalne ofiary decyzji podejmowanych przez AI.

Sztuczna inteligencja i samobójstwo 14-latka. Rodzice pozywają CWdrożenie AI w urzędach budzi obawy. Eksperci mówili podczas debaty o stronniczości algorytmów i fali deep fake'ów
Źródło zdjęć: © canva
oprac.  AMM

Paweł Urzenitzok, doktorant z Akademii Leona Koźmińskiego, zwraca uwagę na zagrożenia związane z wykorzystaniem sztucznej inteligencji w administracji publicznej, szczególnie podkreślając problem stronniczości algorytmicznej. Według niego, algorytmy, mimo że wydają się neutralne, mogą prowadzić do nierównego traktowania różnych grup społecznych, co jest szczególnie niebezpieczne w kontekście urzędów i ministerstw, które powinny zapewniać równe szanse.

"Algorytmy nie są obiektywne"

"Algorytmy same z siebie nie są obiektywne, opierają się na danych, którymi je zasilimy; mogą wydawać się neutralne, ale i tak mogą doprowadzić do pogłębienia uprzedzeń" - podkreślił ekspert w trakcie debaty "Bezpieczeństwo, etyka i wyzwania prawne AI w administracji", która miała miejsce podczas konferencji w Instytucie Nauk Prawnych PAN.

Jak wskazał, w administracji publicznej, czyli np. w urzędach i ministerstwach, to "poważna sprawa", bo to właśnie ona powinna zapewniać równe szanse i przejrzyste traktowanie. "Jako obywatele mamy prawo wiedzieć, w jaki sposób została podjęta decyzja i jakie były jej kryteria" - zauważył.

Dalsza część artykułu pod materiałem wideo

Paweł Urzenitzok podkreśla również problem tzw. black box, gdzie decyzje AI są nieprzejrzyste nawet dla twórców algorytmów. Taka sytuacja stwarza ryzyko, że decyzje AI mogą być trudne do zrozumienia dla osób, które są nimi dotknięte.

Co z systemami dostępu do usług publicznych czy zatrudnienia?

Urzenitzok podkreślił, że problem ten dotyczy wielu obszarów, takich jak dostęp do usług publicznych czy zatrudnienie, gdzie automatyczne systemy AI mogą odrzucać aplikacje osób z mniejszości etnicznych. Zauważył również, że podobne problemy mogą wystąpić przy przyznawaniu świadczeń społecznych, gdzie algorytmy mogą nie uwzględniać danych z określonych regionów, co prowadzi do niesprawiedliwego rozdziału zasiłków.

Filip Prusik-Serbinowski z Urzędu Nadzoru Budowlanego podczas debaty ostrzegał, że urzędnicy i sędziowie powinni z ostrożnością podchodzić do systemów doradczych AI, ponieważ mogą być zniechęceni do kwestionowania wyników proponowanych przez AI z powodu presji lub przeciążenia pracą.

Deep fake może wprowadzić w błąd nawet doświadczonych urzędników

Z kolei dr Dominika Kuźnicka–Błaszkowska z Uniwersytetu Wrocławskiego wskazała, że dużym zagrożeniem związanym z AI w administracji publicznej są deep fake'i (materiały wideo, audio lub graficzne wygenerowane przez sztuczną inteligencję, które wydają się być prawdziwe). Zwróciła uwagę, że unijny Akt o sztucznej inteligencji nie zalicza ich do systemów wysokiego ryzyka.

"Jeśli na deep fake'i nabierają się prezydenci krajów europejskich, to nie łudźmy się, że nie nabierze się na nie pracownik administracji publicznej, który nie ma narzędzi i nie ma za sobą całego wywiadu, który pomógłby mu przekonać się, że to fałszywy materiał" - zauważyła ekspertka.

Ataki typu prompt injection

Stosowanie systemu sztucznej inteligencji w administracji publicznej, np. w postaci chatbotu, może też wiązać się z ryzkiem ataku na ten system - dodała podczas debaty Aleksandra Kawa z Uniwersytetu im. Adama Mickiewicza w Poznaniu. Jako przykład podała atak typu prompt injection, który polega na skonstruowaniu przez człowieka promptu (komendy), który pozwoli obejść zabezpieczenia blokujące generowanie przez AI niebezpiecznych lub objętych tajemnicą odpowiedzi.

"W ten sposób może dojść do ujawnienia danych, które nie powinny zostać ujawnione, np. haseł czy informacji, na których model był trenowany" - wyjaśniła ekspertka. Jak dodała, systemy w administracji zagrożone takim atakiem to m.in. chatboty, obsługa głosowa czy agenci AI na stronach internetowych ministerstw i urzędów.

Eksperci wskazywali podczas debaty na różne metody minimalizowania ryzyka związanego z AI, takie jak nadzór człowieka nad decyzjami AI, regularne audyty systemów oraz urozmaicanie danych, aby zapewnić większą reprezentację mniejszości i uniknąć stronniczości.

Wybrane dla Ciebie
SpaceX wystrzelił na orbitę tajne satelity. Emitują zakazany sygnał
SpaceX wystrzelił na orbitę tajne satelity. Emitują zakazany sygnał
Nie było tu komarów. Teraz już są
Nie było tu komarów. Teraz już są
Ukraińcy zaatakowali w Rosji. Wykorzystali dawno niewidzianą broń
Ukraińcy zaatakowali w Rosji. Wykorzystali dawno niewidzianą broń
Mają na pieńku z USA.Amerykanie obawiają się ich broni
Mają na pieńku z USA.Amerykanie obawiają się ich broni
Zrobili to pierwszy raz. Mocarstwo NATO kopiuje rozwiązanie z Ukrainy
Zrobili to pierwszy raz. Mocarstwo NATO kopiuje rozwiązanie z Ukrainy
Są znani z F-35. Zbudowali superdrona
Są znani z F-35. Zbudowali superdrona
Modele klimatyczne go pomijały. Nowe dane są niepokojące
Modele klimatyczne go pomijały. Nowe dane są niepokojące
Drony-wabiki. Ukraińcy używają ich na froncie
Drony-wabiki. Ukraińcy używają ich na froncie
W lecący samolot coś uderzyło. Już wszystko wiadomo
W lecący samolot coś uderzyło. Już wszystko wiadomo
"Latający Kreml". Putin może polecieć do Budapesztu luksusową maszyną
"Latający Kreml". Putin może polecieć do Budapesztu luksusową maszyną
Arktyczny bastion Putina. Półwysep Kolski to okno na świat i atomowy śmietnik Rosji
Arktyczny bastion Putina. Półwysep Kolski to okno na świat i atomowy śmietnik Rosji
Jak dotrzeć do Urana w kilka lat? Naukowcy z MIT wskazują sposób
Jak dotrzeć do Urana w kilka lat? Naukowcy z MIT wskazują sposób