Wdrożenie AI w urzędach. Eksperci mówią o stronniczości i deep fake'ach

Sztuczna inteligencja w administracji publicznej niesie ze sobą zarówno korzyści, jak i zagrożenia. Eksperci, których cytuje PAP, ostrzegają m.in. przed stronniczością algorytmiczną. Zwracają też uwagę, że łatwo jest o potencjalne ofiary decyzji podejmowanych przez AI.

Sztuczna inteligencja i samobójstwo 14-latka. Rodzice pozywają CWdrożenie AI w urzędach budzi obawy. Eksperci mówili podczas debaty o stronniczości algorytmów i fali deep fake'ów
Źródło zdjęć: © canva
oprac.  AMM

Paweł Urzenitzok, doktorant z Akademii Leona Koźmińskiego, zwraca uwagę na zagrożenia związane z wykorzystaniem sztucznej inteligencji w administracji publicznej, szczególnie podkreślając problem stronniczości algorytmicznej. Według niego, algorytmy, mimo że wydają się neutralne, mogą prowadzić do nierównego traktowania różnych grup społecznych, co jest szczególnie niebezpieczne w kontekście urzędów i ministerstw, które powinny zapewniać równe szanse.

"Algorytmy nie są obiektywne"

"Algorytmy same z siebie nie są obiektywne, opierają się na danych, którymi je zasilimy; mogą wydawać się neutralne, ale i tak mogą doprowadzić do pogłębienia uprzedzeń" - podkreślił ekspert w trakcie debaty "Bezpieczeństwo, etyka i wyzwania prawne AI w administracji", która miała miejsce podczas konferencji w Instytucie Nauk Prawnych PAN.

Jak wskazał, w administracji publicznej, czyli np. w urzędach i ministerstwach, to "poważna sprawa", bo to właśnie ona powinna zapewniać równe szanse i przejrzyste traktowanie. "Jako obywatele mamy prawo wiedzieć, w jaki sposób została podjęta decyzja i jakie były jej kryteria" - zauważył.

Dalsza część artykułu pod materiałem wideo

Paweł Urzenitzok podkreśla również problem tzw. black box, gdzie decyzje AI są nieprzejrzyste nawet dla twórców algorytmów. Taka sytuacja stwarza ryzyko, że decyzje AI mogą być trudne do zrozumienia dla osób, które są nimi dotknięte.

Co z systemami dostępu do usług publicznych czy zatrudnienia?

Urzenitzok podkreślił, że problem ten dotyczy wielu obszarów, takich jak dostęp do usług publicznych czy zatrudnienie, gdzie automatyczne systemy AI mogą odrzucać aplikacje osób z mniejszości etnicznych. Zauważył również, że podobne problemy mogą wystąpić przy przyznawaniu świadczeń społecznych, gdzie algorytmy mogą nie uwzględniać danych z określonych regionów, co prowadzi do niesprawiedliwego rozdziału zasiłków.

Filip Prusik-Serbinowski z Urzędu Nadzoru Budowlanego podczas debaty ostrzegał, że urzędnicy i sędziowie powinni z ostrożnością podchodzić do systemów doradczych AI, ponieważ mogą być zniechęceni do kwestionowania wyników proponowanych przez AI z powodu presji lub przeciążenia pracą.

Deep fake może wprowadzić w błąd nawet doświadczonych urzędników

Z kolei dr Dominika Kuźnicka–Błaszkowska z Uniwersytetu Wrocławskiego wskazała, że dużym zagrożeniem związanym z AI w administracji publicznej są deep fake'i (materiały wideo, audio lub graficzne wygenerowane przez sztuczną inteligencję, które wydają się być prawdziwe). Zwróciła uwagę, że unijny Akt o sztucznej inteligencji nie zalicza ich do systemów wysokiego ryzyka.

"Jeśli na deep fake'i nabierają się prezydenci krajów europejskich, to nie łudźmy się, że nie nabierze się na nie pracownik administracji publicznej, który nie ma narzędzi i nie ma za sobą całego wywiadu, który pomógłby mu przekonać się, że to fałszywy materiał" - zauważyła ekspertka.

Ataki typu prompt injection

Stosowanie systemu sztucznej inteligencji w administracji publicznej, np. w postaci chatbotu, może też wiązać się z ryzkiem ataku na ten system - dodała podczas debaty Aleksandra Kawa z Uniwersytetu im. Adama Mickiewicza w Poznaniu. Jako przykład podała atak typu prompt injection, który polega na skonstruowaniu przez człowieka promptu (komendy), który pozwoli obejść zabezpieczenia blokujące generowanie przez AI niebezpiecznych lub objętych tajemnicą odpowiedzi.

"W ten sposób może dojść do ujawnienia danych, które nie powinny zostać ujawnione, np. haseł czy informacji, na których model był trenowany" - wyjaśniła ekspertka. Jak dodała, systemy w administracji zagrożone takim atakiem to m.in. chatboty, obsługa głosowa czy agenci AI na stronach internetowych ministerstw i urzędów.

Eksperci wskazywali podczas debaty na różne metody minimalizowania ryzyka związanego z AI, takie jak nadzór człowieka nad decyzjami AI, regularne audyty systemów oraz urozmaicanie danych, aby zapewnić większą reprezentację mniejszości i uniknąć stronniczości.

Wybrane dla Ciebie

Indie będą produkować rosyjskie karabiny. Zysk i tak trafi do Putina
Indie będą produkować rosyjskie karabiny. Zysk i tak trafi do Putina
Polska zainteresowana ukraińskim sprzętem. Pokazano go podczas ćwiczeń
Polska zainteresowana ukraińskim sprzętem. Pokazano go podczas ćwiczeń
To arcydzieło. Okazuje się, że może pomóc z nauką fizyki kwantowej
To arcydzieło. Okazuje się, że może pomóc z nauką fizyki kwantowej
Kryzys amunicyjny. Rosja odczuwa braki pocisków do tego systemu
Kryzys amunicyjny. Rosja odczuwa braki pocisków do tego systemu
Legenda starożytności. Co wiadomo o Atlantydzie?
Legenda starożytności. Co wiadomo o Atlantydzie?
Biały fosfor w Ukrainie. Rosja omija zakazy, Chiny w łańcuchu dostaw
Biały fosfor w Ukrainie. Rosja omija zakazy, Chiny w łańcuchu dostaw
Wystarczy użyć śrubokrętu. Tajwański pocisk ma zasięg 900 km
Wystarczy użyć śrubokrętu. Tajwański pocisk ma zasięg 900 km
Problem z samolotami FA-50PL. Nawet 1,5 roku opóźnienia
Problem z samolotami FA-50PL. Nawet 1,5 roku opóźnienia
Chińczycy kupili sprzęt z Rosji. Może być zagrożeniem dla Tajwanu
Chińczycy kupili sprzęt z Rosji. Może być zagrożeniem dla Tajwanu
Drzewa w Amazonii są coraz większe. Naukowcy wskazali powód
Drzewa w Amazonii są coraz większe. Naukowcy wskazali powód
Nie chcą Leopardów 2. Sąsiad Polski stawia na lekkie czołgi
Nie chcą Leopardów 2. Sąsiad Polski stawia na lekkie czołgi
Ukraińscy snajperzy z nową bronią. Pomoc Amerykanów ma drugie dno
Ukraińscy snajperzy z nową bronią. Pomoc Amerykanów ma drugie dno