Wdrożenie AI w urzędach. Eksperci mówią o stronniczości i deep fake'ach

Sztuczna inteligencja w administracji publicznej niesie ze sobą zarówno korzyści, jak i zagrożenia. Eksperci, których cytuje PAP, ostrzegają m.in. przed stronniczością algorytmiczną. Zwracają też uwagę, że łatwo jest o potencjalne ofiary decyzji podejmowanych przez AI.

Sztuczna inteligencja i samobójstwo 14-latka. Rodzice pozywają CWdrożenie AI w urzędach budzi obawy. Eksperci mówili podczas debaty o stronniczości algorytmów i fali deep fake'ów
Źródło zdjęć: © canva
oprac.  AMM

Paweł Urzenitzok, doktorant z Akademii Leona Koźmińskiego, zwraca uwagę na zagrożenia związane z wykorzystaniem sztucznej inteligencji w administracji publicznej, szczególnie podkreślając problem stronniczości algorytmicznej. Według niego, algorytmy, mimo że wydają się neutralne, mogą prowadzić do nierównego traktowania różnych grup społecznych, co jest szczególnie niebezpieczne w kontekście urzędów i ministerstw, które powinny zapewniać równe szanse.

"Algorytmy nie są obiektywne"

"Algorytmy same z siebie nie są obiektywne, opierają się na danych, którymi je zasilimy; mogą wydawać się neutralne, ale i tak mogą doprowadzić do pogłębienia uprzedzeń" - podkreślił ekspert w trakcie debaty "Bezpieczeństwo, etyka i wyzwania prawne AI w administracji", która miała miejsce podczas konferencji w Instytucie Nauk Prawnych PAN.

Jak wskazał, w administracji publicznej, czyli np. w urzędach i ministerstwach, to "poważna sprawa", bo to właśnie ona powinna zapewniać równe szanse i przejrzyste traktowanie. "Jako obywatele mamy prawo wiedzieć, w jaki sposób została podjęta decyzja i jakie były jej kryteria" - zauważył.

Dalsza część artykułu pod materiałem wideo

Paweł Urzenitzok podkreśla również problem tzw. black box, gdzie decyzje AI są nieprzejrzyste nawet dla twórców algorytmów. Taka sytuacja stwarza ryzyko, że decyzje AI mogą być trudne do zrozumienia dla osób, które są nimi dotknięte.

Co z systemami dostępu do usług publicznych czy zatrudnienia?

Urzenitzok podkreślił, że problem ten dotyczy wielu obszarów, takich jak dostęp do usług publicznych czy zatrudnienie, gdzie automatyczne systemy AI mogą odrzucać aplikacje osób z mniejszości etnicznych. Zauważył również, że podobne problemy mogą wystąpić przy przyznawaniu świadczeń społecznych, gdzie algorytmy mogą nie uwzględniać danych z określonych regionów, co prowadzi do niesprawiedliwego rozdziału zasiłków.

Filip Prusik-Serbinowski z Urzędu Nadzoru Budowlanego podczas debaty ostrzegał, że urzędnicy i sędziowie powinni z ostrożnością podchodzić do systemów doradczych AI, ponieważ mogą być zniechęceni do kwestionowania wyników proponowanych przez AI z powodu presji lub przeciążenia pracą.

Deep fake może wprowadzić w błąd nawet doświadczonych urzędników

Z kolei dr Dominika Kuźnicka–Błaszkowska z Uniwersytetu Wrocławskiego wskazała, że dużym zagrożeniem związanym z AI w administracji publicznej są deep fake'i (materiały wideo, audio lub graficzne wygenerowane przez sztuczną inteligencję, które wydają się być prawdziwe). Zwróciła uwagę, że unijny Akt o sztucznej inteligencji nie zalicza ich do systemów wysokiego ryzyka.

"Jeśli na deep fake'i nabierają się prezydenci krajów europejskich, to nie łudźmy się, że nie nabierze się na nie pracownik administracji publicznej, który nie ma narzędzi i nie ma za sobą całego wywiadu, który pomógłby mu przekonać się, że to fałszywy materiał" - zauważyła ekspertka.

Ataki typu prompt injection

Stosowanie systemu sztucznej inteligencji w administracji publicznej, np. w postaci chatbotu, może też wiązać się z ryzkiem ataku na ten system - dodała podczas debaty Aleksandra Kawa z Uniwersytetu im. Adama Mickiewicza w Poznaniu. Jako przykład podała atak typu prompt injection, który polega na skonstruowaniu przez człowieka promptu (komendy), który pozwoli obejść zabezpieczenia blokujące generowanie przez AI niebezpiecznych lub objętych tajemnicą odpowiedzi.

"W ten sposób może dojść do ujawnienia danych, które nie powinny zostać ujawnione, np. haseł czy informacji, na których model był trenowany" - wyjaśniła ekspertka. Jak dodała, systemy w administracji zagrożone takim atakiem to m.in. chatboty, obsługa głosowa czy agenci AI na stronach internetowych ministerstw i urzędów.

Eksperci wskazywali podczas debaty na różne metody minimalizowania ryzyka związanego z AI, takie jak nadzór człowieka nad decyzjami AI, regularne audyty systemów oraz urozmaicanie danych, aby zapewnić większą reprezentację mniejszości i uniknąć stronniczości.

Wybrane dla Ciebie
Prawdziwe pochodzenie kota. Analizy dają odpowiedź
Prawdziwe pochodzenie kota. Analizy dają odpowiedź
Rosja nie wyniesie astronautów w kosmos. Poważne uszkodzenia
Rosja nie wyniesie astronautów w kosmos. Poważne uszkodzenia
Pożar w Hongkongu. Rusztowanie pomogło ogniowi
Pożar w Hongkongu. Rusztowanie pomogło ogniowi
Pod lodem tych księżyców mogą wrzeć oceany. Jak to możliwe?
Pod lodem tych księżyców mogą wrzeć oceany. Jak to możliwe?
Latami trzymał "kamień złota". Okazało się, że jest jeszcze cenniejszy
Latami trzymał "kamień złota". Okazało się, że jest jeszcze cenniejszy
Sonda JUICE zrobiła zdjęcie komecie 3I/ATLAS. Zobaczysz je w 2026 r.
Sonda JUICE zrobiła zdjęcie komecie 3I/ATLAS. Zobaczysz je w 2026 r.
Amerykanie zestrzelili swojego superdrona. Zrobili to celowo
Amerykanie zestrzelili swojego superdrona. Zrobili to celowo
F-35A Husarz będą uzbrojone. Polska dostanie broń, jaką mają nieliczni
F-35A Husarz będą uzbrojone. Polska dostanie broń, jaką mają nieliczni
Polska stawia na kosmos. Rekordowa składka do ESA
Polska stawia na kosmos. Rekordowa składka do ESA
Pierwszy taki śmigłowiec. Właśnie trafia do służby w polskiej armii
Pierwszy taki śmigłowiec. Właśnie trafia do służby w polskiej armii
Prawda wyszła na jaw. To dlatego Tomahawki nie trafiły do Ukrainy
Prawda wyszła na jaw. To dlatego Tomahawki nie trafiły do Ukrainy
Europejski łazik Rosalind Franklin poleci na Marsa. Koniec pecha?
Europejski łazik Rosalind Franklin poleci na Marsa. Koniec pecha?
MOŻE JESZCZE JEDEN ARTYKUŁ? ZOBACZ CO POLECAMY 🌟