Wdrożenie AI w urzędach. Eksperci mówią o stronniczości i deep fake'ach
Sztuczna inteligencja w administracji publicznej niesie ze sobą zarówno korzyści, jak i zagrożenia. Eksperci, których cytuje PAP, ostrzegają m.in. przed stronniczością algorytmiczną. Zwracają też uwagę, że łatwo jest o potencjalne ofiary decyzji podejmowanych przez AI.
Paweł Urzenitzok, doktorant z Akademii Leona Koźmińskiego, zwraca uwagę na zagrożenia związane z wykorzystaniem sztucznej inteligencji w administracji publicznej, szczególnie podkreślając problem stronniczości algorytmicznej. Według niego, algorytmy, mimo że wydają się neutralne, mogą prowadzić do nierównego traktowania różnych grup społecznych, co jest szczególnie niebezpieczne w kontekście urzędów i ministerstw, które powinny zapewniać równe szanse.
"Algorytmy nie są obiektywne"
"Algorytmy same z siebie nie są obiektywne, opierają się na danych, którymi je zasilimy; mogą wydawać się neutralne, ale i tak mogą doprowadzić do pogłębienia uprzedzeń" - podkreślił ekspert w trakcie debaty "Bezpieczeństwo, etyka i wyzwania prawne AI w administracji", która miała miejsce podczas konferencji w Instytucie Nauk Prawnych PAN.
Jak wskazał, w administracji publicznej, czyli np. w urzędach i ministerstwach, to "poważna sprawa", bo to właśnie ona powinna zapewniać równe szanse i przejrzyste traktowanie. "Jako obywatele mamy prawo wiedzieć, w jaki sposób została podjęta decyzja i jakie były jej kryteria" - zauważył.
Dalsza część artykułu pod materiałem wideo
Paweł Urzenitzok podkreśla również problem tzw. black box, gdzie decyzje AI są nieprzejrzyste nawet dla twórców algorytmów. Taka sytuacja stwarza ryzyko, że decyzje AI mogą być trudne do zrozumienia dla osób, które są nimi dotknięte.
Co z systemami dostępu do usług publicznych czy zatrudnienia?
Urzenitzok podkreślił, że problem ten dotyczy wielu obszarów, takich jak dostęp do usług publicznych czy zatrudnienie, gdzie automatyczne systemy AI mogą odrzucać aplikacje osób z mniejszości etnicznych. Zauważył również, że podobne problemy mogą wystąpić przy przyznawaniu świadczeń społecznych, gdzie algorytmy mogą nie uwzględniać danych z określonych regionów, co prowadzi do niesprawiedliwego rozdziału zasiłków.
Filip Prusik-Serbinowski z Urzędu Nadzoru Budowlanego podczas debaty ostrzegał, że urzędnicy i sędziowie powinni z ostrożnością podchodzić do systemów doradczych AI, ponieważ mogą być zniechęceni do kwestionowania wyników proponowanych przez AI z powodu presji lub przeciążenia pracą.
Deep fake może wprowadzić w błąd nawet doświadczonych urzędników
Z kolei dr Dominika Kuźnicka–Błaszkowska z Uniwersytetu Wrocławskiego wskazała, że dużym zagrożeniem związanym z AI w administracji publicznej są deep fake'i (materiały wideo, audio lub graficzne wygenerowane przez sztuczną inteligencję, które wydają się być prawdziwe). Zwróciła uwagę, że unijny Akt o sztucznej inteligencji nie zalicza ich do systemów wysokiego ryzyka.
"Jeśli na deep fake'i nabierają się prezydenci krajów europejskich, to nie łudźmy się, że nie nabierze się na nie pracownik administracji publicznej, który nie ma narzędzi i nie ma za sobą całego wywiadu, który pomógłby mu przekonać się, że to fałszywy materiał" - zauważyła ekspertka.
Ataki typu prompt injection
Stosowanie systemu sztucznej inteligencji w administracji publicznej, np. w postaci chatbotu, może też wiązać się z ryzkiem ataku na ten system - dodała podczas debaty Aleksandra Kawa z Uniwersytetu im. Adama Mickiewicza w Poznaniu. Jako przykład podała atak typu prompt injection, który polega na skonstruowaniu przez człowieka promptu (komendy), który pozwoli obejść zabezpieczenia blokujące generowanie przez AI niebezpiecznych lub objętych tajemnicą odpowiedzi.
"W ten sposób może dojść do ujawnienia danych, które nie powinny zostać ujawnione, np. haseł czy informacji, na których model był trenowany" - wyjaśniła ekspertka. Jak dodała, systemy w administracji zagrożone takim atakiem to m.in. chatboty, obsługa głosowa czy agenci AI na stronach internetowych ministerstw i urzędów.
Eksperci wskazywali podczas debaty na różne metody minimalizowania ryzyka związanego z AI, takie jak nadzór człowieka nad decyzjami AI, regularne audyty systemów oraz urozmaicanie danych, aby zapewnić większą reprezentację mniejszości i uniknąć stronniczości.