Sztuczna inteligencja decyduje o życiu ludzi. Skandaliczne doniesienia z Chin
Kamery, sztuczna inteligencja i algorytmy rozpoznawania twarzy, czyli system inwigilacji obywateli zaczyna działać na dobre w Chinach. Obecnie w prowincji Sinciang trwają testy wykorzystania go do stwierdzenia, czy dana osoba popełniła przestępstwo.
Według doniesień BBC, w Chinach uruchomiono testy systemu, który rozpoznaje emocje człowieka. Inżynier oprogramowania donosi, że instalował takie urządzenia na komisariatach policji w prowincji Sinciang. "Chiński rząd używa Ujgurów jako obiektów testowych do różnych eksperymentów, tak jak szczury są używane w laboratoriach" - powiedział anonimowy informator.
W prowincji Sinciang mieszka około 12 milionów Ujgurów, z czego większość to muzułmanie. Nie od dziś wiadomo, że Chiny traktują tę mniejszość narodową jak szkodniki i wykorzystują do najgorszych celów. Przykładowo w 2019 roku 15 tysięcy Ujgurów trafiło do obozu. Powodem było nadanie im statusu "podejrzanych" przez algorytm.
Mieszkańcy tej prowincji są codziennie obserwowani. Na jej obszarze znajdują się także opiewające w kontrowersje "ośrodki reedukacyjne", których celem jest po prostu wpajanie chińskiej kultury narodowej. W praktyce są to obozy o zaostrzonym rygorze, a według szacunków organizacji broniących praw człowieka, przetrzymuje się tam ponad milion osób. Argumentacja władz Chin jest taka, że w regionie znajduje się wielu separatystów i inwigilacja jest niezbędna, aby utrzymać bezpieczeństwo.
Teraz kamery oceniają, kto należy do podejrzanych, a kto nie
Kamery instalowane na posterunkach policji umieszczono tak, aby znajdowały się w dokładnej odległości 3 metrów od badanego. Funkcjonariusze używali foteli unieruchamiających, aby podejrzany nie mógł nawet drgnąć. W efekcie technologia działa jak wykrywacz kłamstw, ale jak twierdzi anonimowy inżynier "jest znacznie bardziej zaawansowana".
"Ich nadgarstki są zablokowane metalowymi kajdanami i to samo dotyczy kostek" - opisuje informator. Przedstawił także dowody na istnienie systemu sztucznej inteligencji, która została wyszkolona do wykrywania najdrobniejszych zmian w mimice twarzy. Zgodnie z jego doniesieniami, oprogramowanie na podstawie danych tworzy wykres kołowy, w którym kolor czerwony reprezentuje negatywny lub niespokojny stan emocjonalny.
To pomagało ocenić, czy dana osoba jest winna, czy też nie. Stwierdził również, że oprogramowania używano przeciwko osobom "do wstępnej oceny bez żadnych wiarygodnych dowodów winy".