Boisz się inwigilacji państwa? Korporacje i tak wiedzą o tobie więcej

Boisz się inwigilacji państwa? Korporacje i tak wiedzą o tobie więcej

Prostest przeciwko inwigilacji  (Photo by Vernon Yuen/NurPhoto via Getty Images)
Prostest przeciwko inwigilacji (Photo by Vernon Yuen/NurPhoto via Getty Images)
Źródło zdjęć: © NurPhoto via Getty Images | NurPhoto
Adam Bednarek
07.04.2021 16:31

Trwa już Narodowy Spis Powszechny. Udział w nim jest obowiązkowy, co nie wszystkim się podoba. Ludzie mają obawy, że dane na ich temat trafią do instytucji państwowych i nie wiadomo, jak zostaną wykorzystane. Nowy dokument, który niedawno pojawił się na Netfliksie, doskonale pokazuje, że niekoniecznie Polacy boją się tego, czego powinni.

Udział w Narodowym Spisie Powszechnym Ludności i Mieszkań 2021 jest obowiązkowy. Jeżeli odmówimy wzięcia udziału, to możemy liczyć się z grzywną nawet do 5000 zł. 

"Dlaczego spis powszechny wymaga ode mnie podania szczegółowych danych partnerki (m.in. pesel, wykształcenie, wyznanie)? To spis czy inwigilacja?" - oburza się ktoś na Twitterze. Inny dodaje: "Przecież to czysta pisowska inwigilacja". 

Zarzuty pod adresem partii rządzącej są akurat nieistotne. Zapewne gdyby podobny Narodowy Spis Powszechnym kontynuowała Platforma Obywatelska, pojawiałaby się identyczne głosy, choć może niekoniecznie od tych samych osób. 

Nie twierdzę, że powodów do obaw, przynajmniej od strony technicznej, nie ma (wątpliwości na temat tego, po co władzy szczegółowe informacje i co z nimi może zrobić, zostawmy innym). 

Narodowy Spis Powszechny już zaliczył poważną wpadkę. Wystarczy, że dana osoba zna nasz numer PESEL oraz nazwisko panieńskie matki, a może wypełnić dane za nas. Jeśli nie uda nam się udowodnić, że ktoś się pod nas podszył, to zgodnie z art. 56 ustawy o statystyce publicznej może grozić nam kara grzywny, ograniczenia wolności lub pozbawienia wolności do 2 lat. 

Błędy się zdarzały, ale...

Przypadków niedopilnowań państwowych instytucji jest więcej. Ot, dane wyborców w plikach bez haseł trafiły do Poczty Polskiej. Powstało w ten sposób spore zagrożenie wycieku takich informacji.

Nie da się jednak ukryć, że podejrzenia nie padają sprawiedliwe. Kiedy niektórzy boją się rządowej inwigilacji, w tym samym czasie wyszło na jaw, że z  bazy Facebooka wyciekły dane około 533 mln, czyli efektywnie ponad 20 proc. użytkowników. 

To kolejna wpadka Facebooka, a gigant za najświeższą nawet nie zamierza przeprosić

Mało tego. Od lat "trąbi się", że wielkie firmy czerpią korzyści z braku odpowiednich regulacji, naruszając prywatność użytkowników na wiele sposobów. Niby RODO pewne rzeczy ukróciło, ale nadal daleko nam do sytuacji, gdy władza jest po naszej stronie. 

Wręcz przeciwnie, co pokazuje dokument, który od tego tygodnia można oglądać na Netfliksie. "Zakodowane uprzedzenie" pokazuje rolę, jaką we współczesnym świecie odgrywają tajemnicze algorytmy, o których nic nie wiemy. A od których dosłownie zależy nasze życie. 

Główną zaletą "Zakodowanego uprzedzenia" jest to, że nie jest to reportaż z gatunku "byliśmy głupi". Właśnie tak podsumować można wiele dokumentów o wcześniejszym wycieku z Facebooka i roli społecznościowych platform w rozwoju zagrożenia, jakim są fake newsy i szerząca się manipulacja. 

W tych ckliwych - aczkolwiek krytykowane przez wielu "Social Dilemma" przynajmniej dochodzi do słusznych wniosków - dokumentach dawni entuzjaści mediów społecznościowych załamują ręce i z niedowierzaniem przyznają, że dali się oszukać. 

"Zakodowane uprzedzenie" zamiast byliśmy ślepi, mówi: jesteśmy ślepi. A będzie dużo gorzej, jeśli nie przejrzymy na oczy. 

Niewidzialna władza

Dokument obrazuje, czym we współczesnym świecie są algorytmy. Na bazie olbrzymiej, niepoliczalnej ilości danych algorytmy są obecnie czymś w rodzaju przeznaczenia. Dokładnie takie hasło pada w filmie i jest boleśnie prawdziwe. 

Na podstawie wydatków, wieku, wiedzy, zatrudnienia, przebytej historii i wielu innych czynników algorytm ocenia, czy ktoś zasługuje na kredyt, zatrudnienie, dalszą pracę. Wiedząc, że ma do czynienia z hazardzistą, może podsuwać mu atrakcyjne promocje - na przykład ofertę bukmachera albo kasyna. 

To już się dzieje, a "Zakodowane uprzedzenie" pokazuje najbardziej drastyczne przykłady. Szkoła oceniała wartość nauczycieli na podstawie algorytmu, który równie dobrze decyzje mógłby wydawać losowo. Przypomniano też przykład Amazona, którego sztuczna inteligencja dyskryminowała kobiety. Ich CV odpadały na starcie. 

Problemem jest nie tylko to, że często zwykły Kowalski nie wie, jak działa algorytm i na podstawie jakich informacji wydaje swoje sądy. Ba, zresztą autorzy "Zakodowanego uprzedzenia" podkreślają, że często dla nich samych działanie SI jest pewną tajemnicą. 

Algorytmy nie wzięły się jednak znikąd. Pracują na danych stworzonych przez ludzi. To dlatego "Zakodowane uprzedzenie" zaczyna się od sceny, w której czarnoskóra kobieta zauważa, że standardowe opensourcowe narzędzia do wykrywania twarzy nie rozpoznają jej wizerunku. Wystarczy założyć białą maskę, aby wszystko działało jak należy. 

To dlatego, że po prostu zbiór danych składał się głównie z białych mężczyzn. Algorytm nie nauczył się radzić z innymi niż "standardowe" twarze. 

Schody zaczynają się, gdy z takich technologii zaczyna korzystać władza. A to też się dzieje. W grudniu 2019 Narodowy Instytut Standaryzacji i Technologii opublikował wyniki badania, które dowiodło, że oprogramowanie do rozpoznawania twarzy jest najskuteczniejsze w przypadku osób rasy białej. Z kolei jeśli chodzi o twarze rasy azjatyckiej lub czarnej, potrafi być od 10 do 100 razy bardziej zawodna i wygenerować wynik fałszywie dodatni.

Oczywiście nie dzieje się tak, bo algorytmy są rasistowskie. One nie znają takich pojęć. Problemem jest to, kto je tworzy. Tymczasem w wielu technologicznych firmach przodują mężczyźni, brakuje kobiet czy osób o innym kolorze skóry na wysokich kierowniczych stanowiskach. 

Nie oznacza to, że pracujący w Google'u, Facebooku czy Amazonie mężczyźni to rasiści. Po prostu mogą nawet nie zdawać sobie sprawy z kulturowego uprzywilejowania i dalej nieświadomie powielać, a przez to powiększać luki. 

Jeśli nie rozumiesz mechanizmu tych uprzedzeń, nie pozyskujesz danych i nie poświęcasz czasu na wypracowanie procedur bazujących na rzeczywistych dowodach, będziesz nadal ślepo powielać stare krzywdzące schematy.

Luka w danych, przez którą algorytmy mają uprzedzenia albo nie zauważają problemów mniejszości, kryje się "po pierwsze, w tym, co wiedzą programiści projektujący algorytm, a po drugie, w tym, co ogół społeczeństwa wie na temat dyskryminującego działania sztucznej inteligencji".

Tymczasem o sztucznej inteligencji nie wiemy nic. Dlatego potrzebujemy państwa, które nałoży odpowiednie przepisy i kontrole na firmy, dzięki którym będziemy wiedzieć, jak oceniają nas algorytmy i co z ich decyzji dla nas wynika. 

Problem w tym, że dziś państwo nie jest sojusznikiem w walce o naszą prywatność. Raczej wydaje się wrogiem, co pokazuje Narodowy Spis Powszechny. I choć mogę zrozumieć skąd te obawy, mam wrażenie, że strach jest mniej racjonalny. 

To tak, jakby stać przy oknie i obserwować podejrzanego osobnika, obawiając się, że może wybić nam szybę w samochodzie i gwizdnąć radio. A dokładnie w tym samym czasie szajka potężnie uzbrojonych włamywaczy po cichutku wynosi rzeczy z mieszkania.

Źródło artykułu:WP Tech
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (10)