Wyobraźmy sobie świat, w którym sztuczna inteligencja śledzi nas, obserwuje nasz każdy krok. Sprawdza przy tym choćby nasze emocje, to, czy jesteśmy uśmiechnięci, czy smutni i na tej podstawie ewaluuje naszą pracę albo analizuje oceny uzyskiwane w szkole. Brzmi strasznie?
W 3. odcinku TechNielogicznie dr Ada Florentyna Pawlak nie tylko demitologizuje transhumanizm, ale i dekonstruuje teraźniejszość, którą zdominowała technologia. Nie ma jeszcze nic złego w tym, że świat staje się "mniejszy", że technologia znosi granice, redefiniuje geopolityczne scenariusze i sprawia, że wszystkim żyje się lepiej. Co jednak, jeśli np. AI zostanie użyte narzędziowo, jako środek społecznej kontroli, nadzoru, a przynajmniej ewaluacji?
AI Act to krok w dobrym kierunku?
O tym, że prawne regulacje nie nadążają za rozwojem technologii, wiemy nie od dziś. Jest jednak pewna organiczna różnica między prawem nieprzystającym do rozwoju hulajnóg elektrycznych a regulacjami pozwalającymi na implementowanie w naszą codzienność rozwiązań bazujących na sztucznej inteligencji, które mogą, potencjalnie, sprawować nad nami pewien nadzór. Elektroniczny i bezinwazyjny, ale jednak.
Czy sytuacja, w której zaangażowanie pracownika banku jest oceniane na podstawie analizy jego mimiki, tego, czy się uśmiecha, czy jego tembr głosu jest miły dla ucha, za którą odpowiada AI, to jedynie wizja książkowa, fantastycznonaukowa? Otóż nie. Okazuje się, że podobne rozwiązania działają na świecie i podobnych rozwiązań zakazuje AI Act. Co jeszcze potrafić może sztuczna inteligencja spuszczona z łańcucha i jak regulować tę nową technologię? Odpowiedzi znaleźć można w 3. odcinku TechNielogicznie.