Roboty stały się rasistowskie i seksistowskie. SI nie jest tak inteligentna

Roboty stały się rasistowskie i seksistowskie. SI nie jest tak inteligentna

Minie jeszcze mnóstwo czasu, zanim roboty zrozumieją, czym jest moralność.
Minie jeszcze mnóstwo czasu, zanim roboty zrozumieją, czym jest moralność.
Źródło zdjęć: © Pexels
Marcin Watemborski
17.07.2022 11:58

Rozwój robotyki i algorytmów sztucznej inteligencji jest niesamowity. To właśnie w te dziedziny różne firmy inwestują miliardy dolarów. Doszło nawet do tego, że niektóre zaczęły się zachowywać jak ludzie – w negatywnym tych słów znaczeniu. Pokazały przejawy seksistowskich i rasistowskich działań.

Roboty dyskryminują ludzi z automatu

Naukowcy postawili przeprowadzić eksperyment, w którym zadaniem robotów wyposażonych w sztuczną inteligencję było skanowanie twarzy i podzielenie ich na kryminalistów i nie. Okazało się, że przeważnie wybierały one osoby o ciemnej karnacji.

Zaimplementowany algorytm sztucznej inteligencji został wytrenowany przez maszynowe uczenie na ogromnym zbiorze danych opartym o zdjęcia z podpisami. W późniejszej fazie testów wyszło, że roboty przejawiają zachowania nie tylko rasistowskie, ale i seksistowskie. Te drugie dotyczą niemal stałego przypisywania kobiet do zawodów związanych z opieką nad domem oraz utrzymywaniem czystości.

Najnowsze przykłady to nie jedyne, w których roboty to pokazały złe zachowania. W przeszłości sztuczna inteligencja odpowiadająca za przewidywanie prawdopodobieństwa popełnienia przestępstwa przez daną osobę, częściej wskazywała na osoby czarnoskóre oraz pochodzenia latynoskiego. Przeważnie w przypadku "podejrzanych" nie było żadnych przesłanek do takiej oceny.

Nie ma wzoru matematycznego na moralność

Badacze z Uniwersytetu Johna Hopkinsa oraz Politechniki Stanowej w Georgii udowodnili bezpardonowo tendencje wirtualnych maszyn, które pokrywają się nierzadko z krzywdzącym podejściem wielu uprzedzonych ludzi, którzy patrzą stereotypowo i raniąco na innych. Zadaniem naukowców będzie teraz wyeliminowanie działań rasistowskich i seksistowskich przez odpowiednie zaprogramowanie maszyn.

Jeśli roboty w przyszłości mają odpowiadać za ludzkie prace pokroju dostarczania różnych dóbr dla ludzi, w tym pacjentów szpitali, nie mogą zachowywać się tak, jak teraz. Muszą zrozumieć, że ludzie są równi i żadnego z nich nie należy gorzej traktować ze względu na kolor skóry czy płeć.

Nadzór etyczny nad robotyką jest konieczny – za to muszą odpowiadać ludzie, którzy stworzą instrukcję zachowań moralnych w oprogramowaniu maszyn. Schematy działań z uwzględnieniem sumienia to coś, czego żadna maszyna nie powtarza. Paradygmaty moralne nie są zero-jedynkowymi działaniami.

Etyczne maszyny nie powstaną jeszcze długo

Na tę chwilę trudno jest mówić o tym, kiedy dokładnie pojawią się roboty oraz algorytmy sztucznej inteligencji, które będą rozumiały kwestię moralności i tego, że nie można dyskryminować nikogo ze względu na przynależność do konkretnej grupy etnicznej czy płci, nawet jeśli w bazie danych maszynowego uczenia znalazło się mnóstwo przykładów działań, które mają zostać wykryte. Z drugiej strony patrząc, prostszym sposobem byłoby zrównoważenie zbioru informacji, które za implementowane do kształcenia algorytmów.

Obecnie roboty sprawdzają się w maszynowych pracach, gdzie nie jest istotne rozważanie kwestii moralnych. Zadania pokroju "przynieś, wynieś, pozamiataj" są znacznie prostsze niż ocena sytuacji z punktu widzenia etycznego. Ten problem był już poruszany podczas kształcenia sztucznej inteligencji w samochodach autonomicznych, gdzie maszyna musiała ocenić czy lepiej jest potrącić przechodnia, czy ryzykować zranienia kierowcy. W takich sytuacjach potrzebny jest człowiek tłumaczący robotowi, że można zaryzykować trzecie wyjście, które nie jest oczywiste względem obliczeń matematycznych.

Marcin Watemborski, dziennikarz WP Tech

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (26)