Roboty stały się rasistowskie i seksistowskie. SI nie jest tak inteligentna
Rozwój robotyki i algorytmów sztucznej inteligencji jest niesamowity. To właśnie w te dziedziny różne firmy inwestują miliardy dolarów. Doszło nawet do tego, że niektóre zaczęły się zachowywać jak ludzie – w negatywnym tych słów znaczeniu. Pokazały przejawy seksistowskich i rasistowskich działań.
17.07.2022 11:58
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Roboty dyskryminują ludzi z automatu
Naukowcy postawili przeprowadzić eksperyment, w którym zadaniem robotów wyposażonych w sztuczną inteligencję było skanowanie twarzy i podzielenie ich na kryminalistów i nie. Okazało się, że przeważnie wybierały one osoby o ciemnej karnacji.
Zaimplementowany algorytm sztucznej inteligencji został wytrenowany przez maszynowe uczenie na ogromnym zbiorze danych opartym o zdjęcia z podpisami. W późniejszej fazie testów wyszło, że roboty przejawiają zachowania nie tylko rasistowskie, ale i seksistowskie. Te drugie dotyczą niemal stałego przypisywania kobiet do zawodów związanych z opieką nad domem oraz utrzymywaniem czystości.
Najnowsze przykłady to nie jedyne, w których roboty to pokazały złe zachowania. W przeszłości sztuczna inteligencja odpowiadająca za przewidywanie prawdopodobieństwa popełnienia przestępstwa przez daną osobę, częściej wskazywała na osoby czarnoskóre oraz pochodzenia latynoskiego. Przeważnie w przypadku "podejrzanych" nie było żadnych przesłanek do takiej oceny.
Nie ma wzoru matematycznego na moralność
Badacze z Uniwersytetu Johna Hopkinsa oraz Politechniki Stanowej w Georgii udowodnili bezpardonowo tendencje wirtualnych maszyn, które pokrywają się nierzadko z krzywdzącym podejściem wielu uprzedzonych ludzi, którzy patrzą stereotypowo i raniąco na innych. Zadaniem naukowców będzie teraz wyeliminowanie działań rasistowskich i seksistowskich przez odpowiednie zaprogramowanie maszyn.
Jeśli roboty w przyszłości mają odpowiadać za ludzkie prace pokroju dostarczania różnych dóbr dla ludzi, w tym pacjentów szpitali, nie mogą zachowywać się tak, jak teraz. Muszą zrozumieć, że ludzie są równi i żadnego z nich nie należy gorzej traktować ze względu na kolor skóry czy płeć.
Nadzór etyczny nad robotyką jest konieczny – za to muszą odpowiadać ludzie, którzy stworzą instrukcję zachowań moralnych w oprogramowaniu maszyn. Schematy działań z uwzględnieniem sumienia to coś, czego żadna maszyna nie powtarza. Paradygmaty moralne nie są zero-jedynkowymi działaniami.
Etyczne maszyny nie powstaną jeszcze długo
Na tę chwilę trudno jest mówić o tym, kiedy dokładnie pojawią się roboty oraz algorytmy sztucznej inteligencji, które będą rozumiały kwestię moralności i tego, że nie można dyskryminować nikogo ze względu na przynależność do konkretnej grupy etnicznej czy płci, nawet jeśli w bazie danych maszynowego uczenia znalazło się mnóstwo przykładów działań, które mają zostać wykryte. Z drugiej strony patrząc, prostszym sposobem byłoby zrównoważenie zbioru informacji, które za implementowane do kształcenia algorytmów.
Obecnie roboty sprawdzają się w maszynowych pracach, gdzie nie jest istotne rozważanie kwestii moralnych. Zadania pokroju "przynieś, wynieś, pozamiataj" są znacznie prostsze niż ocena sytuacji z punktu widzenia etycznego. Ten problem był już poruszany podczas kształcenia sztucznej inteligencji w samochodach autonomicznych, gdzie maszyna musiała ocenić czy lepiej jest potrącić przechodnia, czy ryzykować zranienia kierowcy. W takich sytuacjach potrzebny jest człowiek tłumaczący robotowi, że można zaryzykować trzecie wyjście, które nie jest oczywiste względem obliczeń matematycznych.
Marcin Watemborski, dziennikarz WP Tech