Sztuczna inteligencja miała pomóc w rekrutacji dla Amazona. Zamiast tego dyskryminowała kobiety
Sztuczna inteligencja to obietnica obiektywnej i rzetelnej pracy. Również w zakresie rekrutowania pracowników. Przypadek Amazona pokazuje jednak, że w praktyce nie zawsze to działa, bo program zatrudniający faworyzował mężczyzn kosztem kobiet.
11.10.2018 | aktual.: 11.10.2018 14:58
Jako pierwszy sprawę opisał Reuters. Według agencji prasowej, od 2014 roku zespół specjalistów od nauczania maszynowego pracował nad oprogramowaniem, które miało zautomatyzować proces rekrutacji. Cel był prosty – usprawnienie samego procesu oraz znalezienie najlepszych osób spośród aplikujących. Jak opisuje jedna z osób, celem Amazona był program, który po wgraniu 100 CV wybierałby pięć najlepszych kandydatur. Narzędzie przyznawałoby od jednej do pięciu gwiazdek, byłby to więc system zbliżony do tego, który znamy ze sklepu internetowego.
Jednak w 2015 roku odkryto, że algorytm nie działa tak, jak powinien. Komputerowy model był bowiem "karmiony" danymi z okresu ostatnich 10 lat, aby mógł nauczyć się schematu poszukiwania konkretnych cech zawartych w CV kandydatów. Ponieważ w branży IT dalej przeważają mężczyźni, większość aplikacji pochodziła właśnie od nich.
W efekcie program Amazona nauczył się, by preferować męskich kandydatów. Jeśli w analizowanych CV pojawiały się takie słowa jak "kobieta" czy "kapitan kobiecego klubu szachowego", program oceniał je gorzej. Amazon miał zlecić edycję programu, by tego typu określenia nie były penalizowane, jednak według źródeł takie działania nie zapewniałyby selekcji całkowicie wolnej od dyskryminacji.
Ostatecznie Amazon rozwiązał zespół w 2017 roku z powodu utraconej nadziei, że narzędzie będzie działać na satysfakcjonującym poziomie. Rekruterzy przez chwilę z niego korzystali, ale tylko w formie pomocy podczas procesu doboru kandydatów. Amazon odmówił agencji komentarza, podkreślił jednak, że narzędzie nigdy nie było wykorzystywane do realnej oceny kandydatów.