Google zajmie się etyką sztucznej inteligencji

Google zajmie się etyką sztucznej inteligencji
Źródło zdjęć: © Materiały prasowe
Adam Bednarek

05.10.2017 14:58, aktual.: 05.10.2017 15:23

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

DeepMind, należąca do Google firma, zajmująca się sztuczną inteligencją, na poważnie przeanalizuje problem etyki algorytmów i robotów, od których w przyszłości będziemy zależni. Sprawa jest poważna, bo zdaniem wielu ekspertów to sztuczna inteligencja doprowadzi do kolejnej światowej wojny.

DeepMind powołało grupę ekspertów, którzy zajmą się sztuczną inteligencją pod kątem etycznym i jej wpływie na społeczeństwo. Mowa tu m.in. o dylematach związanych z ekonomią (sztuczna inteligencja coraz częściej zabiera człowiekowi pracę), dyskryminacją rasową czy odpowiedzialnością związaną ze sterowaniem autonomicznymi pojazdami. Chodzi przede wszystkim o to, by sztuczna inteligencja podzielała ludzkie systemy wartości.

Grupa o nazwie DeepMind Ethics & Society, jak na razie, ma ośmiu pracowników, ale w ciągu roku ma liczyć 25 badaczy. Pierwsze wyniki badań powinny zostać ujawnione w 2018 roku.

- Gdzieś między popkulturą a budowaniem technologii powinien być taki punkt, w którym społeczeństwo jest w racjonalny sposób informowane o tym, co nas czeka - mówiła w rozmowie z WP Tech dr Aleksandra Przegalińska, specjalistka od sztucznej inteligencji, transhumanizmu, robotów społecznych i inteligentnych akcesoriów. Fakt, że powstała specjalna grupa w DeepMind, zajmująca się problemem moralności sztucznej inteligencji, pozwala mieć nadzieję, że rzetelne szczegóły zostaną przedstawione.
Obecnie opinie na temat sztucznej inteligencji są skrajne: albo roboty nas we wszystkim wyręczą, albo wypowiedzą wojnę i nas zabiją. Przed zagrożeniem ostrzegają nas naukowcy i kościół, a tacy politycy jak Putin wieszczą konflikty zbrojne wywołane z powodu sztucznej inteligencji.

Najwyraźniej Google, stojące za DeepMind, jest tego świadome i chce ewentualne ryzyko związane z rozwojem sztucznej inteligencji przeanalizować, a także je wyjaśnić. W końcu nie można zostawić sztucznej inteligencji samej sobie i liczyć, że “jakoś to będzie”.