Google zajmie się etyką sztucznej inteligencji
DeepMind, należąca do Google firma, zajmująca się sztuczną inteligencją, na poważnie przeanalizuje problem etyki algorytmów i robotów, od których w przyszłości będziemy zależni. Sprawa jest poważna, bo zdaniem wielu ekspertów to sztuczna inteligencja doprowadzi do kolejnej światowej wojny.
05.10.2017 | aktual.: 05.10.2017 15:23
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
DeepMind powołało grupę ekspertów, którzy zajmą się sztuczną inteligencją pod kątem etycznym i jej wpływie na społeczeństwo. Mowa tu m.in. o dylematach związanych z ekonomią (sztuczna inteligencja coraz częściej zabiera człowiekowi pracę), dyskryminacją rasową czy odpowiedzialnością związaną ze sterowaniem autonomicznymi pojazdami. Chodzi przede wszystkim o to, by sztuczna inteligencja podzielała ludzkie systemy wartości.
Grupa o nazwie DeepMind Ethics & Society, jak na razie, ma ośmiu pracowników, ale w ciągu roku ma liczyć 25 badaczy. Pierwsze wyniki badań powinny zostać ujawnione w 2018 roku.
- Gdzieś między popkulturą a budowaniem technologii powinien być taki punkt, w którym społeczeństwo jest w racjonalny sposób informowane o tym, co nas czeka - mówiła w rozmowie z WP Tech dr Aleksandra Przegalińska, specjalistka od sztucznej inteligencji, transhumanizmu, robotów społecznych i inteligentnych akcesoriów. Fakt, że powstała specjalna grupa w DeepMind, zajmująca się problemem moralności sztucznej inteligencji, pozwala mieć nadzieję, że rzetelne szczegóły zostaną przedstawione.
Obecnie opinie na temat sztucznej inteligencji są skrajne: albo roboty nas we wszystkim wyręczą, albo wypowiedzą wojnę i nas zabiją. Przed zagrożeniem ostrzegają nas naukowcy i kościół, a tacy politycy jak Putin wieszczą konflikty zbrojne wywołane z powodu sztucznej inteligencji.
Najwyraźniej Google, stojące za DeepMind, jest tego świadome i chce ewentualne ryzyko związane z rozwojem sztucznej inteligencji przeanalizować, a także je wyjaśnić. W końcu nie można zostawić sztucznej inteligencji samej sobie i liczyć, że “jakoś to będzie”.