Ojciec chrzestny AI ostrzega. "To nie jest science fiction"

Geoffrey Hinton, nazywany jednym z "ojców chrzestnych sztucznej inteligencji", ostrzega przed związanymi z nią zagrożeniami. Podczas konferencji technologicznej Collision, która odbyła się 28 czerwca w Kanadzie, mężczyzna apelował, aby rządy wkroczyły i upewniły się, że maszyny nie przejmą kontroli nad społeczeństwem, jak donosi Science Alert.

Geoffrey Hinton obawia się zagrożeń, jakie może nieść AI
Geoffrey Hinton obawia się zagrożeń, jakie może nieść AI
Źródło zdjęć: © @geoffreyhinton Twitter, Canva
Karolina Modzelewska

29.06.2023 | aktual.: 29.06.2023 13:53

Geoffrey Hinton to znany i ceniony naukowiec zajmujący się sztuczną inteligencją, który pracuje na Uniwersytecie w Toronto. Już w maju br., kiedy odszedł z firmy Google, gdzie pracował łącznie 10 lat, ostrzegała świat przed skutkami, jakie może nieść ze sobą upowszechnienie AI. Mówił też, że częściowo żałuje wkładu, jaki miał w rozwój sztucznej inteligencji.

Ekspert mówi o zagrożeniach związanych z AI

Hinton w podobnym tonie wypowiadał się podczas konferencji technologicznej Collision, na co zwrócił uwagę serwis Science Alert. Przypomniał, że zagrożenia związane ze sztuczną inteligencją należy traktować poważnie. "Myślę, że ważne jest, aby ludzie zrozumieli, że to nie jest science fiction, to nie jest tylko sianie paniki" - przekonywał. "To realne ryzyko, o którym musimy pomyśleć i z wyprzedzeniem dowiedzieć się, jak sobie z nim poradzić".

W trakcie swojego przemówienia podkreślił też: "zanim sztuczna inteligencja stanie się mądrzejsza od nas, myślę, że osoby ją rozwijające powinny być zachęcane do włożenia sporej pracy w zrozumienie, w jaki sposób może próbować odebrać kontrolę". Zdaniem Hintona potencjalne przejęcie kontroli nad ludźmi nie jest jedynym niebezpieczeństwem. Ekspert niepokoi się, że AI pogłębi istniejące nierówności i przepaść między bogatymi i biednymi, ponieważ umożliwi ogromny wzrost produktywności.

Dalsza część artykułu pod materiałem wideo

Według Hinton problematyczne mogą być też fałszywe wiadomości tworzone przez boty takiej jak ChatGPT, dlatego wytwory sztucznej inteligencji powinny być właściwie oznakowane. Jako potencjalne rozwiązanie tego problemu Hinton zaproponował stosowanie takich znaczników, jakie banki używają w przypadku banknotów.

Karolina Modzelewska, dziennikarka Wirtualna Polska

Wybrane dla Ciebie
Komentarze (0)