SI nie da się kontrolować? Nowy raport nie pozostawia złudzeń
Badacze z Towarzystwa Maxa Plancka ocenili zdolności ludzi do kontrolowania superinteligentnej SI. Wnioski nie są zbyt optymistyczne.
Naukowcy z prestiżowego Towarzystwa Maxa Plancka w Europie twierdzą, że przy naszej obecnej technologii ludzkość nie ma szans na kontrolowanie superinteligentnej sztucznej inteligencji zdolnej do uratowania lub zniszczenia ludzkości.
Artykuł instytutu badawczego, opublikowany w zeszłym tygodniu w Journal of Artificial Intelligence Research, skupia się na zdolności ludzkości do reagowania na hipotetyczną SI, która mogłaby zdecydować o pozbyciu się nas.
I chociaż brzmi to jak science fiction, naukowcy są zdania, że powinniśmy zacząć poszukiwać rozwiązania, które nazywają "algorytmem powstrzymującym". Miałby on na celu symulowanie zagrożeń ze strony SI oraz zapobieganiu jej potencjalnym działaniom na niekorzyść ludzkości.
Naukowcy są zdania, że stworzenie potencjalnie zabójczej dla ludzi sztucznej inteligencji "jest tuż za rogiem".
- Superinteligentna maszyna, która kontroluje świat, brzmi jak science fiction - powiedział współautor badania Manuel Cebrian. - Ale są już maszyny, które wykonują pewne ważne zadania niezależnie, a programiści nie do końca rozumieją, jak się tego nauczyły. Powstaje zatem pytanie, czy w pewnym momencie mogłoby to stać się niekontrolowane i niebezpieczne dla ludzkości?
Oczywiście na razie tego typu rozważania pozostają w sferze teorii. Jednak już teraz działają takie inicjatywy jak Stop Killer Robots, wspierana przez Elona Muska. Miliarder wielokrotnie podkreślał zagrożenie, jakie niesie ze sobą wolna SI.
- Niektóre z najlepszych umysłów świata pracujących obecnie nad złagodzeniem zagrożeń ze strony sztucznej inteligencji będą miały względną inteligencję szympansa w porównaniu z superinteligentnymi maszynami przyszłości - powiedział w jednym z wywiadów.