Szef Facebooka nie boi się przestróg i chce stworzyć własną sztuczną inteligencję

Szef Facebooka nie boi się przestróg i chce stworzyć własną sztuczną inteligencję

Szef Facebooka nie boi się przestróg i chce stworzyć własną sztuczną inteligencję
Źródło zdjęć: © deneyterrio / flickr.com / CC
04.01.2016 13:54, aktualizacja: 04.01.2016 14:17

Eksperci ostrzegają przed zagrożeniami płynącymi z rozwoju sztucznej inteligencji (AI) jednak założyciel Facebooka Mark Zuckerberg uważa, że nie jest ona groźna dla człowieka. Zapowiedział, że do końca roku zbuduje asystenta domowego korzystającego z AI.

We wpisie opublikowanym na swoim profilu facebookowym Zuckerberg zapowiedział zbudowanie inteligentnego urządzenia, które będzie kontrolować podstawowe funkcje jego domu. Tym samym odciął się od obaw innych przedstawicieli branży informatycznej, którzy przestrzegali przed zagrożeniami dla ludzkości wynikającymi z rozwoju technologii sztucznej inteligencji. Takie tezy wygłaszał wcześniej m.in. szef Tesli Elon Musk. Dziennik "Financial Times" przypomina 4 stycznia, że Facebook założył trzy laboratoria, które zajmują się rozwojem AI. Centra badawcze zbudowali w Dolinie Krzemowej, Nowym Jorku i Paryżu. Zatrudniono w nich wielu fachowców w tym profesora Yanna LeCuna, który uchodzi za jednego z pionierów rozwoju tzw. głębokiego uczenia się (ang. deep learning). Technologia ta próbuje naśladować funkcjonowanie warstw neutronów w ludzkim mózgu.

Zuckerberg zapowiedział, że jego prace będą koncentrować się na stworzeniu urządzenia "prostego AI", które będzie wyposażone w dostępne już technologie. Dzięki temu maszyna ma rozpoznawać głos właściciela i "kontrolować wszystko w naszym domu - muzykę, oświetlenie, temperaturę itp.". Planuje także sięgnąć po technologię wykrywania i identyfikacji twarzy, dzięki czemu urządzenie będzie rozpoznawać kto jest w pokoju i dostosowywać panujące w nim warunki do preferencji tej osoby.

Źródło artykułu:PAP
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (2)