Bunt robotów oddalony. Unia chce "etycznych maszyn"
Pod rozpędzony pojazd autonomiczny wbiega człowiek. Co ma zrobić AI? Staranować jedną osobę czy poświęcić pasażera, ryzykując wjechanie w drzewo? Sztuczna inteligencja też dokonuje wyborów, a Unia chce zadbać, aby kierowała nią etyka, a nie chłodna kalkulacja.
26.04.2019 | aktual.: 29.04.2019 13:25
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Chociaż USA i Chiny wyprzedzają Europę pod kątem wydatków na AI, to właśnie u nas postanowiono skupić się na jej szalenie ważnym, choć mało dochodowym i "seksownym" aspekcie - etyce sztucznej inteligencji.
Po co sztucznej inteligencji w ogóle etyka, można zapytać? Na przykład po to, by autonomiczne samochody nie rozjeżdżały przypadkowych ludzi. Albo po to, by asystent głosowy nie zastanawiał się, czy wezwać straż pożarną, kiedy słyszy krzyki, że w bloku jest pożar. Nie możemy tylko korzystać z AI, musimy jej też ufać. Z takiego założenia wyszła Komisja Euorpejska. A do tego potrzebne są regulacje.
Co nam da etyka w AI?
- Wymiar etyczny AI nie jest luksusem czy dodatkiem. Nasze społeczeństwo będzie mogło w pełni korzystać z technologii jedynie wtedy, gdy będzie miało do nich zaufanie - mówi Andrus Ansip, wiceprzewodniczący do spraw jednolitego rynku cyfrowego. - Etyczna sztuczna inteligencja jest korzystna dla wszystkich. Może również stać się przewagą konkurencyjną Europy jako lidera w dziedzinie AI ukierunkowanej na człowieka, której ludzie mogą zaufać.
Sztuczna inteligencja może przynieść korzyści w wielu sektorach. Opieka zdrowotna, zużycie energii, bezpieczeństwo samochodów, rolnictwo, zmiana klimatu i zarządzanie ryzykiem finansowym to tylko część branż, które na niej skorzystają. AI niesie ze sobą jednak nowe wyzwania dla przyszłości pracy i rodzi wątpliwości natury prawnej i etycznej.
- Opublikowany przez Komisję Europejską dokument "Ethics Guidelines for Trustworthy AI" to ważny krok w kierunku stworzenia solidnych podstaw etycznych dla AI - komentuje dla WP Tech dr Sebastian Szymański, filozof. - AI to technologia, która znajduje coraz szersze zastosowanie w bardzo różnych dziedzinach życia. Oferuje wielkie możliwości, a zarazem rodzi poważne i uzasadnione obawy dotyczące możliwości ingerencji w wiele sfer życia użytkowników oraz gromadzenia i przetwarzania ogromnej ilości danych o wyjątkowo wrażliwym charakterze - zaznacza.
"Ethical Guidelines..." formułują fundamentalne wymogi w zakresie tworzenia, wykorzystywania i oceny systemów opartych na AI, przy czym szczególny nacisk położony jest na ochronę praw podstawowych obywateli. Jedną z istotnych konsekwencji jest wymóg zrozumiałości i transparentności sztucznej inteligencji oraz procesów, w których jest ona wykorzystywana.
- Autorzy dokumentu, wśród których znaleźli się fachowcy ze świata akademickiego i świata biznesu, wskazali wartości, które muszą być w szczególny sposób respektowane przez technologie wykorzystujące AI. Dokument zawiera również propozycję kryteriów i procedur oceniania rozwiązań z zakresu AI - komentuje ekspert.
- Warto podkreślić, że na całym świecie obserwujemy tendencję do tworzenia etycznych ram dla technologii wykorzystujących AI. Należy traktować je jako formę "miękkiej" regulacji, która w przeciwieństwie do tradycyjnych narzędzi prawnych pozwala elastycznie i szybko reagować na nowe wyzwania, jakie będzie rodzić AI - zaznacza.
Kto odpowie za błąd maszyny?
Sztuczna inteligencja wykona za nas wiele zadań, odciąży przy najprostszych czynnościach, szybciej wskaże poprawne decyzje. Ale wdrożenie jej nie jest takie proste, o czym mówi dla WP Tech Michał Targiel z PwC, globalnej firmy świadczącej m.in. usługi księgowe.
- Firmy nie są jeszcze gotowe na uwolnienie całego potencjału tego rozwiązania. To wymaga zmiany podejścia i reorganizacji operacji, jak również akceptacji po stronie biznesu nowego sposobu pracy - uważa Targiel.
- Pojawia się mnóstwo pytań, na które jak na razie brakuje odpowiedzi. Na przykład takie: kto ponosi odpowiedzialność za błędy maszyny czy danej technologii? W przypadku ludzi odpowiedź jest oczywista, bo jesteśmy nauczeni, że popełniamy błędy. Ale nie jesteśmy nauczeni, ani nie akceptujemy faktu, że maszyna popełnia błędy. W przyszłości ludzie będą pełnili funkcje kontrolne oraz będą rozwiązywali pojawiające się problemy czy wyjątki w procesach związanych z digitalizacją czy automatyzacją - dodaje.
W ciągu najbliższych 12-18 miesięcy rynek z pewnością bardzo zintensyfikuje działania w kierunku wykorzystania technologii "inteligentnych", a firmy będą umieszczały w swoich strategiach także plany dotyczące cyfryzacji i automatyzacji operacji. Zarówno w tych obszarach, z którymi stykamy się my, klienci i użytkownicy, jak i po stronie technologii, widocznej tylko dla ekspertów.
- Używając technologii trzeba rozumieć jej dobre i złe strony. Sztuczna inteligencja powinna być wdrażana stopniowo w organizacjach po to, aby ludzie mieli czas na zbudowanie zaufania do tej technologii, jak również mieli czas na zrozumienie czego mogą się spodziewać. Na przykład algorytmy uczenia maszynowego od pewnego momentu po wdrożeniu zaczynają się uczyć same, jednak na początku musimy je "nakarmić" danymi historycznymi, po to, by wiedziały, co i jak mają robić - podkreśla Targiel.
Nieumiejętne wdrożenie sztucznej inteligencji szczególnie w procesach o wysokim poziomie ryzyka może się skończyć poważnymi konsekwencjami, przestrzega ekspert.
- Chciałbym powtórzyć tutaj, że to nie sztuczna inteligencja jako technologia jest powodem nieudanych prób wdrożeń tego typu rozwiązań, są nim ludzie, którzy nie rozumieją, że tego typu technologie pociągają za sobą szereg niezbędnych do przeprowadzenia zmian - konkluduje.