Pseudo-AI, czyli "sztuczna inteligencja zasilana człowiekiem"

Magia komputerów i usług sieciowych opiera się głównie na tym, że wszystko dzieje się "samo" na ekranie. Nie skupiamy się na tym "jak" czy "dlaczego" to działa. A to często wysiłek szeregowych programistów, a nie mitycznej sztucznej inteligencji.

Pseudo-AI, czyli "sztuczna inteligencja zasilana człowiekiem"
Źródło zdjęć: © Fotolia | Andrey Popov
Grzegorz Burtan

Pamiętacie taką książkę lub film jak "Czarnoksiężnik z Krainy Oz"? Klasyczna bajka, która doczekała się kilku ekranizacji i bajek. Tytułowa postać była wyjątkowo potężnym magiem, który mógł spełnić wszelkiego rodzaju życzenia. Nic nie było dla niego niemożliwe. Jednak kiedy bohaterowie w końcu odnajdują maga, ten okazuje się tylko starszym panem, pozbawionym jakichkolwiek magicznych umiejętności. Góra urodziła mysz, jak mawia stare polskie przysłowie.

W ten sposób dochodzimy do współczesności. Czarnoksiężnik z Krainy Oz nie jest już fikcyjną postacią, tylko pewną techniką, a właściwie socjotechniką, związaną z branżą informatyki. Jak te dwa pozornie różne światy się ze sobą łączą? Przez miraż sztucznej inteligencji.

Dymy i lustra

W branży IT styl działania "na Czarnoksiężnika z Krainy Oz" oznacza to, że sztuczną inteligencję markują sami programiści. "Po co?", można zapytać. Przecież lepiej stworzyć autorskie rozwiązanie i spokojnie sobie pracować, zamiast uciekać się do takich tanich sztuczek. A to jest właśnie kluczem do zrozumienia całej sytuacji. Czasem takie udawanie przynosi w krótkiej perspektywie oszczędność czasu i pieniędzy właśnie.

- Wykorzystanie człowieka do pracy pozwala ci na pominięcie masy problemów natury technicznej i biznesowej - opisywał rozwiązanie Gregory Koberger, prezes start-upu ReadMe. - Jasne, ten model się nie skaluje, ale pozwoli ci zbudować coś na samym początku i pominąć trudności w dalszym rozwoju.

Zobacz Też: Problemy Google'a

Najlepszym przykładem takiej pracy jest skanowanie wiadomości mailowych. Zakładamy, że to boty przekopują się przez setki milionów wysłanych plików, a tymczasem stoją za tym żywi ludzie. Ale dlaczego ktoś w ogóle miałby się przekopywać przez te wiadomości? Bo Google mu na to pozwolił.

W lipcu tego roku Wall Street Journal opublikował raport, w którym opisał następujący proceder. Google oficjalnie zapowiedział, że komputery firmy nie będą skanowały wiadomości użytkowników, by przygotowywać bardziej spersonalizowane oferty reklamowe. Ale nie powiedział nic o tym, że udostępni te wiadomości deweloperom oprogramowania. Co ciekawe, dotyczyło to tych użytkowników Gmaila, którzy pozapisywali się do różnego rodzaju newsletterów i usług prowadzonych tym kanałem. Budzi to spore wątpliwości, zwłaszcza dotyczące prywatności, ale w ten sposób deweloperzy mogli "karmić" swoje rozwiązania, aby działały lepiej.

Tak na przykład robiła firma Edison Software, która zapomniała poinformować klientów swojego programu pocztowego, że inżynierowie uczą się tworzenia "smart replies" na ich wiadomościach. "Mądre odpowiedzi" to kontekstowe wiadomości, które wysyła się automatycznie. A po "wchłonięciu" kilkuset naszych maili na pewno będą brzmiały naturalniej.

Polska perspektywa

- Polski rynek IT jest bardzo dojrzały, ale cały czas zdarzają się sytuacje, gdy firmy biorą pod uwagę głównie czynniki kosztowe - mówi WP Tech Paulina Kamieniecka, Data Division Director z firmy ITMAGINATION. - W efekcie mamy wówczas do czynienia z zachwianą konkurencyjnością, bo rywalizujące ze sobą oferty nie odnoszą się do tzw. porównania "jabłek do jabłek". Mogą być kompletnie różne pod względem zakresu działań, wykorzystanej technologii czy sposobu wykonania usługi. Co gorsza zdarzają się również sytuacje, gdy widzimy, że konkurencyjna oferta jest po prostu próbą oszukania klienta - zaznacza.

Rozwiązania AI, a w tym deep learning, mają działać tak, jak działa ludzki mózg, używając inteligencji i ucząc się. Zaś konkurencja najniższej ceny potrafi prowadzić do tego, że niektóre firmy, zamiast proponować "artificial intelligence", proponują raczej inteligencję tradycyjną - czyli ludzką. Wówczas zamiast dobrze zbudowanego i przetestowanego modelu wprowadzają tańszy czynnik ludzki - który "udaje" pracę modelu.

- Klienci, którzy świadomie wybierają takie rozwiązanie działają krótkoterminowo, bo zamiast tworzyć rozwiązania na lata, budują wysokie poziomy stałych kosztów - uważa Kamieniecka.

Facebookowe boty

To oczywiście nie jedyny przykład, kiedy większe i mniejsze firmy próbowały lub próbują markować pracę maszyny człowiekiem. Spójrzmy na Facebooka, który prawdopodobnie wykorzystał wszystkie wątpliwie moralnie i biznesowo patenty w swojej działalności. Firma opracowywała bowiem swojego własnego asystenta głosowego, M, który pracował by z poziomu aplikacji Messenger.

Prace rozpoczęły się w 2015 roku i M było oceniane bardzo dobrze - doskonale rozumiało komendy, ostrzegało przed zmianami pogodowymi i pomagało kupować bilety do kina. To nie była jednak zasługa opracowanej sztucznej inteligencji, ale całego sztabu ludzi, którzy mieli oczywiście wsparcie AI, ale sami wykonali lwią część całej pracy. Pracę nad M porzucono w styczniu 2018 roku, a projekt postanowiono zaimplementować do innych rozwiązań, które znajdują się w portfolio firmy. Co nie powinno dziwić, bo Facebook od jakiegoś czasu zwiera szyki, jeśli chodzi o swoje usługi.

Maciej Stanusch jest prezesem firmy specjalizującej się w projektach z wykorzystaniem sztucznej inteligencji, Stanusch Technologies. Zapytałem go o ten fenomen, na co ten odpowiedział, że informacje tego typu działają na niego krzepiąco. Dlaczego?

- To znaczy, że my mamy technologię, która faktycznie działa i nie musimy się posiłkować ludźmi, którzy udają boty - pisze dla WP Tech. - Wdrażając AI zakładamy, że ma ona automatyzować powtarzalne czynności bez udziału człowieka. Celem jest najczęściej zmniejszenie kosztów obsługi lub często "zapchanie dziur" po pracownikach, którzy odeszli z Call Center a na ich miejsce nie ma chętnych. Teraz to właśnie obserwujemy w Polsce – dodaje.

Presja na automatyzację jest spora, a nie wszystkich na to stać bądź nie wszyscy chcą przekazywać ogromne budżety na rozwój AI od podstaw. Sytuacja, w której AI jest tylko grupą ludzi, mozolnie przekopujących się przez stosy danych do przeanalizowania, nie powinna zatem dziwić. Zapytałem na kilku grupach dla programistów, co sądzą o takim rozwiązaniu. Otrzymałem tylko jedną, za to bardzo trafną odpowiedź. Że pseudo-AI to tak zwana "sztuczna inteligencja zasilana czynnikiem białkowym".

technologie i naukaprogramowaniegoogle
Wybrane dla Ciebie
Komentarze (2)