Dla YouTube'a jesteś tylko maszyną do oglądania filmików. Ich treść jest mniej ważna
Z YouTubem jest coś nie tak. Łatwo trafić tam na "patostreamerów", a szukając informacji naukowych otrzymujemy "dokumenty" o szkodliwości szczepionek bądź negujące teorię ewolucji. Co się popsuło?
Dziś życie bez YouTube'a ciężko jest sobie wyobrazić. Największy na świecie portal wideo to miejsce, gdzie jedni szukają rozrywkowych programów, inni kuchennych i technicznych porad, rodzice patrzą za bajkami dla dzieci, a znudzeni za śmiesznymi filmikami i teledyskami. Ale nie trudno jest dostrzec, że moloch ma kilka bardzo dużych "grzechów". Oto trzy główne.
Algorytmy
Kiedy platforma była jeszcze małym serwisem, na którym ludzie przede wszystkim umieszczali np. wideo z wizyty w zoo, rekomendacje podlegały żywym osobom. One nadzorowały, jakie kolejne wideo będzie nam wyświetlać się w polecanych. To jednak nie jest dobre dla modelu biznesowego. Dlatego serwis podjął decyzję o zastąpieniu ludzi algorytmami, które dopasowują, co nam się wyświetli na podstawie naszej historii przeglądania.
Pierwsze trzy wyniki po wpisaniu hasła "szczepionki".
To ma wyjątkowo istotne znaczenie dla przychodów YouTube'a – sztuczna inteligencja musi zasugerować takie treści, które będą chętniej oglądane przez danego widza. W efekcie osoba, która ma wątpliwości co do szczepionek, najpierw obejrzy jedno wideo, a potem kolejne i kolejne. Po 30 zapisze się do stowarzyszenia antyszepionkowego STOP NOP. To oczywiście wielki sukces dla portalu, bo pod rząd obejrzano kilka długich wideo. Ale dla debaty publicznej to porażka.
To samo tyczy się wyszukiwania. Pewną stałą jest, że kiedy dojdzie do tragedii, jak strzelanina w Las Vegas bądź w szkole na Florydzie, algorytm YouTube'a najmocniej wypromuje wideo z teoriami spiskowymi. W pierwszym przypadku na górze strony pojawiła się informacja, że listopadowa masakra w stanie Nevada była oszustwem. To oczywiście spotkało się z furią rodzin ofiar, które musiały słuchać, jak cała operacja była ustawiona. Podobnie było z lutową tragedią w szkole – wideo dowodzące, że jeden ze świadków strzelaniny to opłacony aktor, było na pierwszym miejscu w zakładce "popularne".
To nie jest oczywiście odgórna decyzja złego zarządu Google'a, które w Mountain View zastanawia się, jak zdestabilizować populację, by rząd światowy mógł sprawować władzę. Logika algorytmu jest bezwzględna – użytkownik ma oglądać jak najwięcej i jak najdłużej, treść jest wtórnym tematem, dopóki nie zawiera elementów niezgodnych z polityką serwisu (teorie spiskowe najwidoczniej nie są jej częścią).
To zresztą potwierdza Guillaume Chaslot, były pracownik YouTube'a, który stoi za projektem Algotransparency. Na stronie odtworzono to, jak potencjalnie działa bot serwisu odpowiedzialny za rekomendacje. Przy pytaniu o to, czy Ziemia jest płaska, czy nie, pojawiają się wideo wraz z informacją, ile razy częściej były rekomendowane.
To w pewnym sensie wyjaśnia, skąd w ostatnich latach taki wzrost zainteresowania teoriami spiskowymi – serwis działa jak paliwo dla takich poglądów. A argument, że można przenieść się na inną platformę trzeba włożyć między bajki.
Monopol
Google to moloch, tak samo jak jego filmowa odnoga. Są oczywiście alternatywy, jak Daily Motion czy Vimeo, ale liczby są bezwzględne. W 2016 roku udział serwisów wideo na rynku amerykańskim wyglądał następująco:
W Polsce liczby prezentują się podobnie, w 2017 roku zasięg serwisu wśród internautów przekroczył 79 proc. - to około 20 mln wszystkich użytkowników sieci w naszym kraju. Dla twórców treści wideo to praktycznie jedyna sensowna forma monetyzacji swoich produkcji. To zresztą w rozmowie z WP Tech potwierdza Maciej Dąbrowski, autor popularnego kanału Z Dvpy.
– Problemem jest brak konkurencji. Facebook próbuje, ale robi to niedołężnie, więc YouTube jest monopolistą. Albo się dostosujesz, albo wyłącz kartę w przeglądarce. Innej drogi nie ma – stwierdza Dąbrowski. – Pamiętajmy jednak, że serwis nie promuje treści, bo dostaje za to pieniądze. Tak po prostu działa algorytm. YouTube dąży do pełnej automatyzacji badania treści, dlatego uczą go, jak ma postępować. I nagle okazuje się, że jakaś teoria spiskowa o szkolnej strzelaninie albo fake news są wysoko wypozycjonowane. Ludzie się nakręcają, nabijają coraz więcej wyświetleń, więc algorytm odbiera tę treść za interesującą i bezpieczną dla szerokiego grona odbiorców – tłumaczy, potwierdzając wcześniejsze ustalenia.
Skoro YouTube jest "zbyt duży, by upaść", a my jesteśmy na niego skazani, to wielkiego wyboru, niestety, nie mamy. Tu przechodzimy do najbardziej niepokojącego problemu.
Patologia i radykalizm
Tu ponownie musimy wrócić do problemu z algorytmem – nie o fake newsy czy o teorie spiskowe tu jednak chodzi, o nie.
– Picie alkoholu czy bicie swojej dziewczyny, najlepiej na żywo, nie jest tępione, tylko promowane. Sam również miałem nieprzyjemność przez algorytm – wspomina Dąbrowski. – Niedawno opublikowałem odcinek dotyczący kultury afroamerykańskiej, gdzie opisywałem swoich ulubionych czarnoskórych artystów. Nagle zasięg został ograniczony tylko do zalogowanych i pełnoletnich użytkowników. Dlaczego? Bo mógł zawierać treści rasistowskie i o zabarwieniu terrorystycznym. Tak to wyliczył algorytm. Odwołałem się i przyjęto moje zażalenie, ale dopiero po interwencji żywej osoby – dodaje.
"Kariery" internetowych streamerów to jedna z rzeczy, która najbardziej wzburza twórców i część widzów. W końcu kiedy promowane jest wideo o tytule "RAFONIX POBIŁ BOXDELA - UDERZYŁ GO Z CAŁEJ SIŁY W TWARZ!" czy "#NA ŻYWO #DYMY ! NOCNE SPANIE !!!!" (gdzie widać tylko, jak nagrywający śpi), to można zastanowić się, co jest decydujące, by trafić do sekcji "na czasie".
Fragment wideo pt. "MEGA DYMY! Janek rozwala siekierą stół! "
Takie treści nie byłyby problemem, gdyby YouTube odpowiednio reagował i je usuwał. Tak jednak nie jest – zazwyczaj "patostreamerzy" (promujący wulgarne i poniżające treści w swich transmisjach) są banowani z serwisu, kiedy zostanie rozkręcona dostatecznie duża afera, przy której nie można dłużej ignorować problemu. Krew, morderstwa, pornografia nie są treścią odpowiednią dla YouTube'a, to prawda. Ale picie wódki, przeklinanie i bójki również. Te jednak bot ma trudności ze skutecznym wyłapywaniem.
Drugim problemem jest stopniowa radykalizacja treści. W swoim felietonie dla "New York Timesa" Zeynep Tufekci opisała mini eksperyment, który przeprowadziła na platformie:
"Wideo o wegetarianizmie prowadziło do wideo o weganizmie. Te o uprawianiu joggingu - do tego, jak przebiec ultramaraton. Wychodzi na to, że nigdy nie jesteś dostatecznie "hardkorowy" dla YouTube'a i jego algorytmów. Dlatego ciągle promowane są treści, które podbijają stawki. Dodaj do tego miliardy użytkowników, a YouTube może być jednym z najpotężniejszych narzędzi do radykalizacji mas w XXI wieku".
W tym fragmencie Tufekci opisała tylko tematy niepolityczne – w przypadku treści związanych z dowolną opcją polityczną, w pewnym momencie zderzała się albo ze skrajnie prawicową propagandą, zahaczającą o negowanie holocaustu, po lewicowe teorie spiskowe dotyczące 11 września.
Czy jest coś, co YouTube może zrobić w tym kontekście? Tak – na przykład usuwać tego typu treści. To by jednak kłóciło się z celami biznesowymi, bo filmy z teoriami spiskowymi osiągają zazwyczaj wielomilionową liczbę wyświetleń.
Ostatni pomysł, wprowadzenie linków do Wikipedii pod niektórymi wideo, wydaje się raczej marketingową zagrywką niż realnym rozwiązaniem problemu. Bo o ile może to mieć sens w przypadku dobrze udokumentowanych historii (jak lądowanie na Księżycu), tak w przypadku kolejne tragedii czy strzelaniny nie można liczyć, że znajdą się tam wiarygodne i pewne źródła. W końcu sama Wikipedia przestrzega, że nie jest gazetą, tylko encyklopedią. Dlatego cele twórców są długoterminowe, nie skupiają się na szybkim reagowaniu.
Rzecznik YouTube'a podkreślił, że przed portalem jeszcze sporo pracy, ale już poczyniono pewne postępy. Jakie? Trudno powiedzieć. Wracam do filmu o grawitacji – zakładam, że skończę oglądając teorię, że Ziemia płynie przez Wszechświat na grzbiecie ogromnego żółwia. Niespecjalnie by mnie to zdziwiło.