Mark Zuckerberg © Getty Images | Andrew Harrer

Facebook "zmartwychwstał" niezmieniony. Nie jest to powód do wielkiej radości

Kamil Fejfer
8 października 2021

Poniedziałek, 4 października 2021 roku. W Polsce dochodzi 18:00, gdy następuje "koniec świata" - to pada Facebook oraz należące do niego Instagram, Messenger, WhatsApp. Udaje się je reanimować przed północą. Mniej więcej 3 miliardy ludzi na świecie oddychają z ulgą. A może powinniśmy raczej przekląć tę chwilę "zmartwychwstania"?

Najmniejszy problem - w wyniku awarii majątek Marka Zuckerberga, szefa Facebooka, skurczył się o około 6 miliardów dolarów, a bezpośrednie straty samego Facebooka to nawet 80 miliardów dolarów.

Ale przecież awaria największych platform społecznościowych to nie tylko ich straty. To również straty podmiotów, które w jakiś sposób są od nich uzależnione: mediów, które rozpowszechniają swoje treści za pomocą swoich profili; firm, które się w ten sposób reklamują; przedsiębiorstw, które komunikują się ze sobą przez Messengera; w końcu zwykłych użytkowników, dla których social media są głównym sposobem zacieśniania więzi.

W przypadku biznesu awaria Facebooka oznacza niezrealizowane kampanie promocyjne i utratę potencjalnych klientów oraz problemy w komunikacji z kontrahentami.

Takie straty trudno policzyć, jednak w skali globu mogą to być nawet kolejne dziesiątki miliardów dolarów. W przypadku zwykłych ludzi awaria oznaczała niemożność skontaktowania się z bliskimi, a dla części użytkowników również kłopoty psychiczne wynikające z uzależnienia (do kwestii wpływu mediów społecznościowych na zdrowie psychiczne jeszcze wrócę).

New York Times zwraca uwagę na jeszcze jedną niezwykle interesującą kwestię związaną z gospodarczo-społecznym aspektem platform, których właścicielem jest Facebook.

W wielu krajach rozwijających się, np. w Indiach, w państwach Ameryki Łacińskiej czy Afryki Facebook i jego produkty to de facto niemal cały Internet, ale również główne narzędzia komunikacji. WhatsApp czy Messenger są po prostu o wiele tańsze niż zwykłe rozmowy telefoniczne.

Komunikat o braku dostępu do FB zmroził miliardy ludzi na całym świecie
Komunikat o braku dostępu do FB zmroził miliardy ludzi na całym świecie © Getty Images | SOPA Images

WhatsApp w pewnym momencie stanowił nawet połowę ruchu internetowego w Zimbabwe. Jak podaje NYT, w Tanzanii platformy Facebooka były na tyle ważne, że podczas awarii rzecznik tamtejszego rządu na Twitterze wezwał opinię publiczną do "zachowania spokoju".

Paradoksalnie w krajach rozwijających się infrastruktura Facebooka stanowi zamiennik albo kiepsko rozwiniętej, albo w ogóle nieistniejącej "tradycyjnej" infrastruktury. To na tej architekturze trzyma się spora część społecznego i gospodarczego ładu.

Pojawiają się głosy, że poniedziałkowa awaria będzie kosztować firmę Zuckerberga więcej niż tylko straty z tego tygodnia. Tak poważny problem zachwiał zaufaniem części usługobiorców, którzy teraz zaczną poszukiwać alternatywnych miejsc, do których będą mogli się przenieść.

Ale awaria platformy to nie jedyny problem, z jakim zmaga się obecnie cyfrowy gigant. Od kilku tygodni jedna z byłych menedżerek Facebooka, Frances Haugen, donosi o tym, co eksperci zajmujący się social mediami podejrzewali od dawna: Facebook wiedział o negatywnym wpływie jego algorytmów na młodych (i nie tylko) ludzi. I nic z tym nie robił, bo tak mu się po prostu opłacało.

Armia, która ma jeden cel: zatrzymać cię i wycisnąć kasę

Wall Street Journal, na podstawie materiałów wyniesionych przez Haugen z Facebooka, opublikował serię artykułów, które dowodzą, że w firmie wiedziano między innymi o tym, że algorytmy przyczyniają się do wzrostu przypadków stanów lękowych i depresji. A także o tym, że mają negatywny wpływ na postrzeganie swojego ciała przez nastolatki.

Spróbujmy zrozumieć, jak działa ten mechanizm. Głównym celem social mediów jest sprzedaż reklam - na tym zarabiają. A sprzedaż reklam jest tym większa, im więcej czasu spędzamy na tych platformach. Cała ich mechanika jest więc tworzona tak, aby, jak najdłużej zatrzymać naszą uwagę.

Po jednej stronie ekranu jesteśmy my, pojedynczy użytkownicy. A z drugiej strony tysiące najinteligentniejszych na świecie inżynierów, psychologów i analityków danych wyposażonych w narzędzia statystyczne. Mają jeden cel: spowodować, że będziemy jak najczęściej sięgać po nasze smartfony, odświeżać nasze tablice oraz spędzać w social mediach jak najwięcej czasu.

Jak mówi mi Karolina Iwańska, prawniczka związana z fundacją Panoptykon, właściwie każdy element social mediów jest optymalizowany pod ten właśnie cel.

W interfejsie użytkownika, czyli w tym, co widzimy na ekranach naszych komputerów i smartfonów, nie ma żadnej przypadkowości. Tu nawet każdy kolor został przetestowany pod kątem maksymalizacji naszego zaangażowania (nie musimy sobie z tego zdawać sprawy, ale niektóre kolory mogą przytrzymywać dłużej naszą uwagę); każdy przycisk, każde powiadomienie jest zaprojektowane w ten sposób, aby było nam jak najtrudniej oderwać się od społecznościowej sieci.

Jako pojedyncze osoby w starciu z tą całą machiną jesteśmy niemal bezradni.

Oni wiedzą, czego "chcemy"

Projekt interfejsu to jedna sprawa. Kolejna kwestia to algorytmy, które rekomendują nam treści, czyli powodują, że widzimy na naszych tablicach to, co widzimy.

"Wnioskują" one o tym, co "chcemy" widzieć na podstawie naszych polubień, interakcji z naszymi znajomymi, ale również na podstawie tego, jakie strony odwiedzamy, jakie mamy zwyczaje zakupowe, jak wygląda nasz kalendarz dnia.

Tysiące śladów cyfrowych, które zostawiamy w Internecie, są więc wykorzystywane, aby nas profilować. Algorytmy "wiedzą", jaka treść przytrzyma naszą uwagę możliwie długo. Dane cyfrowe są surowcem, który firmy takie jak Facebook,za pośrednictwem algorytmów przerabiają na miliardy dolarów zysku.

Frances Haugen. To ona zaalarmowała, że Facebook wiedział o negatywnym wpływie jego algorytmów na młodych (i nie tylko) ludzi. I nic z tym nie robił, bo tak mu się po prostu opłacało
Frances Haugen. To ona zaalarmowała, że Facebook wiedział o negatywnym wpływie jego algorytmów na młodych (i nie tylko) ludzi. I nic z tym nie robił, bo tak mu się po prostu opłacało © Getty Images | Jabin Botsford

Nie bez powodu "chcemy" napisałem powyżej w cudzysłowie. To dlatego, że część osób otrzymuje treści, w które co prawda klika, ale które jednocześnie powodują w nich stany niepokoju.

Właśnie takim przypadkiem zajęła się niedawno fundacja Panoptykon. Do organizacji zgłosiła się młoda kobieta, która zauważyła, że na jej facebookowym feedzie pojawia się wyjątkowo dużo informacji o zbiórkach na leczenie dzieci i propozycji badań.

"Nasza bohaterka to młoda matka, dla której - zwłaszcza od czasu, gdy jedno z rodziców zmarło na raka - zdrowie to drażliwy temat. Gdy zaszła w ciążę, jej obawy rozszerzyły się na choroby, które dotykają głównie dzieci. W pewnym momencie zaobserwowała, że w jej strumieniu informacji na Facebooku dominują reklamy dotyczące zdrowia - czytamy w artykule opublikowanym na stronie Panoptykonu.

- Osoba, która się do nas zgłosiła, nie chciała oglądać niepokojących treści, które podsuwał jej Facebook. Z drugiej jednak strony nie mogła się oprzeć kliknięciu w nie, ponieważ uderzały w jej czułe struny - mówi mi Karolina Iwańska.

Facebook twierdzi, że wśród swoich funkcjonalności posiada również taką, która pozwala na wyłączenie powiadomień związanych z kategoriami, o których nie chcemy być informowani. Panoptykon przeprowadził więc eksperyment opisany przez dziennikarza SpidersWeb Marka Szymaniaka, który miał sprawdzić, czy pozbycie się niechcianych treści naprawdę działa.

Wniosek: ta funkcjonalność nie działa.

Aby to sprawdzić, Panoptykon zlecił Piotrowi Sapierzyńskiemu z Northeastern University przebadanie facebookowego kanału wiadomości kobiety, która zgłosiła się do fundacji.

Sapierzyński przebadał ponad 2000 reklam z dwóch miesięcy. Na początku eksperymentu bohaterka odznaczyła właściwą opcję - czyli wysłała sygnał, że chce oglądać mniej treści o rodzicielstwie i zdrowiu.

I rzeczywiście, przez pewien czas Facebook podsuwał jej mniej tego typu treści. Jednak po pewnym czasie ich ilość wróciła do poziomu sprzed odznaczenia opcji. Dlaczego? Właśnie dlatego, że algorytmy Facebooka wiedzą o nas bardzo dużo nie tylko z naszych polubień, ale również z korelowania tysięcy naszych śladów cyfrowych.

- To nie jest tak, że Facebook celowo podbija nasze niepokoje albo promuje dezinformację. To uboczny, ale w pełni przewidywalny efekt tego, pod jakie cele są optymalizowane algorytmy Facebooka i innych mediów społecznościowych - maksymalizowanie zaangażowania - tłumaczy mi Karolina Iwańska.

- Z wewnętrznych dokumentów Facebooka wynika, że firma doskonale wie, jak jej algorytmy negatywnie wpływają na ludzi. I podejmuje czysto biznesową decyzję, że nic z tym nie zrobi, ponieważ mogłoby to zaszkodzić zyskom - dodaje.

Przełom roku 2010

To zresztą problem znany nie od dziś. Jean Twenge w książce "iGen" stawia tezę, że pogarszający się stan zdrowia psychicznego amerykańskich nastolatków jest związany właśnie z popularnością social mediów.

Twenge przytacza odpowiedzi z danych ankietowych przeprowadzanych cyklicznie od kilkudziesięciu lat w Stanach Zjednoczonych. Wynika z nich, że od mniej więcej 2010 roku drastycznie spada odsetek uczniów czwartych klas liceów, którzy czują się zadowoleni z siebie i z życia ogółem.

Mark Zuckerberg (centrala postać na zdjęciu) przed złożeniem zeznań przed komisją senacką. Został wezwany po doniesieniach, że dane osobowe 87 milionów użytkowników Facebooka zostały zebrane przez Cambridge Analytica, brytyjską firmę konsultingową powiązaną z kampanią Trumpa. Kwiecień 2018 roku
Mark Zuckerberg (centrala postać na zdjęciu) przed złożeniem zeznań przed komisją senacką. Został wezwany po doniesieniach, że dane osobowe 87 milionów użytkowników Facebooka zostały zebrane przez Cambridge Analytica, brytyjską firmę konsultingową powiązaną z kampanią Trumpa. Kwiecień 2018 roku © Getty Images | Chip Somodevilla

Tak samo drastycznie (i właśnie mniej więcej od roku 2010) zaczął rosnąć odsetek młodych osób, które zgadzały się z twierdzeniami: "często czuję się wykluczony" i "często czuję się samotny". Gwałtownie również rósł odsetek młodych zgadzających się z twierdzeniami: "niczego nie mogę zrobić dobrze" czy "moje życie jest bezużyteczne".

Rok 2010 jest nieprzypadkowy. Był początkiem wysycania rynku smartfonami oraz gwałtownego wzrostu popularności Facebooka.

Dlaczego dzieciaki miałyby się czuć gorzej przez te platformy?

Po pierwsze ludzie zazwyczaj kreują się w nich na bardziej szczęśliwych i odnoszących większe sukcesy, niż ma to miejsce w rzeczywistości. Rzadko wrzucamy relacje (chociaż to się ostatnio zmienia) z momentów, kiedy nam w życiu nie wyszło. Social media dysponują również filtrami, które powodują, że nasze ciała wyglądają znacznie atrakcyjniej niż w rzeczywistości.

Jest jeszcze jedna rzecz, o której warto wspomnieć. W media społecznościowe wbudowane są również mechanizmy oceny treści: serduszka, lajki i reposty, czyli możliwość pdawania dalej konkretnej tresci.

Co prawda część social mediów nie oferuje możliwości wydania oceny negatywnej, ale istnieją jej zamienniki: emotikonki "haha", które są stosowane w formie pasywno-agresywnej - lub po prostu brak jakiejkolwiek reakcji.

A brak reakcji dla wielu z nas, zwłaszcza dla osób młodych, bardzo podatnych na społeczną ocenę, jest jasnym komunikatem: nie lubimy cię, nie jesteś z naszej grupy, nie jesteśmy zainteresowani twoim istnieniem.

Nic dziwnego, że w tego typu środowisku część dzieciaków (ale przecież nie tylko) doświadcza stanów lękowych, poczucia odrzucenia i bezsensu.

Badania przeprowadzone pod kierownictwem prof. Amandeepa Dhira z University of Agder w Norwegii potwierdzają, że kompulsywne korzystanie z mediów społecznościowych skutkuje zwiększonym ryzykiem wystąpienia stanów lękowych i depresji.

Z badania przeprowadzonego przez wspomnianą Jean Twenge oraz Keitha Campbella wynika, że młodzież, która spędza więcej czasu w mediach cyfrowych (nie tylko w mediach społecznościowych, również grając w gry), cechuje się niższym wskaźnikiem dobrostanu psychicznego i podwyższonym ryzykiem depresji, myśli i prób samobójczych.

Jest więc niemal pewne, że przynajmniej na część użytkowników social mediów mają one po prostu destruktywny wpływ: pogarszają ich samoocenę, wpędzają w depresje, podbijają stany lękowe, prowadzą do myśli samobójczych i prób samobójczych.

I - przypomnijmy - jak wynika z materiałów dostarczonych przez sygnalistkę Frances Haugen, Facebook o tym wszystkim wie. Czy więc nie czas po prostu rozmontować Facebooka i całą resztę?

Zbyt potężni, żeby ich nie regulować

Niektórzy mogą powiedzieć, że to w zasadzie niemożliwe z powodów, które wymieniłem powyżej: na infrastrukturze mediów społecznościowych trzyma się tak dużo biznesów na całym świecie, że ruszenie tego gracza nie wchodzi w grę. Tak nie jest.

- Historia gospodarcza uczy nas, że monopole można silnie kontrolować, nacjonalizować, rozbijać czy uspołeczniać. Narracja: "nie da się nic zrobić", jest nieprawdziwa. Dodatkowo często jest ona suflowana przez same te firmy - mówi mi Jan Zygmuntowski, wykładowca Akademii Leona Koźmińskiego, współprzewodniczący Polskiej Sieci Ekonomii, specjalizujący się w regulacjach technologii cyfrowych.

- Wszystkie podmioty, które dzisiaj polegają na infrastrukturze Facebooka, tak głęboko się od niego uzależniły, że umknął im fakt, że karty zostały rozdane przeciwko nim. Wydawcy medialni zostali wydrenowani z reklamodawców, którzy poszli bezpośrednio do social mediów. Przecież wielkie fanpejdże i konta na Instagramie, które są tworzone przez firmy, również medialne, nie są ich własnością. Te podmioty istnieją na terenie należącym do poszczególnych właścicieli mediów społecznościowych. Ale przecież ten teren może się zawalić w moment. I tego byliśmy ostatnio świadkami - dodaje.

Ale w jaki sposób zmienić media społecznościowe tak, żeby nie szkodziły użytkownikom i żeby działały bardziej na rzecz dobra publicznego, a nie tylko na rzecz swoich właścicieli?

- Jako Panoptykon uważamy, że w serwisach społecznościowych prawnie zakazane powinno być wykorzystywanie do pokazywania reklam czy rekomendowania treści danych, których użytkownicy sami wprost nie podali o sobie, ale które zostały o nich wywnioskowane na podstawie długotrwałej obserwacji ich zachowania na samej platformie i poza nią - mówi mi Karolina Iwańska.

- Jedną z odpowiedzi na obecne patologie mediów społecznościowych mogłoby być oddanie użytkownikom kontroli nad algorytmami i wyboru tego, na jakich kryteriach mają się opierać. Technicznie mogłoby to wyglądać tak, że pod infrastrukturę Facebooka podpięte byłyby zewnętrzne podmioty, oferujące użytkownikom alternatywne algorytmy. Facebook nadal przechowywałby treści, które wrzucają użytkownicy, ale nie zajmowałby się ich priorytetyzowaniem - to mogłoby być zadanie dla niezależnego systemu rekomendacyjnego, który mógłby np. premiować wiarygodne, lepsze jakościowo treści niż klikalność za wszelką cenę - dodaje ekspertka.

Jeszcze inny pomysł podsuwa Jan Zygmuntowski.

- Możliwe jest również testowanie samych algorytmów pod kątem ich oddziaływania na ludzi. I jeżeli te algorytmy nie spełniałyby pewnych norm, to po prostu nie zostałyby dopuszczone na rynek Unii Europejskiej -- stwierdza ekspert.

Ktoś powie, że giganci social mediów są zbyt potężni, żeby ich regulować. Jest wręcz przeciwnie. Urośli do takich rozmiarów i są tak ważnymi (a czasami również szkodliwymi) graczami, że regulować ich po prostu trzeba.

Jeżeli nie zdecydujemy się na to, żeby coś z nimi zrobić, będą nadal monopolizować rynek reklam, szkodzić nam i naszym dzieciom.

Źródło artykułu:WP magazyn
Komentarze (653)