Serwisy społecznościowe od lat odgrywają kluczową rolę w kształtowaniu opinii publicznej, ale najnowszy raport Amnesty International, na który powołuje się "Gazeta Wyborcza", rzuca nowe światło na mechanizmy działania platformy X (dawniej Twitter). Wyniki badania są niepokojące - algorytm platformy premiuje treści wzbudzające silne emocje, a użytkownicy stają się tym cenniejsi, im bardziej są podatni na prowokacje.
"Dla serwisów społecznościowych jesteśmy tym cenniejsi, im łatwiej puszczają nam nerwy" - podkreśla "Gazeta Wyborcza", komentując opublikowany we wtorek raport Amnesty International. "Nie wytrzymałeś i zostawiłeś komentarz? Doskonale! Wkrótce zobaczysz więcej podobnych wpisów" - dodaje dziennik.
Raport powstał we współpracy z amerykańskim Instytutem Transparentności Algorytmicznej. Przez cały marzec 2025 roku badacze korzystali z 32 specjalnie utworzonych kont, by przeanalizować, jak algorytm X promuje określone treści. W sumie przyjrzano się aż 163 tysiącom wpisów, oceniając je pod kątem ładunku politycznego i emocjonalnego.
Jak zauważa "Gazeta Wyborcza", zmiany na platformie były widoczne już po przejęciu Twittera przez Elona Muska w 2022 roku. "Po 2022 r., kiedy Twitter zmienił się w X, a jego właścicielem został Elon Musk, zmianę w jakości treści można było dostrzec gołym okiem. Amnesty International postanowiło jednak spróbować uchwycić to, co każdego dnia obserwowały miliony użytkowników i 'nową jakość' Twittera przełożyć na liczby. Przy okazji odsłaniając, jak działa algorytm napędzający platformę" - czytamy w raporcie.
Jednym z najbardziej alarmujących wniosków płynących z raportu jest skala redukcji personelu odpowiedzialnego za moderację treści. W Polsce z platformy X korzysta obecnie 5,33 miliona osób, jednak za moderację całego polskojęzycznego segmentu odpowiadają zaledwie dwie osoby. Co więcej, tylko jedna z nich posługuje się językiem polskim jako ojczystym.
"Z czego dla jednej z tych osób język polski jest drugim językiem. Według szacunków pracę w całym X straciło nawet 80 proc. pracowników. Ludzie ci wcześniej dbali m.in. o to, by treści publikowane przez użytkowników Twittera były zgodne z prawem i standardami platformy" - informuje "Gazeta Wyborcza".
Raport Amnesty International, zatytułowany "Śmierć przez tysiąc cięć" wskazuje, że algorytm X szczególnie promuje treści nacechowane emocjonalnie i radykalne. Oznacza to, że użytkownicy, którzy angażują się w dyskusje pod kontrowersyjnymi wpisami, są bombardowani kolejnymi, podobnymi treściami. W efekcie dochodzi do eskalacji napięć i radykalizacji postaw.
Badacze zwracają uwagę, że taka polityka algorytmiczna nie tylko zwiększa zaangażowanie użytkowników, ale również naraża ich na kontakt z przemocą słowną, dezinformacją czy mową nienawiści. Szczególnie dotkliwie odczuwa to polska społeczność LGBTI, która staje się celem zorganizowanych ataków w sieci.
Drastyczne cięcia kadrowe w zespole moderatorów sprawiają, że platforma X praktycznie nie jest w stanie skutecznie reagować na zgłoszenia dotyczące mowy nienawiści czy dezinformacji. Jak podkreśla "Gazeta Wyborcza", obecnie polscy użytkownicy są w dużej mierze pozostawieni sami sobie, a algorytm zamiast chronić, często dodatkowo naraża ich na szkodliwe treści.
Eksperci alarmują, że taka sytuacja może prowadzić do dalszej polaryzacji społeczeństwa oraz wzrostu liczby przypadków przemocy w sieci. Amnesty International apeluje o pilne zmiany w polityce platformy X oraz zwiększenie liczby moderatorów, którzy będą w stanie skutecznie dbać o bezpieczeństwo użytkowników.