Wewnętrzny raport przeprowadzony przez Facebooka sugerował, że portal miał negatywny wpływ na polityczną polaryzację w Polsce, przyczyniając się do "społecznej wojny domowej" toczonej w sieci i dając zachętę do wzmacniania podziałów - pisze w środę dziennik "Washington Post".

Gazeta opisuje w ten sposób raport opracowany przez zespół Facebooka podczas wizyty w Europie w 2019 r. przed wyborami do Parlamentu Europejskiego. Autorzy dokumentu mieli szczególną uwagę zwrócić na to, co usłyszeli od rozmówców w Polsce, w tym od polityków największych partii.

Zespół Facebooka poinformował o konkretnych obawach z Polski, gdzie partie polityczne opisywały "społeczną wojnę domową" online - pisze gazeta. Dwie główne partie - Prawo i Sprawiedliwość oraz opozycyjna Platforma Obywatelska - oskarżyły media społecznościowe o pogłębianie politycznej polaryzacji kraju, opisując sytuację jako "nie do utrzymania".

Według dziennika był to wynik zmian w wewnętrznych mechanizmach Facebooka, które według deklaracji szefa firmy Marka Zuckerberga miały czynić dyskusje na portalu "bardziej znaczącymi", lecz w rezultacie "uczyniły politykę gorszą". Przeprowadzona na zlecenie "WP" niezależna analiza wykazała, że po 2018 r. negatywne treści były znacznie szerzej rozpowszechniane niż wcześniej. Według raportu Facebooka jedna z partii w reakcji na te zmiany znacznie bardziej skupiła się na negatywnym przekazie w sieci.

Jedna partia nie ma na co narzekać

Gazeta notuje jednocześnie, że na działanie Facebooka nie może narzekać przynajmniej jedna z polskich partii: Konfederacja, nawet jeśli jej lider Janusz Korwin-Mikke został zablokowany przez władze portalu za łamanie jego zasad. "WP" cytuje przy tym raport, z którego wynika, że 14 najpopularniejszych postów kont partii na Facebooku należało właśnie do tego ugrupowania.

Myślę, że jesteśmy dobrzy w emocjonalnym przekazie - powiedział dziennikowi szef biura prasowego Konfederacji Tomasz Grabarczyk, choć określił mechanizmy rządzące portalem jako "algorytm nienawiści". Działacz przyznał, że ugrupowanie balansuje na granicy tego, co jest dozwolone przez sieć.

Facebook wiedział, jaki ma wpływ na dyskurs polityczny

Rzeczniczka Facebooka Dani Lever powiedziała "WP", że firma jest świadoma prób wykorzystania mechanizmów portalu, by uniknąć kar, jednak zapewniła, że Facebook cały czas pracuje nad identyfikacją treści łamiących reguły i blokowania kont, w tym tych związanych z Konfederacją. Odrzuciła też sugestie, że to Facebook odpowiada za rosnącą polaryzację.

Jeśli prawdą byłoby, że Facebook jest główną przyczyną polaryzacji, spodziewalibyśmy się, że rosłaby ona wszędzie tam, gdzie Facebook jest popularny. Tak nie jest - stwierdziła Lever.

Z wewnętrznych dokumentów Facebooka, przekazanym mediom przez byłą pracownicę firmy Frances Haugen, wynika, że kalifornijski gigant był świadomy efektów, jakie ma na dyskurs polityczny zarówno w Polsce, jak i wielu innych krajach.

Jak pisze "WP", część pracowników Facebooka uważała, że zmiany w algorytmach serwisu są konieczne z punktu widzenia długoterminowego rozwoju, i porównywała polaryzujące treści do "fast foodu".

Możemy wybrać bycie biernymi i nadal karmić użytkowników "fast foodem", ale to działa tylko przez pewien czas. Wielu już zdało sobie sprawę, że fast food wiąże się z otyłością i wobec tego jego krótkoterminowa wartość nie jest warta długoterminowego kosztu - napisał w dyskusji jeden z pracowników Facebooka.

Artykuł "WP" to kolejna z publikacji opartych na dokumentach firmy, znanych jako "Facebook Papers", i poświęconych skutkom działalności serwisu. Wcześniejsze materiały sugerowały m.in., że portal i jego mechanizmy były szeroko wykorzystywane przez grupy podżegające do zbrodni na tle etnicznym w Etiopii i Birmie, a także przez grupy antyszczepionkowe i promujące teorie spiskowe.