Czy na Facebooku obowiązuje cenzura i podwójne standardy? Zapytaliśmy u samego źródła

Daniel Maikowski
Dwa profile na Facebooku: jeden atakuje islam, a drugi - chrześcijaństwo. Pierwszy zostaje z serwisu usunięty. Drugi - wciąż istnieje. Dlaczego?

Zamieszczony poniżej zrzut ekranu jakiś czas temu temu wywołał burzę w polskiej sieci. Zdaniem wielu internautów jest dowodem na to, że moderatorzy Facebooka w swobodny sposób decydują o tym, jakie treści powinny być z serwisu usuwane.

FacebookFacebook fot. Zrzut ekranu/Facebook.com

Czy rzeczywiście tak jest? Postanowiliśmy wyjaśnić te wątpliwości u źródła. Informacji na temat polityki Facebooka w kwestii reagowania na zgłoszenia użytkowników serwisu udzieliła nam Julie de Baillencourt, EMEA Safety Policy Manager.

Czy rozpatrywaniem zgłoszeń użytkowników zajmują się boty?

Nie. Na zgłoszenie zawsze reaguje żywy człowiek. Każde sygnał trafia do zespołu moderatorów i jest indywidualnie rozpatrywany. Facebook zapewnia, że w kwestii zgłoszeń wysyłanych przez użytkowników nie może być mowy o automatyzacji.

Nie jest również prawdą, że jeśli duża grupa użytkowników zgłosi do moderacji dany wpis, zdjęcie czy też profil, to zostanie on automatycznie usunięty. Gdyby tak było, to profile takich osób jak Justin Bieber czy Lady Gaga byłyby usuwane z Facebooka codziennie. Moderatorzy serwisu każdego dnia otrzymują setki jeśli nie tysiące zgłoszeń, których autorzy żądają usunięcia podobnych profili  z Facebooka.

Nie jest ważne, ile osób zgłosiło dany wpis, zdjęcie czy też profili. Liczy się tylko to czy te treści naruszają standardy społeczności Facebooka.

Dlaczego niektóre zgłoszenia rozpatrywane są natychmiast, a inne bardzo długo?

Poszczególne zgłoszenia są rozpatrywane przez różne zespoły moderatorów. Dla przykładu, jeśli użytkownik z Polski zgłosi wpis z treściami pornograficznymi, to może on trafić praktycznie do każdego moderatora. Jednak jeśli ten sam użytkownik zgłosi polskojęzyczny wpis, który – jego zdaniem – zawiera groźby karalne, to takie zgłoszenie może trafić jedynie do moderatora znającego język polski.

Facebook priorytetyzuje poszczególne zgłoszenia. Informacja o tym, że inny użytkownik serwisu może popełnić samobójstwo ma zdecydowanie większą wagę od zgłoszenia dotyczącego spamu czy drobnego błędu.

Czy przy rozpatrywaniu zgłoszeń Facebook stosuje podwójne standardy?

Wróćmy do przykładu z początku. Mamy tu dwie strony o podobnym – na pierwszy rzut oka - charakterze. Nazwa jednej z nich atakuje chrześcijaństwo. Nazwa drugiej – islam. Dlaczego jedna ze stron została usunięta z Facebooka, a druga nie?

Zacznijmy od tego, że w swoich standardach społeczności Facebook nie zabrania użytkownikom publikowania treści krytycznych wobec poszczególnych poglądów politycznych, prądów filozoficznych czy religii. Zasadniczo więc zarówno strona „F*** Christianity”, jak również strona „F*** Islam” nie narusza regulaminu Facebooka.

To, co stoi w sprzeczności z regulaminem Facebooka, to treści atakujące wyznawców tych religii. Atakowanie poszczególnych osób lub grup osób ze względu na ich rasę, wiarę, poglądy polityczne, płeć czy też orientację, stoi w sprzeczności ze standardami społecznościowymi. Jak również - w większości demokratycznych państw - z prawem.

Po drugie, warto pamiętać, że reagując na zgłoszenie, moderatorzy Facebooka nie patrzą jedynie na jej nazwę czy zdjęcie profilowe. Ważne są również treści, które się na niej pojawiają. Może się okazać, że strona „F*** Islam” sama w sobie nie narusza regulaminu Facebooka, ale pojawiają się na niej wpisy obrażające wyznawców tej religii. Analogicznie, na stronie "F*** Christianity" mogą pojawiać się jedynie treści, które atakują chrześcijaństwo jako religię. Oczywiście może być również odwrotnie.

Na tym polega problem związany z grafiką zamieszczoną na początku tekstu. Na jej podstawie nie jesteśmy w stanie stwierdzić, jakie treści były publikowane na obydwu stronach. Wyciąganie wniosków o "podwójnych standardach Facebooka" na podstawie jednego zrzutu ekranu, wydaje się co najmniej  dość pochopne.

Facebook podkreśla również, że stara się darzyć administratorów stron kredytem zaufania. To, że na danym profilu pojawiają się obraźliwe treści nie oznacza, że zostanie on usunięty w ciągu kilku godzin. Pierwszymi osobami, które powinny reagować na takie treści powinni być bowiem administratorzy fanpage’ów.

Moderatorzy Facebooka podejmą odpowiednie działania dopiero wtedy, gdy upewnią się, że dana osoba straciła kontrolę nad prowadzonym przez siebie profilem/grupą/stroną lub nie jest zainteresowana reagowaniem na treści, które się tam pojawiają.

Nie podoba mi się ten wpis. Dlaczego nie został usunięty?

Sam fakt, że jakiś wpis nam się nie podoba lub czujemy się nim urażeni nie oznacza automatycznie, że zostanie on usunięty z Facebooka. Istnieje bowiem zasadnicza różnica pomiędzy treściami niewłaściwymi i obraźliwymi.

Gdyby na Facebooku pojawiały się tylko te treści, który podobają się wszystkim użytkownikom lub tylko te pozbawione jakichkolwiek kontrowersji, to takie podejście blokowałoby automatycznie możliwość jakiejkolwiek dyskusji i wymiany poglądów.

Jeśli jednak mamy pewność, że wpis zawiera treści obraźliwe, naruszające standardy Społeczności lub polskie prawo, to nie powinniśmy się wahać przed jego zgłoszeniem.

Więcej o: