Ban dla Donalda Trumpa to nie powód do świętowania. "Jutro Facebook i Twitter mogą wykorzystać swoją władzę inaczej"

Daniel Maikowski
Donald Trump solidnie "zapracował" na blokadę swych kont w serwisach społecznościowych. Jest to jednak kolejny przykład wykorzystywania władzy przez Facebooka i Twittera. "Władzy, którą dziś wykonują one w sposób mocno nieprzejrzysty i arbitralny" - tłumaczy Dorota Głowacka z Fundacji Panoptykon w rozmowie z Gazeta.pl.

20 stycznia br. dojdzie do zaprzysiężenia nowego prezydenta USA, Joe Bidena. Jego poprzednik, Donald Trump, kończy swą naznaczoną kontrowersjami prezydenturę w kiepskim stylu - w cieniu zamieszek na Kapitolu i z zablokowanym w wyniku tych zdarzeń kontami na platformach społecznościowych.

Daniel Maikowski: Facebook i Twitter zablokowały oficjalne konto Donalda Trumpa na tych platformach. Później do tego grona dołączył również YouTube. Już wcześniej duże platformy społecznościowe miały z Trumpem na pieńku, ale teraz przekroczony został Rubikon. Jedni strzelają korkami od szampana, a inni mówią o cenzurze i końcu wolności w Internecie. Czy powinniśmy cieszyć się ze zbanowania Trumpa?

Dorota Głowacka, Fundacja Panoptykon: Odpowiem trochę przewrotnie. Cieszę się, ale nie dlatego, że duże platformy "uciszyły" Donalda Trumpa, a dlatego, że ta sprawa dała szansę na zwrócenie uwagi opinii publicznej na szerszy i dużo poważniejszy problem władzy kilku dużych platform o globalnym zasięgu nad obiegiem informacji w sieci. Władzy, którą dziś wykonują one w sposób mocno nieprzejrzysty i arbitralny. Biorąc pod uwagę ich dominującą na rynku pozycję i aktualną rolę, to jest m.in. to, ile osób traktuje je jako ważne, a czasem jedyne źródło informacji o świecie - jest to bardzo niebezpieczna sytuacja.

Dlatego ci, którzy dziś cieszą się z zablokowania Donalda Trumpa, powinni zdawać sobie sprawę, że jutro Facebook i Twitter mogą wykorzystać swoją władzę inaczej, np. do blokady kogoś, kogo te osoby cenią albo ich samych. A to dlatego, że nie ma w tej chwili skutecznych mechanizmów pozwalających zweryfikować słuszność takich decyzji platform, a tym bardziej je z nich rozliczyć. Pytanie więc, czy faktycznie chcemy żyć w społeczeństwie, w którym w dużej mierze, o tym, co w praktyce będę mogła opublikować albo zobaczę w sieci, będzie decydowała garstka firm technologicznych, która kontroluje główne kanały przepływu informacji.   

Zobacz wideo Nie ufasz Facebookowi? Oto trzy najlepsze alternatywy dla WhatsAppa i Messengera [TOPtech]

Biorąc pod uwagę skalę napięć w Stanach Zjednoczonych wydaje się, że w tej konkretnej sytuacji Facebook i Twitter nie mogły zachować się inaczej.

Jeśli spojrzymy na to, co się stało z perspektywy problemu władzy platform, to każda blokada - nałożona bez zachowania pewnych standardów transparentności i tzw. "sprawiedliwej procedury", których w tej chwili nie ma - budzi wątpliwości. Nawet taka, na którą ktoś sobie faktycznie "zapracował". Ogólnie jasne jest, że platformy powinny reagować na różne niebezpieczne treści, w szczególności nawoływanie do przemocy czy nienawiści.

Chodzi jedynie o to, żeby osoby, które mają poczucie, że zostały niesprawiedliwie zablokowane, miały do dyspozycji mechanizm, który pozwoli im najpierw zrozumieć, a potem ewentualnie kwestionować taką decyzję, jeśli się z nią nie zgadzają, z możliwością poddania jej na końcu zewnętrznej, niezależnej kontroli. Tym bardziej, że jest całe mnóstwo przykładów, kiedy z platform znikały różne wartościowe treści, takie jak dzieła sztuki, fotografie historyczne czy zdjęcia reporterskie. A najbardziej drastyczne przypadki, na które zwracają uwagę różne organizacje chroniące prawa człowieka, to np. blokada nagrań dokumentujących brutalność policji albo zbrodnie wojenne.      

Pojawiają się opinie, że Mark Zuckerberg i Jack Dorsey zbanowali Trumpa na swoich platformach po to, aby przypodobać się Joe Bidenowi.

Tu docieramy do sedna problemu, to znaczy tego, jakie ryzyka generuje brak przejrzystości i rozliczalności procesu moderacji. Jednym z nich jest to, że platformy, podejmując decyzje o usunięciu danych materiałów, mogą kierować się się określonymi sympatiami politycznymi czy światopoglądowymi i mogą np. faworyzować treści prawicowe albo lewicowe. Czy tak faktycznie robią - nie wiemy, ale właśnie dlatego, nie można wykluczyć, że na blokadę Donalda Trumpa miała wpływ koniunktura polityczna.

Potrafię sobie też wyobrazić  inne scenariusze. Na przykład, że ktoś wywierał na te firmy presję, ale także taki, że działały po prostu w "dobrej wierze". To, że nie wiemy, jakie dokładnie kryteria są brane uwagę, tworzy pole do rozważania różnych teorii. Niezależnie od tego, która jest prawdziwa w tym przypadku, myślę, że w miarę  bezpiecznie możemy założyć, że co do zasady firmy internetowe kierują się w takich sytuacjach jakimś swoim interesem, a niekoniecznie dobrem publicznym. Z tych samych względów są skłonne co do zasady premiować treści, które np. budzą emocje, dzięki czemu lepiej nakarmią ich system reklamowy i ostatecznie przyniosą zysk, a nie zawsze takie, które zawierają wartościowe informacje. Niestety coraz bardziej widać, że taki mechanizm przynosi istotne szkody społeczne.

Ten zwrot ze strony Marka Zuckerberga jest o tyle zaskakujący, że przez kilka lat Facebook żył w dobrej komitywie z administracją Donalda Trumpa, a prawicowy ekstremizm na platformie miał się dobrze.

Jednocześnie już od kilku miesięcy Donald Trump zapowiadał, że rozprawi się z "cenzurą" platform i odbierze im ochronę prawną. To była reakcja na różne problemy, które pojawiły się w przeszłości w odpowiedzi na rozmaite kontrowersyjne wpisy prezydenta. Problem w tym, że Donald Trump prowadził tę politykę ze sztandarami wolności słowa, podczas gdy sam wielokrotnie dowiódł, że tej wolności nie szanuje, m.in. zachowaniem wobec dziennikarzy, ale także samemu blokując krytycznych komentatorów na swoich kanałach społecznościowych. W związku z tą ostatnią kwestią przegrał zresztą proces sądowy, w którym stwierdzono, że jego działanie godziło w swobodę wypowiedzi.

Jeszcze przed słynnym atakiem na Kapitol Facebook nie miał problemu z przepuszczaniem treści zachęcających zwolenników Donald Trumpa do kwestionowania wyników wyborów, a Twitter ograniczał się do oznaczania wpisów Trumpa stosownym podpisem.

Dowolnie przyjmowane i stosowane przez platformy kryteria oceny treści mogą właśnie powodować takie "nierówne traktowanie", w zależności od sytuacji czy pozycji osoby, z którą mamy do czynienia. Wystarczy przypomnieć, że w innych kontekstach Facebook nie był skłonny, aby tak szybko i zdecydowanie reagować na drastyczne treści, np. w przypadku nawoływania do przemocy wobec Rohingjów w Mjanmie.

Ostatnie wydarzenia sprawiły, że zarówno w USA, Europie, jak i samej Polsce powróciła dyskusja dotycząca uregulowania działalności internetowych gigantów. Takie platformy jak Facebook i Twitter podejmują wiele arbitralnych decyzji, powołując się na wewnętrzne regulaminy. Niektórzy powiedzą: ich biznes, ich sprawa. To w końcu prywatne firmy.

Tak, to prywatne firmy, ale jednak o szczególnym statusie. Weźmy przykład Facebooka.  Korzysta z niego ponad dwa miliardy użytkowników w ponad stu krajach świata, w Polsce - około 20 milionów. Jeśli dodamy inne usługi należące do tej firmy, takie jak np. Instagram, to te liczby dodatkowo rosną. Facebook znajduje się w czołówce najpotężniejszych firm świata i nie ma realnej konkurencji w swoim obszarze działania. W Polsce jest najpopularniejszym medium społecznościowym, dociera do ok. 80 proc. internautów, a liczba jego realnych użytkowników przewyższa zasięg dwóch największych internetowych serwisów informacyjnych.

Władza Facebooka nie bierze się tylko z potęgi finansowej i dominującej pozycji na rynku, ale ściśle wiąże się ze specyfiką jego działalności. Facebook to dziś ważny kanał komunikacji międzyludzkiej,  forum, na którym wyrażamy opinie i poglądy, oraz źródło, z którego pozyskujemy informacje. Jego polityka moderacyjna stanowi potężne narzędzie sterowania naszym światopoglądem, wyborami konsumpcyjnymi, a nawet politycznymi.

Zresztą blokada Trumpa – i burza wokół niej – to tylko kolejny dowód na to, że platformy internetowe już od dawna należą do sfery publicznej. Wychodzę więc z założenia, że taka "władza" powinna iść w parze z adekwatną odpowiedzialnością. Jeśli jakaś firma ma tak istotny wpływ na to, jak współcześnie korzystamy z wolności słowa, powinniśmy wymagać, aby ją respektowała, i mieć możliwość ją z tego rozliczyć.

Te same osoby, które sięgają po argument "prywatnych firm" często atakują również  z innej strony: "Nie podoba ci się na Facebooku czy Twitterze? Usuń konto. Nikt nie trzyma cię tu na siłę". Problem w tym, że na przestrzeni ostatniej dekady platformy te skutecznie nas od siebie uzależniły.

To prawda, mechanizm psychicznego "uzależnienia" od Facebooka dobrze pokazuje dokument "Dylemat społeczny". Platforma jest tak skonstruowana, że jej przeglądanie, ciągłe sprawdzanie nowości czy reakcji innych na nasze zaangażowanie, dostarcza naszemu mózgowi przyjemności i często wciąga nas w niekontrolowany sposób. Ale to także uzależnienie w innym sensie, związane z tzw. "efektem sieci". Wartość danej usługi dla użytkownika rośnie wraz z liczbą nowych użytkowników tej usługi. W konsekwencji np. Facebook stał się ważnym instrumentem działalności społecznej, zawodowej czy towarzyskiej, z którego trudno jest dziś zrezygnować, "wyłamać się" z niego, ze względu na jego dominującą pozycję, brak równorzędnej alternatywy oraz ponieważ są tam wszyscy "inni".  Dlatego "wypisanie się" z danej platformy może być dobra strategią, która sprawdzi się w indywidualnych przypadkach, ale na poziomie systemowym potrzebujemy innych rozwiązań.  

Przykłady osób, które zderzyły się z "facebookową biurokracją" można mnożyć. Przypominam sobie np. historię wybitnego fotografa Chrisa Niedenthala, który kilka lat temu został zbanowany na Facebooku za opublikowanie galerii zdjęć z Marszu Niepodległości, którą – rzekomo – propagował faszyzm.

Od kilku lat monitorujemy przypadki tzw. banów na dużych platformach. Wniosek jest taki, że niestety sytuacje, w których blokowane są wartościowe treści, mające istotne publiczne znaczenie, nie należą do rzadkości. Drugi wniosek jest taki, że znikają bardzo różne treści. W Polsce większa dyskusja na ten temat rozpoczęła się kilka lat temu, kiedy zablokowano strony związane z Marszem Niepodległości i narrację na temat prywatnej cenzury platform zdominowała prawa strona. Tymczasem mogę przywołać nie tylko przykłady, ale i badania, z których wynika, że jedną z grup szczególnie narażonych na blokady jest środowisko LGBT+.

Czy istnieje sposób na to, aby okiełznać cyfrowych gigantów? Zwykły użytkownik Facebooka wydaje się bez szans w starciu z wielką platformą.

Dziś pozycja użytkowników wielkich platform jest rzeczywiście niezbyt silna. Przepisy dotyczące moderacji treści w serwisach internetowych powstały jeszcze zanim Ci giganci wyrośli. Dlatego potrzebujemy nowej regulacji prawnej, która odpowiednio do obecnej sytuacji wzmocni ich prawa i to najlepiej nie na poziomie jednego państwa, ale ponadnarodowym z uwagi na globalny charakter dużych platform. Czyli z naszej pespektywy - na poziomie prawa UE.

Fundacja Panoptykon jest zaangażowana w bezprecedensowy pozew przeciwko Facebookowi. Chodzi o usunięcie konta Społecznej Inicjatywy Narkopolityki, organizacji, która wspiera osoby uzależnione od narkotyków i zajmuje się tzw. redukcją szkód.

Tak, z naszą pomocą SIN - organizacja pozarządowa, która od lat zajmuje się promowaniem wiedzy o szkodliwym działaniu środków psychoaktywnych i która nagle po kilku latach straciła stronę i grupy na Facebooku, a potem jeszcze jedno z kont na Instagramie, bez żadnych wyjaśnień i możliwości skutecznego odwołania się - pozwała Facebooka przed polskim sądem. Wskazujemy, że arbitralne i nieprzejrzyste działanie portalu naruszyło dobra osobiste SIN i żądamy przeprosin oraz przywrócenia usuniętych treści. Sprawa ma dla nas jednocześnie znaczenie strategiczne. Liczymy, że na dłuższą metę przyczyni się do wprowadzenia "sprawiedliwych procedur" w moderacji, obejmujących m.in. obowiązek uzasadnienia decyzji o usunięciu treści, możliwość złożenia odwołania z opcją przedstawienia własnej argumentacji, ograniczeń w wykorzystaniu automatyzacji w ocenie treści czy wreszcie wprowadzenia niezależnego, zewnętrznego nadzoru nad decyzjami platform.

Proces jest w toku, ale póki co mamy pierwszą pozytywną, choć jeszcze nieprawomocną decyzję sądu o tymczasowym zabezpieczeniu usuniętych przez Facebooka materiałów i zakazie blokowania treści na nowych kontach, które obecnie prowadzi SIN. Sprawę można śledzić na stronie panoptykon.org/sinvsfacebook.

Twórcy platform tłumaczą, że incydenty z usuwaniem kont i publikowanych wpisów są po prostu efektem ubocznym walki z nielegalnymi treściami i fake newsami. Innym tłumaczeniem są słynne "algorytmy".

Uważam, że działania zmierzające do ograniczenia arbitralności platform w usuwaniu treści nie osłabią walki z nielegalnymi treściami. Oba cele absolutnie się nie wykluczają, co więcej wprowadzenie gwarancji, o których mówiłam wcześniej, przybliży nas to do tego, żeby z platform znikały faktycznie niebezpieczne materiały, a jednocześnie by firmy nie blokowały legalnych treści według własnego "widzimisię". Co do korzystania z algorytmów, to faktycznie są badania wskazujące, że ich używanie w moderacji, co jest dziś powszechne, może sprzyjać nadmiarowemu usuwaniu treści. Wiadomo, że mechanizmy te nie tylko się "mylą", ale dodatkowo czasem są tak zbudowane, że mogą dyskryminować określone treści. Dlatego gwarancje, które powinny wprowadzić platformy w procesie moderacji, muszą koniecznie objąć także kwestię przejrzystości stosowanych algorytmów, a nawet ograniczenie czy wykluczenie ich używania w niektórych sytuacjach.     

Rząd zapowiedział opracowanie przepisów dotyczących mediów społecznościowych. Wymienił m.in. Facebooka i Twittera. Jest szansa, że coś ruszy się w tej sprawie?

Założenia ustawy o ochronie wolności słowa w Internecie, które zostały przedstawione odpowiadają na realny problem arbitralnego "cenzurowania" treści przez duże firmy internetowe, którym w Panoptykonie zajmujemy od jakiegoś czasu i o którym od lat mówi się w środowisku obrońców tzw. praw cyfrowych. W tym sensie cieszy, że to zagadnienie zostało dostrzeżone.

Czy jednak ta ustawa rozwiąże ten problem? Po pierwsze nadal nie widzieliśmy samego projektu, wiec trudno go ocenić, a przy regulacji internetu diabeł zawsze tkwi w szczegółach.

Po drugie, przyznaję, że podchodzę do niego z ostrożnością z uwagi na moją negatywną ocenę różnych dotychczasowych działań obecnie rządzącej większości, w tym zmian prawnych (np. nowela ustawy o IPN), które zdecydowanie nie przyczyniły się do podniesienia  standardów swobody wypowiedzi i stawiają pod pewnym znakiem zapytania rzeczywiste motywacje projektodawców.   

Być może pomoże nam Unia Europejska, która pracuje obecnie nad dwoma dużymi aktami prawnymi – Digital Services Act oraz Digital Market Act?

Faktycznie UE także pracuje nad przepisami, które mają odpowiedzieć na problem "prywatnej cenzury". Projekt Digital Service Act zawiera regulację moderacji treści, która zwiększa przejrzystość i zmniejsza arbitralność blokad, dając m.in. możliwość skutecznego odwołania się od nich. Jednak co bardzo ważne, to tylko jeden z elementów tego projektu, który reguluje także wiele innych problematycznych obszarów funkcjonowania platform.

Dlatego też, jak już wspomniałam, z uwagi na wątpliwości, o których mówiłam wyżej odnośnie do polskiego projektu ustawy, ale także dużo większą kompleksowość propozycji UE oraz globalny charakter największych platform internetowych, większy sens może mieć rzeczywiście regulacja tych zagadnień na poziomie UE.

***

Dorota Głowacka - Prawniczka, specjalizuje się w prawach człowieka w kontekście mediów i nowych technologii. Współpracuje z Fundacją Panoptykon, gdzie  odpowiada za strategiczne postępowania sądowe i działania edukacyjne. W przeszłości pracowała w w Helsińskiej Fundacji Praw Człowieka w programie Obserwatorium Wolności Mediów w Polsce.