20 stycznia br. dojdzie do zaprzysiężenia nowego prezydenta USA, Joe Bidena. Jego poprzednik, Donald Trump, kończy swą naznaczoną kontrowersjami prezydenturę w kiepskim stylu - w cieniu zamieszek na Kapitolu i z zablokowanym w wyniku tych zdarzeń kontami na platformach społecznościowych.
Dorota Głowacka, Fundacja Panoptykon: Odpowiem trochę przewrotnie. Cieszę się, ale nie dlatego, że duże platformy "uciszyły" Donalda Trumpa, a dlatego, że ta sprawa dała szansę na zwrócenie uwagi opinii publicznej na szerszy i dużo poważniejszy problem władzy kilku dużych platform o globalnym zasięgu nad obiegiem informacji w sieci. Władzy, którą dziś wykonują one w sposób mocno nieprzejrzysty i arbitralny. Biorąc pod uwagę ich dominującą na rynku pozycję i aktualną rolę, to jest m.in. to, ile osób traktuje je jako ważne, a czasem jedyne źródło informacji o świecie - jest to bardzo niebezpieczna sytuacja.
Dlatego ci, którzy dziś cieszą się z zablokowania Donalda Trumpa, powinni zdawać sobie sprawę, że jutro Facebook i Twitter mogą wykorzystać swoją władzę inaczej, np. do blokady kogoś, kogo te osoby cenią albo ich samych. A to dlatego, że nie ma w tej chwili skutecznych mechanizmów pozwalających zweryfikować słuszność takich decyzji platform, a tym bardziej je z nich rozliczyć. Pytanie więc, czy faktycznie chcemy żyć w społeczeństwie, w którym w dużej mierze, o tym, co w praktyce będę mogła opublikować albo zobaczę w sieci, będzie decydowała garstka firm technologicznych, która kontroluje główne kanały przepływu informacji.
Jeśli spojrzymy na to, co się stało z perspektywy problemu władzy platform, to każda blokada - nałożona bez zachowania pewnych standardów transparentności i tzw. "sprawiedliwej procedury", których w tej chwili nie ma - budzi wątpliwości. Nawet taka, na którą ktoś sobie faktycznie "zapracował". Ogólnie jasne jest, że platformy powinny reagować na różne niebezpieczne treści, w szczególności nawoływanie do przemocy czy nienawiści.
Chodzi jedynie o to, żeby osoby, które mają poczucie, że zostały niesprawiedliwie zablokowane, miały do dyspozycji mechanizm, który pozwoli im najpierw zrozumieć, a potem ewentualnie kwestionować taką decyzję, jeśli się z nią nie zgadzają, z możliwością poddania jej na końcu zewnętrznej, niezależnej kontroli. Tym bardziej, że jest całe mnóstwo przykładów, kiedy z platform znikały różne wartościowe treści, takie jak dzieła sztuki, fotografie historyczne czy zdjęcia reporterskie. A najbardziej drastyczne przypadki, na które zwracają uwagę różne organizacje chroniące prawa człowieka, to np. blokada nagrań dokumentujących brutalność policji albo zbrodnie wojenne.
Tu docieramy do sedna problemu, to znaczy tego, jakie ryzyka generuje brak przejrzystości i rozliczalności procesu moderacji. Jednym z nich jest to, że platformy, podejmując decyzje o usunięciu danych materiałów, mogą kierować się się określonymi sympatiami politycznymi czy światopoglądowymi i mogą np. faworyzować treści prawicowe albo lewicowe. Czy tak faktycznie robią - nie wiemy, ale właśnie dlatego, nie można wykluczyć, że na blokadę Donalda Trumpa miała wpływ koniunktura polityczna.
Potrafię sobie też wyobrazić inne scenariusze. Na przykład, że ktoś wywierał na te firmy presję, ale także taki, że działały po prostu w "dobrej wierze". To, że nie wiemy, jakie dokładnie kryteria są brane uwagę, tworzy pole do rozważania różnych teorii. Niezależnie od tego, która jest prawdziwa w tym przypadku, myślę, że w miarę bezpiecznie możemy założyć, że co do zasady firmy internetowe kierują się w takich sytuacjach jakimś swoim interesem, a niekoniecznie dobrem publicznym. Z tych samych względów są skłonne co do zasady premiować treści, które np. budzą emocje, dzięki czemu lepiej nakarmią ich system reklamowy i ostatecznie przyniosą zysk, a nie zawsze takie, które zawierają wartościowe informacje. Niestety coraz bardziej widać, że taki mechanizm przynosi istotne szkody społeczne.
Jednocześnie już od kilku miesięcy Donald Trump zapowiadał, że rozprawi się z "cenzurą" platform i odbierze im ochronę prawną. To była reakcja na różne problemy, które pojawiły się w przeszłości w odpowiedzi na rozmaite kontrowersyjne wpisy prezydenta. Problem w tym, że Donald Trump prowadził tę politykę ze sztandarami wolności słowa, podczas gdy sam wielokrotnie dowiódł, że tej wolności nie szanuje, m.in. zachowaniem wobec dziennikarzy, ale także samemu blokując krytycznych komentatorów na swoich kanałach społecznościowych. W związku z tą ostatnią kwestią przegrał zresztą proces sądowy, w którym stwierdzono, że jego działanie godziło w swobodę wypowiedzi.
Dowolnie przyjmowane i stosowane przez platformy kryteria oceny treści mogą właśnie powodować takie "nierówne traktowanie", w zależności od sytuacji czy pozycji osoby, z którą mamy do czynienia. Wystarczy przypomnieć, że w innych kontekstach Facebook nie był skłonny, aby tak szybko i zdecydowanie reagować na drastyczne treści, np. w przypadku nawoływania do przemocy wobec Rohingjów w Mjanmie.
Tak, to prywatne firmy, ale jednak o szczególnym statusie. Weźmy przykład Facebooka. Korzysta z niego ponad dwa miliardy użytkowników w ponad stu krajach świata, w Polsce - około 20 milionów. Jeśli dodamy inne usługi należące do tej firmy, takie jak np. Instagram, to te liczby dodatkowo rosną. Facebook znajduje się w czołówce najpotężniejszych firm świata i nie ma realnej konkurencji w swoim obszarze działania. W Polsce jest najpopularniejszym medium społecznościowym, dociera do ok. 80 proc. internautów, a liczba jego realnych użytkowników przewyższa zasięg dwóch największych internetowych serwisów informacyjnych.
Władza Facebooka nie bierze się tylko z potęgi finansowej i dominującej pozycji na rynku, ale ściśle wiąże się ze specyfiką jego działalności. Facebook to dziś ważny kanał komunikacji międzyludzkiej, forum, na którym wyrażamy opinie i poglądy, oraz źródło, z którego pozyskujemy informacje. Jego polityka moderacyjna stanowi potężne narzędzie sterowania naszym światopoglądem, wyborami konsumpcyjnymi, a nawet politycznymi.
Zresztą blokada Trumpa – i burza wokół niej – to tylko kolejny dowód na to, że platformy internetowe już od dawna należą do sfery publicznej. Wychodzę więc z założenia, że taka "władza" powinna iść w parze z adekwatną odpowiedzialnością. Jeśli jakaś firma ma tak istotny wpływ na to, jak współcześnie korzystamy z wolności słowa, powinniśmy wymagać, aby ją respektowała, i mieć możliwość ją z tego rozliczyć.
To prawda, mechanizm psychicznego "uzależnienia" od Facebooka dobrze pokazuje dokument "Dylemat społeczny". Platforma jest tak skonstruowana, że jej przeglądanie, ciągłe sprawdzanie nowości czy reakcji innych na nasze zaangażowanie, dostarcza naszemu mózgowi przyjemności i często wciąga nas w niekontrolowany sposób. Ale to także uzależnienie w innym sensie, związane z tzw. "efektem sieci". Wartość danej usługi dla użytkownika rośnie wraz z liczbą nowych użytkowników tej usługi. W konsekwencji np. Facebook stał się ważnym instrumentem działalności społecznej, zawodowej czy towarzyskiej, z którego trudno jest dziś zrezygnować, "wyłamać się" z niego, ze względu na jego dominującą pozycję, brak równorzędnej alternatywy oraz ponieważ są tam wszyscy "inni". Dlatego "wypisanie się" z danej platformy może być dobra strategią, która sprawdzi się w indywidualnych przypadkach, ale na poziomie systemowym potrzebujemy innych rozwiązań.
Od kilku lat monitorujemy przypadki tzw. banów na dużych platformach. Wniosek jest taki, że niestety sytuacje, w których blokowane są wartościowe treści, mające istotne publiczne znaczenie, nie należą do rzadkości. Drugi wniosek jest taki, że znikają bardzo różne treści. W Polsce większa dyskusja na ten temat rozpoczęła się kilka lat temu, kiedy zablokowano strony związane z Marszem Niepodległości i narrację na temat prywatnej cenzury platform zdominowała prawa strona. Tymczasem mogę przywołać nie tylko przykłady, ale i badania, z których wynika, że jedną z grup szczególnie narażonych na blokady jest środowisko LGBT+.
Dziś pozycja użytkowników wielkich platform jest rzeczywiście niezbyt silna. Przepisy dotyczące moderacji treści w serwisach internetowych powstały jeszcze zanim Ci giganci wyrośli. Dlatego potrzebujemy nowej regulacji prawnej, która odpowiednio do obecnej sytuacji wzmocni ich prawa i to najlepiej nie na poziomie jednego państwa, ale ponadnarodowym z uwagi na globalny charakter dużych platform. Czyli z naszej pespektywy - na poziomie prawa UE.
Tak, z naszą pomocą SIN - organizacja pozarządowa, która od lat zajmuje się promowaniem wiedzy o szkodliwym działaniu środków psychoaktywnych i która nagle po kilku latach straciła stronę i grupy na Facebooku, a potem jeszcze jedno z kont na Instagramie, bez żadnych wyjaśnień i możliwości skutecznego odwołania się - pozwała Facebooka przed polskim sądem. Wskazujemy, że arbitralne i nieprzejrzyste działanie portalu naruszyło dobra osobiste SIN i żądamy przeprosin oraz przywrócenia usuniętych treści. Sprawa ma dla nas jednocześnie znaczenie strategiczne. Liczymy, że na dłuższą metę przyczyni się do wprowadzenia "sprawiedliwych procedur" w moderacji, obejmujących m.in. obowiązek uzasadnienia decyzji o usunięciu treści, możliwość złożenia odwołania z opcją przedstawienia własnej argumentacji, ograniczeń w wykorzystaniu automatyzacji w ocenie treści czy wreszcie wprowadzenia niezależnego, zewnętrznego nadzoru nad decyzjami platform.
Proces jest w toku, ale póki co mamy pierwszą pozytywną, choć jeszcze nieprawomocną decyzję sądu o tymczasowym zabezpieczeniu usuniętych przez Facebooka materiałów i zakazie blokowania treści na nowych kontach, które obecnie prowadzi SIN. Sprawę można śledzić na stronie panoptykon.org/sinvsfacebook.
Uważam, że działania zmierzające do ograniczenia arbitralności platform w usuwaniu treści nie osłabią walki z nielegalnymi treściami. Oba cele absolutnie się nie wykluczają, co więcej wprowadzenie gwarancji, o których mówiłam wcześniej, przybliży nas to do tego, żeby z platform znikały faktycznie niebezpieczne materiały, a jednocześnie by firmy nie blokowały legalnych treści według własnego "widzimisię". Co do korzystania z algorytmów, to faktycznie są badania wskazujące, że ich używanie w moderacji, co jest dziś powszechne, może sprzyjać nadmiarowemu usuwaniu treści. Wiadomo, że mechanizmy te nie tylko się "mylą", ale dodatkowo czasem są tak zbudowane, że mogą dyskryminować określone treści. Dlatego gwarancje, które powinny wprowadzić platformy w procesie moderacji, muszą koniecznie objąć także kwestię przejrzystości stosowanych algorytmów, a nawet ograniczenie czy wykluczenie ich używania w niektórych sytuacjach.
Założenia ustawy o ochronie wolności słowa w Internecie, które zostały przedstawione odpowiadają na realny problem arbitralnego "cenzurowania" treści przez duże firmy internetowe, którym w Panoptykonie zajmujemy od jakiegoś czasu i o którym od lat mówi się w środowisku obrońców tzw. praw cyfrowych. W tym sensie cieszy, że to zagadnienie zostało dostrzeżone.
Czy jednak ta ustawa rozwiąże ten problem? Po pierwsze nadal nie widzieliśmy samego projektu, wiec trudno go ocenić, a przy regulacji internetu diabeł zawsze tkwi w szczegółach.
Po drugie, przyznaję, że podchodzę do niego z ostrożnością z uwagi na moją negatywną ocenę różnych dotychczasowych działań obecnie rządzącej większości, w tym zmian prawnych (np. nowela ustawy o IPN), które zdecydowanie nie przyczyniły się do podniesienia standardów swobody wypowiedzi i stawiają pod pewnym znakiem zapytania rzeczywiste motywacje projektodawców.
Faktycznie UE także pracuje nad przepisami, które mają odpowiedzieć na problem "prywatnej cenzury". Projekt Digital Service Act zawiera regulację moderacji treści, która zwiększa przejrzystość i zmniejsza arbitralność blokad, dając m.in. możliwość skutecznego odwołania się od nich. Jednak co bardzo ważne, to tylko jeden z elementów tego projektu, który reguluje także wiele innych problematycznych obszarów funkcjonowania platform.
Dlatego też, jak już wspomniałam, z uwagi na wątpliwości, o których mówiłam wyżej odnośnie do polskiego projektu ustawy, ale także dużo większą kompleksowość propozycji UE oraz globalny charakter największych platform internetowych, większy sens może mieć rzeczywiście regulacja tych zagadnień na poziomie UE.
***
Dorota Głowacka - Prawniczka, specjalizuje się w prawach człowieka w kontekście mediów i nowych technologii. Współpracuje z Fundacją Panoptykon, gdzie odpowiada za strategiczne postępowania sądowe i działania edukacyjne. W przeszłości pracowała w w Helsińskiej Fundacji Praw Człowieka w programie Obserwatorium Wolności Mediów w Polsce.