Na początku października Francis Haugen ujawniła się jako sygnalistka w sprawie Facebooka. Kilka tygodni przed tym wydarzeniem na stronie "Wall Street Journal" pojawiały się wewnętrzne dokumenty firmy. Łącznie wyciekły dziesiątki tysięcy stron.
CNN omówiło pliki, które dotyczyły ataku na Kapitol z 6 stycznia tego roku. Tuż po tym wydarzeniu szefowa Facebooka w wywiadzie z Reutersem bagatelizowała poczynania firmy w związku z reakcją na te wydarzenia.
Facebook wprowadził inwestorów i opinię publiczną w błąd co do swojej roli w utrwalaniu dezinformacji i brutalnego ekstremizmu w związku z wyborami z 2020 r. i atakiem z 6 stycznia
- stwierdziła Francis Haugen w jednej ze swoich skarg do Amerykańskiej Komisji Papierów Wartościowych i Giełd.
Facebook temu zaprzecza i oskarża Haugen o tzw. cherry picking, czyli wybór argumentów i dokumentów pod tezę.
Odpowiedzialność za przemoc z 6 stycznia, spoczywa na tych, którzy zaatakowali Kapitol i tych, którzy ich do tego zachęcali. Podjęliśmy kroki w celu ograniczenia treści, które miały na celu delegitymizację wyborów, w tym oznaczanie postów kandydatów najnowszymi liczbami głosów, po tym jak Trump przedwcześnie ogłosił zwycięstwo. Wstrzymaliśmy też nowe reklamy polityczne i usunęliśmy w listopadzie oryginalną grupę Stop The Steal
- powiedział w piątek CNN rzeczniczka Facebooka Andy Stone. Firma opublikowała również wpis, w którym podsumowuje podjęte w sprawie działania.
Facebook przeprowadził wewnętrzną analizę w sprawie wydarzeń z 6 stycznia, która znalazła się w plikach dostarczonych przez Francis Haugen. Jak informuje CNN, wynika z niej, że środki zaradcze, które wprowadziła firma, były wdrażane z opóźnieniem. Dokumenty malują obraz, w którym Facebook nie był zbyt dobrze przygotowany na wykorzystanie platformy przez prowodyrów ataku, czyli ruch Stop the Steal i podjął działania, dopiero gdy ruch zaczął przyjmować brutalny charakter.
Nie udało się ustalić, kto jest autorem analizy. Stwierdzono w niej jednak, że początkowo nie było jasne, czy Facebook miał do czynienia ze skoordynowanym ruchem mającym na celu deligitymizację wyborów, czy może było to chronione prawo do wolności słowa wyrażane przez zaniepokojonych obywateli.
Więcej informacji na temat technologii znajdziesz na stronie głównej Gazeta.pl
Analiza miała wykazać, że zasady i procedury Facebooka nie mogły spowolnić, a co dopiero zatrzymać gwałtownego wzrostu ruchu Stop the Steal. Problemem było traktowanie każdego wpisu, osoby i grupy osób indywidualnie, zamiast w kategoriach całościowych trendów, co doprowadziło do fatalnych skutków. Zmiana postępowania nastąpiła, gdy już było za późno - wynika z dokumentów. Dopiero gdy w całym kraju zaczęły się rozlewać wydarzenia pod hasłem Stop the Capitol, Facebook zdał sobie sprawę, że "pojedyncze grupy, strony i slogany delegitymizujące wybory ukonstytuowały spójny ruch".
Facebook posiada procedury, które mają zapobiegać "skoordynowanym nieautentycznym zachowaniom", które pozwoliły przeciwdziałać rosyjskiej armii trolli podczas wyborów z 2016 roku. W przypadku treści poprzedzających atak na Kapitol ich nie zastosowano, ponieważ Facebook inaczej postępuje z osobami, które nie ukrywają swoich personaliów. Firmie nie przeszkodziło także to, że osoby te nie ukrywały swoich intencji w sprawie nieuznania wyników wyborów - zauważa CNN.
W analizie uznano bowiem, że grupy Stop the Steal oraz Patriot Party, nie prowadziły bezpośrednio do krzywdy "offline", ani nie promowały bezpośrednio militaryzacji. "Wzmacniały i normalizowały jednak dezinformację i brutalny hejt w sposób, który delegitymizował wolne i demokratyczne wybory".
W analizie podkreślono, że gdy Facebook zorientował się, jakie konsekwencje spowodował 6 stycznia ruch Stop the Steal, podjął działania, który zahamowały jego rozwój oraz rozwój Patriot Party.
Jeden z dokumentów, jakie sfotografowała Haugen, zatytułowano "Capitol Protest BTG [Break the Glass] Response". Był to wykres działań, które Facebook może podjąć w związku z atakiem na Kapitol z 6 stycznia. Jak pisze CNN, wydaje się, że dokument został przygotowany jeszcze przed tymi wydarzeniami.
Po wtargnięciu na Kapitol firma zaczęła wprowadzać część rozwiązań z wykresu, podczas gdy pozostałe były wciąż rozważane. Wśród nich znalazło się "obniżenie ilości treści, które mogą naruszać standardy naszej społeczności w zakresie mowy nienawiści, przemocy graficznej oraz przemocy i podżegania".
W analizie pojawia się też wpis o wycofaniu "US2020 Levers". Była to środki wprowadzone przed zeszłorocznymi wyborami prezydenckimi, które miały spowolnić szerzenie się nienawiści i dezinformacji na portalu. Facebook nie wyjaśnił w jasny sposób, jakie były to środki i dlaczego zdecydował się je wycofać, gdy Trump podważał wyniki wyborów.
Po atakach z 6 stycznia wśród środków, które Facebook ponownie wdrożył, było ograniczenie widoczności postów, które z dużym prawdopodobieństwem zostałyby zablokowane lub usunięte. Zaczęto też blokować sekcje komentarzy w postach, które miały rosnący poziom mowy nienawiści i podżegających do przemocy.
Rzecznik Facebooka poinformował, że odpowiednie środki były dopasowywane do sytuacji. Pod uwagę brano sygnały i informacje gromadzone na platformach Facebooka oraz informacje od służb bezpieczeństwa.