Francja. Awantura o prawo na Letnie IO w 2024. "Legalizacja masowej inwigilacji"

W cieniu licznych protestów Francja szykuje się też na Letnie Igrzyska Olimpijskie w Paryżu w 2024 r. W tym celu Zgromadzenie Narodowe ma przyjąć specustawę. Będzie w niej m.in. wątek otwarcia sklepów w niedzielę oraz kwestia uprawnienia władz do prześwietlenia osób akredytowanych przy imprezie. Ale największe kontrowersje wzbudza art. 7. ustawy. Jak pisze serwis France24.com, krytycy nowego prawa twierdzą, że Paryż wykorzystuje IO, by być jak Big Brother.

Przyjęcie nowej ustawy planowane jest na wtorek 28 marca. Wśród zapisów, jak czytamy we francuskich mediach, są m.in. postanowienie o utworzeniu centrum medycznego w Seine-Saint-Denis (na północny wschód od Paryża) i regulacja handlu w niedziele.

Zobacz wideo

Najwięcej emocji - zwłaszcza wśród polityków lewicy i działaczy organizacji praw człowieka - budzi art. 7. tej ustawy. Stanowi on, że Paryż może wykorzystać nadzór sztucznej inteligencji wideo w celu zapewnienia bezpieczeństwa w trakcie tej wielkiej sportowej imprezy. A bardziej szczegółowo: "wypróbować opartą na algorytmach technologię monitoringu wideo w celu zapewnienia bezpieczeństwa wydarzeń sportowych, rekreacyjnych lub kulturalnych na dużą skalę" - czytamy w serwisie France24.com.

Projekt wstępnie przyjęła już większość francuskich ugrupowań, zwłaszcza prawicowych. Ustawa, nawet po przyjęciu ją przez Zgromadzenie Narodowe we wtorek, będzie jeszcze krążyć w ramach procesu legislacyjnego między Zgromadzeniem a Senatem. Obie izby muszą ją ostatecznie zatwierdzić po poprawkach. Dlatego dyskusja nad AI w monitoringu miejskim jest wciąż żywa.

Algorytmiczny nadzór wideo. Co to?

Użycie tej technologii stworzy niebezpieczny precedens - alarmują aktywiści. - Algorytmiczny nadzór wideo to nowa forma technologii, która wykorzystuje oprogramowanie komputerowe do analizowania obrazów zarejestrowanych przez kamery monitorujące w czasie rzeczywistym - wyjaśnia Arnaud Touati, prawnik specjalizujący się w prawie cyfrowym. - Algorytmy zastosowane w oprogramowaniu są w szczególności oparte na technologii uczenia maszynowego, która z czasem umożliwia sztucznej inteligencji wideo doskonalenie się i dostosowywanie do nowych sytuacji.

Algorytmy mają ograniczać ludzkie błędy, bazować na analizie i automatyzacji. Zwolennicy technologii twierdzą więc, że są w stanie przewidzieć ruchy tłumu i wykryć porzucony bagaż lub potencjalnie niebezpieczne incydenty. Ale przeciwnicy algorytmicznego nadzoru wideo widzą tu zagrożenie. Oto oświadczenie Amnesty International po wstępnej akceptacji projektu przez polityków:

Podczas gdy Francja promuje się jako orędownik praw człowieka na całym świecie, jej decyzja o zalegalizowaniu masowej inwigilacji opartej na sztucznej inteligencji podczas igrzysk olimpijskich doprowadzi do totalnego ataku na prawa do prywatności, protestów oraz wolności zgromadzeń i wypowiedzi.

Amnesty International obawia się też, że nadzór wideo doprowadzi ostatecznie także do nadzoru biometrycznego lub głosowego.

Sztuczna inteligencja z uprzedzeniami?

- Mówimy o technologii oceny, [technologii] która musi oceniać zachowania i kategoryzować je jako groźne, aby później można było podjąć odpowiednie środki - wyjaśnia dla France24.com Katia Roux, specjalistka ds. technologii i praw człowieka. Roux stoi na stanowisku, że wspomniana technologia nie jest dziś legalna. - We Francji przeprowadzano eksperymenty, ale nie w ramach prawnych, które ta ustawa proponuje stworzyć - powiedziała działaczka, podkreślając, że również unijne regulacje nie przewidują takich rozwiązań.

- Przyjmując to prawo, Francja stałaby się mistrzynią monitoringu wideo w Unii Europejskiej i ustanowiłaby niezwykle niebezpieczny precedens. Byłby to bardzo niepokojący sygnał dla krajów, które mogłyby ulec pokusie wykorzystania tej technologii przeciwko własnej ludności - wyraża swoje obawy Katia Roux. Następnie podkreśla raz jeszcze wątek oceny, a nawet uprzedzeń sztucznej inteligencji: - Algorytmy będą trenowane przy użyciu zestawu danych, który został ustalony i zaprojektowany przez ludzi. Będą w stanie uwzględniać dyskryminujące uprzedzenia ludzi, którzy je wymyślili i zaprojektowali - mówi.

Arnaud Touati niejako potwierdza słowa Roux: - Nadzór wideo AI był już wykorzystywany do celów rasistowskich, zwłaszcza przez Chiny, w inwigilacji Ujgurów (...). Ponieważ mniejszości etniczne są niedostatecznie reprezentowane w danych dostarczanych algorytmom do celów edukacyjnych, istnieją w nich znaczne uprzedzenia dyskryminacyjne i rasistowskie - mówi. Touati przywołuje badania Massachusetts Institute of Technology, w którym oprogramowanie do analizy twarzy wykazało, że poziom błędu w rozpoznaniu białych mężczyzn wynosi 0,8 proc., zaś czarnych kobiet - aż 34,7 proc.

Francuskie władze wskazują, że ograniczenia ustanowione przez prawo, takie jak brak rozpoznawania twarzy czy ochrona danych osobowych, wystarczą, by zapobiec praktykom dyskryminacyjnym. - Wprowadziliśmy zabezpieczenia, aby przetargi były zarezerwowane tylko dla firm, które przestrzegają określonych zasad, w tym hostingu danych na terytorium kraju, z poszanowaniem CNIL [Commission nationale de l'informatique et des libertés; organ regulacyjny, odpowiedzialny za ochronę danych osobowych - red.] oraz RODO - przekonuje poseł Philippe Latombe, członek centroprawicowego Ruchu Demokratycznego. - Oczywiście nie chcemy, aby to była chińska firma, która przetwarza dane w Chinach i wykorzystuje je do czegoś innego - dodaje.

De facto eksperyment technologiczny może rozpocząć się, jak tylko prawo zostanie wdrożone. Zakończyć ma się zaś 31 grudnia 2024 r., czyli dopiero cztery miesiące po zakończeniu igrzysk paraolimpijskich (IO planowane są na przełom lipca i sierpnia, a miesiąc później mają się odbyć w Paryżu igrzyska paraolimpijskie). Obawy przeciwników zalegalizowania tego technologicznego eksperymentu nie wydają się więc bezzasadne - igrzyska wyglądają jak pretekst do dłuższego poligonu doświadczalnego. Autorzy artykułu we France24.com przypominają, że Igrzyska Olimpijskie w Londynie w 2012 r. doprowadziły do powszechnego stosowania nadzoru wideo w stolicy Wielkiej Brytanii.

- Boimy się, że ten wyjątkowy okres stanie się normą - podsumowuje Katia Roux, dodając, że technologia rozpoznawania głosu, która została wdrożona eksperymentalnie podczas Mistrzostw Świata 2018 w Rosji, jest od tego czasu wykorzystywana do represjonowania opozycji.

Więcej o: