W środę dokument został przyjęty w Parlamencie Europejskim miażdżącą większością głosów (499 głosów "za", 28 "przeciw", a 93 posłów się wstrzymało). AI Act - jak pisze sam europarlament - to "pierwszy na świecie zestaw kompleksowych przepisów dotyczących zarządzania ryzykiem związanym ze sztuczną inteligencją". Chodzi tu m.in. o ewentualne sprawowanie nadzoru nad ludźmi, kwestie prywatności, niedyskryminacji i promowania zastosowań sztucznej inteligencji, które są zgodne z wartościami Unii Europejskiej.
Jak pisaliśmy we wtorek, akt o sztucznej inteligencji dzieli narzędzia oparte o AI na kilka kategorii w zależności od potencjalnego ryzyka związanego z ich użyciem. Zakazane ma zostać wykorzystanie AI m.in. do oceny społecznej (klasyfikowanie obywateli na podstawie ich zachowania), rozpoznawania emocji i zdalnego nadzoru biometrycznego zarówno w czasie rzeczywistym, jak i po fakcie. Ten ostatni punkt budził spore emocje przed głosowaniem ze względu na kontrowersyjną propozycję poprawki Europejskiej Partii Ludowej, która chciała dopuścić do korzystania z nadzoru biometrycznego w "wyjątkowych sytuacjach", ale bez nakazu sądu. Eksperci obawiali się, że pozostawienie takiej furtki umożliwi masową inwigilację obywateli. Ostatecznie jednak parlament odrzucił poprawkę.
Zgodnie z AI Act zakazane będą też systemy korzystające z kategoryzacji biometrycznej na bazie cech wrażliwych (np. rasy, płci, religii, pochodzenia). Niedozwolone będzie również trenowanie systemów rozpoznawania twarzy na bazie pobranych z sieci (lub nagranych) zdjęciach przypadkowych osób. Niedopuszczalne ma być również użycie systemów AI służących do prognozowania kryminologicznego (w oparciu o profilowanie, lokalizację lub wcześniejsze zachowania przestępcze). Taka praktyka przywodzi na myśl sceny ze słynnego "Raportu mniejszości", gdzie technologia pozwalała służbom zatrzymać przyszłych przestępców, zanim jeszcze dopuścili się czynów karalnych. Nawet, jeśli sztuczna inteligencja będzie w stanie samodzielnie prognozować przestępstwa, służby w krajach UE nie będą mogły z niej skorzystać.
Do kategorii wysokiego ryzyka zostały wrzucone m.in. systemy AI, które mogą być wykorzystywane do wpływania na wyborców i wyniki wyborów. Tu znalazły się również niezwykle popularne dziś systemy rekomendacji, ale tylko te stosowane w serwisach społecznościowych, z których korzysta przynajmniej 45 mln osób. Będą one mogły działać, ale pod pewnymi ograniczeniami. Zmiany dotkną też generatywną sztuczną inteligencję. Chatboty, takie jak np. ChatGPT, mają informować użytkowników o tym, że treść, którą generują, pochodzi od AI, a programy do generowania obrazu (np. Midjourney) będą musiały oznaczać obrazki jako stworzone sztucznie. Firmy odpowiedzialne za takie narzędzia będą musiały też zadbać o to, aby uniemożliwić generowanie treści niezgodnych z prawem. Jeśli z kolei przedsiębiorstwa będą trenować AI na danych chronionych prawami autorskimi, będą musiały informować o tym w szczegółowych podsumowaniach.
Jeszcze w środę mają rozpocząć się konsultacje z Radą UE na temat ostatecznego kształtu nowego prawa.