UE ujarzmi sztuczną inteligencję, nowe przepisy przyjęte. Technologia z "Raportu mniejszości" zakazana

Bartłomiej Pawlak
Parlament Europejski przyjął akt o sztucznej inteligencji, czyli pierwsze na świecie prawo regulujące AI. Unijna ustawa - porównywana czasem do słynnego RODO - zakazuje m.in. rozpoznawania emocji i prognozowania zachowań obywateli.

W środę dokument został przyjęty w Parlamencie Europejskim miażdżącą większością głosów (499 głosów "za", 28 "przeciw", a 93 posłów się wstrzymało). AI Act - jak pisze sam europarlament - to "pierwszy na świecie zestaw kompleksowych przepisów dotyczących zarządzania ryzykiem związanym ze sztuczną inteligencją". Chodzi tu m.in. o ewentualne sprawowanie nadzoru nad ludźmi, kwestie prywatności, niedyskryminacji i promowania zastosowań sztucznej inteligencji, które są zgodne z wartościami Unii Europejskiej.

Zobacz wideo Te wynalazki zna cały świat. Wiedziałeś, że są dziełem Polaków? [TOPtech]

Unijne zasady dla AI. Technologia z "Raportu mniejszości" nie w UE

Jak pisaliśmy we wtorek, akt o sztucznej inteligencji dzieli narzędzia oparte o AI na kilka kategorii w zależności od potencjalnego ryzyka związanego z ich użyciem. Zakazane ma zostać wykorzystanie AI m.in. do oceny społecznej (klasyfikowanie obywateli na podstawie ich zachowania), rozpoznawania emocji i zdalnego nadzoru biometrycznego zarówno w czasie rzeczywistym, jak i po fakcie. Ten ostatni punkt budził spore emocje przed głosowaniem ze względu na kontrowersyjną propozycję poprawki Europejskiej Partii Ludowej, która chciała dopuścić do korzystania z nadzoru biometrycznego w "wyjątkowych sytuacjach", ale bez nakazu sądu. Eksperci obawiali się, że pozostawienie takiej furtki umożliwi masową inwigilację obywateli. Ostatecznie jednak parlament odrzucił poprawkę. 

Zgodnie z AI Act zakazane będą też systemy korzystające z kategoryzacji biometrycznej na bazie cech wrażliwych (np. rasy, płci, religii, pochodzenia). Niedozwolone będzie również trenowanie systemów rozpoznawania twarzy na bazie pobranych z sieci (lub nagranych) zdjęciach przypadkowych osób. Niedopuszczalne ma być również użycie systemów AI służących do prognozowania kryminologicznego (w oparciu o profilowanie, lokalizację lub wcześniejsze zachowania przestępcze). Taka praktyka przywodzi na myśl sceny ze słynnego "Raportu mniejszości", gdzie technologia pozwalała służbom zatrzymać przyszłych przestępców, zanim jeszcze dopuścili się czynów karalnych. Nawet, jeśli sztuczna inteligencja będzie w stanie samodzielnie prognozować przestępstwa, służby w krajach UE nie będą mogły z niej skorzystać.

Bot poinformuje, że nie jest człowiekiem

Do kategorii wysokiego ryzyka zostały wrzucone m.in. systemy AI, które mogą być wykorzystywane do wpływania na wyborców i wyniki wyborów. Tu znalazły się również niezwykle popularne dziś systemy rekomendacji, ale tylko te stosowane w serwisach społecznościowych, z których korzysta przynajmniej 45 mln osób. Będą one mogły działać, ale pod pewnymi ograniczeniami. Zmiany dotkną też generatywną sztuczną inteligencję. Chatboty, takie jak np. ChatGPT, mają informować użytkowników o tym, że treść, którą generują, pochodzi od AI, a programy do generowania obrazu (np. Midjourney) będą musiały oznaczać obrazki jako stworzone sztucznie. Firmy odpowiedzialne za takie narzędzia będą musiały też zadbać o to, aby uniemożliwić generowanie treści niezgodnych z prawem. Jeśli z kolei przedsiębiorstwa będą trenować AI na danych chronionych prawami autorskimi, będą musiały informować o tym w szczegółowych podsumowaniach. 

Jeszcze w środę mają rozpocząć się konsultacje z Radą UE na temat ostatecznego kształtu nowego prawa.

Więcej o: