Unia Europejska

Ustawa o sztucznej inteligencji: zakamuflowana deregulacja

AI Act, czyli unijna regulacja rozwoju i zastosowań sztucznej inteligencji, to pierwsze takie porozumienie na świecie. Zawiera sporo słusznych zapisów, które mają ograniczać ryzyko i chronić nasze prawa – ale wprowadzono do niej na tyle liczne wyjątki, że pojęcie „regulacja” traci sens.

Po intensywnych negocjacjach instytucje Unii Europejskiej doszły do wstępnego porozumienia w sprawie ustawy dotyczącej sztucznej inteligencji, czyli tzw. AI Act. Ze względu na to, że na ostatnim posiedzeniu trójstronnym w zaledwie 36 godzin omówiono 21 kluczowych kwestii spornych, a szczegóły ustaleń wciąż nie są do końca jasne, pełną analizę trzeba odłożyć do momentu publikacji finalnej wersji rozporządzenia.

Znamy już jednak sześć głównych filarów porozumienia.

1. Zasada podejścia opartego na ryzyku. Utrzymano tu pierwotne podejście Komisji Europejskiej, co oznacza, że systemowe zastosowania AI, które zostaną uznane za stwarzające największe ryzyko, będą podlegały szczególnym wymogom, ponieważ mogą prowadzić do szkód w obszarze zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności. Do porozumienia dodano jednak bardzo wiele „warunków filtrujących”, które mają gwarantować, że zobowiązania prawne obejmą tylko zastosowania sztucznej inteligencji związane z wysokim poziomem ryzyka.

2. Zakazane zastosowania. Systemy sztucznej inteligencji, które stwarzają nieakceptowalne ryzyko, są zakazane. Zakaz obejmuje manipulowanie zachowaniami ludzi albo wykorzystywanie ich słabości, a także nietargetowane pobieranie wizerunków twarzy, rozpoznawanie emocji w miejscu pracy lub w szkole (z wyjątkiem zastosowań, gdzie przemawiają za tym względy bezpieczeństwa, na przykład do zapobiegania zasypianiu za kierownicą), tworzenie rankingów społecznych (ang. social scoring), kategoryzację biometryczną oraz niektóre zastosowania sztucznej inteligencji do przewidywania przestępstw.

ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje

3. Modele generatywne sztucznej inteligencji. Jako że wielkie systemy AI potrafią wykonywać mnóstwo różnorodnych zadań, modele generatywne sztucznej inteligencji (zwane też modelami podstawowymi) muszą spełniać szczególne warunki transparentności, zanim zostaną dopuszczone do rynku. Bardziej rygorystyczne zasady wprowadzono dla modeli o potencjalnie dużym wpływie na społeczeństwa, charakteryzujących się ryzykiem systemowym, których możliwości oraz sprawność znacznie wykraczają poza przeciętną i mogą doprowadzić do szerzenia się ryzyka w łańcuchach wartości.

Zasady dotyczą między innymi potrzeby prowadzenia ocen modeli AI, szacowania i eliminowania ryzyka systemowego, prowadzenia testów adwersaryjnych, dbania o cyberbezpieczeństwo oraz informowania Komisji o wszelkich poważnych incydentach i o efektywności energetycznej systemów AI. Jednak do czasu publikacji zharmonizowanych standardów UE firmy rozwijające systemy sztucznej inteligencji do ogólnych zastosowań, które niosą ze sobą ryzyko systemowe, mogą spełniać przepisy na podstawie własnych kodeksów praktyk.

4. Prawa podstawowe. „Systemy sztucznej inteligencji są rozwijane i używane w celu prowadzenia szkodliwej i dyskryminującej obywateli państwowej inwigilacji. Zastosowanie AI w działalności organów ścigania w dysproporcjonalny sposób skupia się na społecznościach, które już są zmarginalizowane, osłabia prawa wynikające z ustaw i procedur i umożliwia masową inwigilację” – ostrzegało w wydanym niedawno wspólnie oświadczeniu 16 organizacji społeczeństwa obywatelskiego.

W odpowiedzi na takie naciski do porozumienia włączono obowiązek przeprowadzenia oceny wpływu technologii na prawa podstawowe. Dotyczy to podmiotów publicznych i prywatnych, które świadczą usługi użyteczności publicznej (np. szpitale, szkoły, banki, firmy ubezpieczeniowe) oraz stosują systemy sztucznej inteligencji wysokiego ryzyka.

Ludzie dyskryminują, więc algorytmy też

Porozumienie przewiduje jednak kilka wyjątków dla organów ścigania, które pozwalają na identyfikację biometryczną (retrospektywną oraz prowadzoną na bieżąco) w celu zapobiegania atakom terrorystycznym lub lokalizowania ofiar i osób podejrzanych w związku z poważnymi przestępstwami, których lista ma jeszcze zostać ustalona. W przypadkach nadzwyczajnych będzie również istniała możliwość zastosowania specjalnej procedury, by organy ścigania mogły użyć narzędzi AI z grupy wysokiego ryzyka, które nie przeszły procedury oceny zgodności z przepisami.

5. Mechanizm egzekwowania. Za naruszenia zasad rozporządzenia nakładane będą kary finansowe w wysokości od 35 milionów euro lub 7 proc. globalnego rocznego obrotu, do 7,5 miliona euro, albo 1,5 proc. obrotu za mniejsze przewinienia, takie jak dostarczenie nieprawidłowych danych. Bardziej „proporcjonalne” limity obowiązywać będą w przypadku nakładania kar administracyjnych na małe i średnie przedsiębiorstwa oraz start-upy.

Osoby fizyczne i prawne będą mogły zgłaszać skargi do organu odpowiedzialnego za nadzór nad rynkiem oraz oczekiwać ich rozpatrzenia w zgodzie z procedurami danej instytucji. Obywatele będą także mieli prawo składać skargi na systemy sztucznej inteligencji, jak również otrzymywać wyjaśnienia decyzji podejmowanych przez systemy AI z grupy wysokiego ryzyka, jeśli takie decyzje wpływają na ich prawa.

6. Struktura instytucjonalna. Porozumienie powołuje nowe instytucje, jakimi są Biuro i Rada ds. Sztucznej Inteligencji. Biuro będzie działać w obrębie Komisji i ma nadzorować najbardziej zaawansowane modele AI, wypracowywać standardy oraz nadzorować przestrzeganie przepisów. Ekspercki zespół niezależnych naukowców będzie doradzał w sprawie modeli podstawowych, między innymi z grupy wysokiego ryzyka.

Rada, złożona z przedstawicieli państw członkowskich, będzie doradzać Komisji oraz służyć do koordynacji działań w obrębie UE. Ekspertyzę techniczną zapewniać będzie doradcze forum interesariuszy, złożone z przedstawicieli przemysłu, małych i średnich przedsiębiorstw, start-upów, społeczeństwa obywatelskiego i świata nauki.

Luki w prawie

Na wieczornej konferencji prasowej komisarz ds. rynku wewnętrznego Thierry Breton oraz sekretarzyni stanu ds. cyfryzacji i sztucznej inteligencji Carme Artigas Brugal, reprezentująca hiszpańską prezydencję Unii, a także Brando Benifei i Dragos Tudorache, sprawozdawcy Parlamentu Europejskiego, wyrazili przekonanie, że AI Act to złoty środek między promowaniem innowacji a ochroną społeczeństwa. W przepisach znalazło się jednak kilka istotnych luk, które sprawiają, że ochrona, jaką porozumienie ma roztaczać nad obywatelami, będzie niepełna.

Dopisane do porozumienia „warunki filtrujące” mogą spowodować, że niektóre systemy AI stanowiące wysokie ryzyko nie zostaną objęte przepisami. Obowiązek przeprowadzenia oceny wpływu technologii na prawa podstawowe oraz zakaz stosowania systemów identyfikacji biometrycznej zostały osłabione przez wprowadzenie znaczących wyjątków i zgodę na używanie narzędzi AI o wysokim poziomie ryzyka w sytuacjach szczególnej konieczności.

Systemy rozpoznawania emocji z zastosowaniem technologii AI są niedozwolone w miejscu pracy, ale nadal można je będzie stosować ze względów bezpieczeństwa – gdzie zatem zaczyna się i kończy bezpieczeństwo? I czy pracownicy naprawdę będą mieli coś w tej kwestii do powiedzenia?

Pokaźne kary za łamanie przepisów będzie można obejść, wykorzystując zapis o „proporcjonalności”: większe firmy będą miały powód, żeby powierzać swoje najbardziej ryzykowne projekty w dziedzinie AI start-upom, bo w przypadku tych ostatnich ewentualne kary będą znacząco niższe.

Mechanizmy zgłaszania skarg są wciąż niejasne poza wzmiankami o „specjalnych procedurach” i prawie obywateli do „otrzymywania wyjaśnień”. Zaś struktura instytucjonalna dopuszcza stronę społeczną jedynie w roli eksperckich doradców dla ciała reprezentującego państwa członkowskie, co może tak bardzo wytłumić głos społeczeństwa obywatelskiego, że przestanie być słyszalny.

Wszystko, co chcielibyście wiedzieć o sztucznej inteligencji, ale baliście się zapytać

Breton stwierdził: „AI Act to znacznie więcej niż regulamin, zbiór przepisów – to platforma startowa dla europejskich start-upów oraz naukowców zajmujących się sztuczną inteligencją, dzięki której wysforują się na czoło globalnego wyścigu technologicznego”. Te słowa są podsumowaniem prawdziwego celu, jaki przyświeca Komisji i Radzie Europejskiej od początku procesu legislacyjnego. Chodzi o stworzenie ram prawnych, które pomogą Unii stać się globalnym liderem technologii sztucznej inteligencji i zapewnią pełne wsparcie firmom z branży AI działającym na terenie UE, a w jak najmniejszym stopniu będą ograniczać rozwój sztucznej inteligencji.

Mówiąc krótko – porozumienie, które miało uregulować rozwój i wykorzystanie sztucznej inteligencji, w rzeczywistości cały ten sektor dereguluje.

**
Aida Ponce Del Castillo jest analityczką w Europejskim Instytucie Związków Zawodowych (ETUI.org).

Artykuł opublikowany w magazynie Social Europe. Z angielskiego przełożył Maciej Domagała.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij