1 sierpnia 2024 r. weszło w życie Rozporządzenie Parlamentu Europejskiego i Rady w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (AI Act) – jeden z pierwszych na skalę światową aktów prawnych kompleksowo regulujących kwestie związane z korzystaniem z systemów sztucznej inteligencji. Poniżej wyjaśniamy, co warto wiedzieć o założeniach tej regulacji.
Czym jest AI Act?
AI Act to rozporządzenie mające na celu uregulowanie rozwoju, wprowadzenia na rynek oraz użycia systemów sztucznej inteligencji w Unii Europejskiej. Jego celem jest wprowadzenie w państwach członkowskich jednakowego standardu, który będzie zapewniał bezpieczeństwo, ochronę praw człowieka i odpowiedzialny rozwoju technologii AI. Większość wymogów rozporządzenia adresowanych jest do dostawców, importerów, dystrybutorów i użytkowników AI.
Definicja Systemu Sztucznej Inteligencji
Centralnym pojęciem rozporządzenia jest System AI. W toku prac legislacyjnych jego definicja była wielokrotnie zmieniana, tak aby miała możliwie elastyczny charakter i nie zdezaktualizowała się wraz z rozwojem technologii, a jednocześnie – aby była spójna ze sposobem rozumienia sztucznej inteligencji wypracowanym w międzynarodowych gremiach.
Ostatecznie System AI został zdefiniowany jako system maszynowy, zaprojektowany do działania z różnym poziomem autonomii, który może po wdrożeniu wykazywać zdolność adaptacji i który – do wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie danych wyjściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
Kategoryzacja Systemów AI
Nowe przepisy rozróżniają kilka kategorii systemów AI w oparciu o poziom ryzyka, który wynika ze stosowania sztucznej inteligencji. Przypisanie technologii do odpowiedniej grupy jest kluczowe, bo obowiązki regulacyjne określone w AI Act zostały zróżnicowane w zależności od poziomu ryzyka danego systemu.
- Systemy o minimalnym ryzyku: systemy wyłączone z regulacji ze względu na niski poziom ryzyka – takie jak filtry antyspamowe czy systemy rekomendacji.
- Systemy o ograniczonym ryzyku: wymagają spełnienia pewnych wymogów, takich jak przejrzystość w informowaniu użytkowników, że treści zostały wygenerowane przez sztuczną inteligencję.
- Systemy o wysokim ryzyku: podlegają surowszym regulacjom, w tym ocenie zgodności, dokumentacji technicznej oraz obowiązkowi nadzoru po wprowadzeniu na rynek. Technologie wysokiego ryzyka obejmują m.in. systemy związane z infrastrukturą krytyczną, edukacją, służbą zdrowia, zatrudnieniem i zarządzaniem pracownikami. Wprowadzenie do obrotu systemu AI wysokiego ryzyka będzie musiało zostać poprzedzone oceną wpływu na prawa podstawowe.
- Systemy o niedopuszczalnym ryzyku: zakazane są systemy, które mogą stanowić zagrożenie dla bezpieczeństwa, praw podstawowych lub wprowadzać w błąd użytkowników. Chodzi tu m.in. o manipulację ludźmi (stosowanie technik podprogowych, wprowadzanie w błąd, wykorzystywanie słabości określonych grup wrażliwych), scoring obywateli (klasyfikację ludzi na podstawie ich statusu, zachowań czy cech osobistych) oraz systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie (np. rozpoznawanie twarzy). Przepisy przewidują jednak pewne wyjątki od zakazu.
System AI ogólnego przeznaczenia
AI Act wprowadza również odrębną kategorię modeli AI ogólnego przeznaczenia. Chodzi tu o systemy trenowane dużą ilością danych, z wykorzystaniem nadzoru własnego na dużą skalę, które wykazują znaczną ogólność i są w stanie kompetentnie wykonywać szeroki zakres różnych zadań, i które można integrować z różnymi aplikacjami niższego szczebla. Przykładem takich modeli są narzędzia generatywnej AI (takie jak GPT).
Dostawcy modeli AI ogólnego przeznaczenia podlegają określonym obowiązkom – przede wszystkim związanym z przestrzeganiem prawa autorskiego na etapie trenowania i generowania wyników działania.
Obowiązek przejrzystości
Systemy AI muszą spełniać określone obowiązki w zakresie przejrzystości, tak aby ich użytkownicy byli świadomi, że mają do czynienia z maszyną, a nie człowiekiem. Przy użyciu systemów, w których dochodzi do bezpośredniej interakcji (np. chatboty) – konieczne będzie przekazanie informacji, że używany system to AI (chyba, że jest to oczywiste dla użytkownika). Treści wygenerowane przy użyciu sztucznej inteligencji (dźwięk, obrazy, wideo, teksty) powinny być oznakowane jako takie, w formacie umożliwiającym odczyt maszynowy.
Sankcje
AI Act przewiduje dotkliwe kary administracyjne za niedostosowanie się do nowych przepisów, m.in. kary za naruszenie przepisów dotyczących zakazanych systemów AI (w wysokości do 35 mln EUR lub 7% całkowitego rocznego światowego obrotu przedsiębiorstwa), za niezgodność systemu AI z obowiązkami (w wysokości do 15 mln EUR lub 3% całkowitego rocznego światowego obrotu przedsiębiorstwa), za przekazywanie nieprawidłowych lub wprowadzających w błąd informacji organom nadzoru (w wysokości do 7,5 mln EUR lub 1% całkowitego rocznego światowego obrotu przedsiębiorstwa).
Kiedy zaczną obowiązywać nowe przepisy?
AI Act to rozporządzenie unijne – wiąże więc w całości bez konieczności wprowadzania dodatkowych regulacji krajowych. Rozporządzenie weszło w życie 1 sierpnia 2024 r., jednak zasadniczo będzie ono stosowane dopiero od 2 sierpnia 2026 r. Od tej ogólnej zasady są pewne wyjątki: po upływie 6 miesięcy od dnia wejścia w życie rozporządzenia zaczną obowiązywać przepisy ogólne oraz przepisy przewidujące zakazy określonych praktyk. Po 12 miesiącach wejdą w życie przepisy dotyczące kar i przepisy nakładające obowiązki na dostawców modeli AI ogólnego przeznaczenia, a przepisy regulujące obowiązki związane z systemami AI, które są elementami produktu związanymi z bezpieczeństwem wejdą w życie dopiero po 36 miesiącach.
Podsumowanie
W obliczu rosnącej popularności i błyskawicznego rozwoju sztucznej inteligencji, należy pozytywnie ocenić to, że pojawiły się ramy prawne dla sztucznej inteligencji i podjęto próbę usystematyzowania zasad jej działania.
Wydaje się, że UE stawia przede wszystkim na ochronę obywateli i zapewnienie przejrzystości w stosowaniu tych technologii, nawet jeśli działoby się to kosztem postępu i stawiałoby Unię za USA i Chinami, w których preferowane jest bardziej rynkowe podejście do rozwoju AI. Czy regulacja dogoniła postęp technologiczny i daje wystarczającą ochronę przed zagrożeniami związanymi ze sztuczną inteligencją? To się okaże. Trudno dziś wyobrazić sobie, jakie możliwości będzie dawała technologia w przyszłości – możliwe, że zanim przepisy zostaną w pełni wdrożone pojawią się kolejne rozwiązania, o których dziś nawet nam się nie śniło.