Sztuczna inteligencja rewolucjonizuje świat biznesu i technologii, a AI Act to nowa dyrektywa Unii Europejskiej, która ma regulować jej rozwój i wykorzystanie. Ten przełomowy akt prawny ma znaczący wpływ na przyszłość sztucznej inteligencji w Europie.
Ma za zadanie określać ramy dla bezpiecznego i etycznego stosowania sztucznej inteligencji. AI Act wprowadza kompleksowe zasady, które mają zapewnić, że systemy AI będą rozwijane i wdrażane w sposób odpowiedzialny i zgodny z wartościami europejskimi.
Artykuł przedstawia kluczowe aspekty AI Act, w tym jego główne cele i zakres. Omówiona zostanie klasyfikacja systemów AI według poziomu ryzyka oraz obowiązki, jakie dyrektywa nakłada na dostawców i użytkowników sztucznej inteligencji. Ponadto, tekst analizuje potencjalne skutki tych regulacji dla rozwoju AI w Europie i na świecie. Na koniec zostaną przedstawione wnioski dotyczące znaczenia AI Act dla przyszłości technologii i innowacji w sektorze sztucznej inteligencji.
Czym jest AI Act?
Definicja i cele
AI Act to przełomowe rozporządzenie Unii Europejskiej, które ma na celu kompleksowe uregulowanie kwestii związanych ze sztuczną inteligencją. Jest to pierwszy na świecie akt prawny, który w tak szerokim zakresie określa ramy prawne dla rozwoju, wprowadzania do obrotu i wykorzystywania systemów AI. Głównym celem AI Act jest upowszechnianie godnej zaufania i ukierunkowanej na człowieka sztucznej inteligencji, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych obywateli UE.
Rozporządzenie to ma również wspierać innowacje w dziedzinie AI oraz zapewniać swobodny przepływ towarów i usług opartych na sztucznej inteligencji między państwami członkowskimi. Oznacza to, że kraje UE nie mogą wprowadzać ograniczeń w rozwoju, wprowadzaniu do obrotu i wykorzystywaniu systemów AI, o ile są one zgodne z wymogami określonymi w AI Act.
Kluczowe założenia
AI Act obejmuje szeroki zakres podmiotów zaangażowanych w tworzenie i wykorzystywanie systemów sztucznej inteligencji, w tym dostawców, użytkowników, importerów, dystrybutorów oraz upoważnionych przedstawicieli dostawców spoza UE. Rozporządzenie wprowadza klasyfikację systemów AI według poziomu ryzyka, dzieląc je na cztery kategorie: nieakceptowalne, wysokie, ograniczone i minimalne.
Systemy AI stwarzające nieakceptowalne ryzyko, takie jak te wykorzystujące techniki podprogowe lub dane biometryczne do identyfikacji osób w tłumie, będą całkowicie zakazane. Natomiast systemy wysokiego ryzyka, stosowane np. w sektorze opieki zdrowotnej, transporcie czy wymiarze sprawiedliwości, muszą spełniać rygorystyczne wymagania dotyczące bezpieczeństwa i przejrzystości.
AI Act kładzie również nacisk na ochronę praw użytkowników, wprowadzając obowiązek informowania o tym, że mają oni do czynienia z treściami generowanymi przez AI. Ponadto, rozporządzenie przewiduje utworzenie piaskownic regulacyjnych na szczeblu krajowym, które mają ułatwić opracowywanie i testowanie innowacyjnych systemów AI przed ich wprowadzeniem na rynek.
Harmonogram wdrażania
Wdrażanie AI Act będzie przebiegać etapowo w ciągu najbliższych kilku lat. Rozporządzenie weszło w życie 1 sierpnia 2024 roku, ale jego pełne stosowanie będzie następować stopniowo:
- Od 2 lutego 2025 roku (6 miesięcy od wejścia w życie):
- Zaczną obowiązywać przepisy dotyczące zakazanych praktyk w zakresie AI.
- Od 2 sierpnia 2025 roku (12 miesięcy od wejścia w życie):
- Wejdą w życie obowiązki przejrzystości dla dostawców systemów AI ogólnego przeznaczenia.
- Zaczną obowiązywać przepisy dotyczące kar za naruszenia rozporządzenia.
- Od 2 sierpnia 2026 roku (24 miesiące od wejścia w życie):
- Zacznie obowiązywać większość przepisów AI Act.
- Od 2 sierpnia 2027 roku (36 miesięcy od wejścia w życie):
- Wejdą w życie przepisy dotyczące systemów AI, które są elementami produktów związanych z bezpieczeństwem.
Taki harmonogram ma zapewnić podmiotom objętym regulacją odpowiedni czas na dostosowanie się do nowych wymogów i obowiązków. W międzyczasie państwa członkowskie będą zobowiązane do ustanowienia organów nadzoru AI oraz rozpoczęcia działalności Grupy Europejskiej ds. Sztucznej Inteligencji.
Klasyfikacja systemów AI według ryzyka
AI Act wprowadza kompleksową klasyfikację systemów sztucznej inteligencji opartą na poziomie ryzyka, jakie stwarzają dla użytkowników i społeczeństwa. Ta kategoryzacja ma kluczowe znaczenie dla określenia, jakie regulacje i ograniczenia będą miały zastosowanie do poszczególnych systemów AI. Wyróżniono cztery główne kategorie ryzyka: niedopuszczalne, wysokie, ograniczone oraz minimalne.
Niedopuszczalne ryzyko
Systemy AI zaliczone do tej kategorii są całkowicie zakazane w Unii Europejskiej ze względu na ich sprzeczność z wartościami UE oraz znaczny potencjał szkód. Obejmują one:
- Systemy manipulacji poznawczo-behawioralnej, szczególnie te skierowane do wrażliwych grup, np. zabawki aktywowane głosem zachęcające dzieci do niebezpiecznych zachowań.
- Systemy klasyfikacji społecznej (social scoring) oceniające ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
- Systemy identyfikacji biometrycznej działające w czasie rzeczywistym w miejscach publicznych, z wyjątkiem ściśle określonych przypadków związanych z egzekwowaniem prawa.
- Systemy wykorzystujące techniki podprogowe lub dane biometryczne do kategoryzacji osób według rasy, orientacji seksualnej lub innych cech chronionych.
Wysokie ryzyko
Systemy AI wysokiego ryzyka to te, które mogą mieć znaczący wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe obywateli. Mogą być używane, ale podlegają surowym ograniczeniom i wymaganiom. Do tej kategorii należą:
- Systemy AI stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa, takich jak zabawki, lotnictwo, samochody, urządzenia medyczne i windy.
- Systemy AI używane w określonych obszarach, m.in.:
- Zarządzanie infrastrukturą krytyczną (np. dostawa energii, wody)
- Edukacja i szkolenia zawodowe
- Zatrudnienie i zarządzanie pracownikami
- Dostęp do podstawowych usług prywatnych i publicznych
- Egzekwowanie prawa
- Zarządzanie migracją i kontrolą granic
- Wymiar sprawiedliwości i procesy demokratyczne
Systemy te muszą spełniać rygorystyczne wymagania dotyczące bezpieczeństwa, przejrzystości i nadzoru ludzkiego. Dostawcy takich systemów są zobowiązani do rejestracji ich w unijnej bazie danych.
Ograniczone ryzyko
Ta kategoria obejmuje systemy AI, które stwarzają ograniczone ryzyko manipulacji lub oszustwa. Głównym wymogiem dla tych systemów jest zapewnienie przejrzystości. Oznacza to, że:
- Użytkownicy muszą być informowani o interakcji z systemem AI, chyba że jest to oczywiste.
- Wszelkie treści generowane przez AI, takie jak deepfake’i, muszą być odpowiednio oznaczone.
Do tej kategorii zaliczają się m.in.:
- Chatboty
- Systemy generatywnej AI tworzące lub modyfikujące tekst, obrazy, dźwięk czy nagrania wideo
Minimalne ryzyko
Ostatnia kategoria obejmuje systemy AI, które nie stanowią znaczącego zagrożenia dla praw lub bezpieczeństwa użytkowników. Należą do niej:
- Filtry antyspamowe
- Gry komputerowe wykorzystujące AI
- Systemy rekomendacji treści
Dla tych systemów nie wprowadzono obowiązkowych ograniczeń ani wymogów. Jednakże, zaleca się przestrzeganie ogólnych zasad etycznych AI, takich jak nadzór człowieka, niedyskryminacja i sprawiedliwość.
Ta klasyfikacja ma na celu zapewnienie, że rozwój i wdrażanie systemów AI w Unii Europejskiej będą przebiegać w sposób bezpieczny i zgodny z wartościami europejskimi, jednocześnie wspierając innowacje w tej dziedzinie. Dostawcy i użytkownicy systemów AI muszą być świadomi, do której kategorii należą ich rozwiązania, aby móc spełnić odpowiednie wymagania prawne i etyczne.
Obowiązki dostawców i użytkowników AI
AI Act nakłada szereg obowiązków na dostawców i użytkowników systemów sztucznej inteligencji, w zależności od poziomu ryzyka, jakie te systemy stwarzają. Regulacje te mają na celu zapewnienie bezpieczeństwa, przejrzystości i zgodności z prawami podstawowymi UE.
Systemy wysokiego ryzyka
Systemy AI wysokiego ryzyka, choć mogą stwarzać zagrożenie dla zdrowia, bezpieczeństwa i praw człowieka, są dopuszczone do obrotu pod warunkiem spełnienia rygorystycznych wymogów. Dostawcy tych systemów mają najwięcej obowiązków, w tym:
- Przeprowadzenie oceny zgodności przed wprowadzeniem systemu na rynek lub do użytku w UE.
- Opracowanie i utrzymywanie systemu zarządzania ryzykiem.
- Zapewnienie wysokiej jakości zbiorów danych używanych do trenowania systemu.
- Prowadzenie szczegółowej dokumentacji technicznej.
- Zapewnienie przejrzystości i dostarczanie informacji użytkownikom.
- Zapewnienie nadzoru ludzkiego nad systemem.
- Zagwarantowanie dokładności, odporności i bezpieczeństwa systemu.
Użytkownicy systemów wysokiego ryzyka również mają określone obowiązki, takie jak:
- Korzystanie z systemu zgodnie z instrukcjami dostawcy.
- Monitorowanie działania systemu pod kątem możliwych zagrożeń.
- Informowanie dostawcy lub dystrybutora o wszelkich poważnych incydentach lub nieprawidłowościach w funkcjonowaniu systemu.
Systemy wysokiego ryzyka obejmują m.in. oprogramowanie związane z infrastrukturą krytyczną, systemy używane przy rekrutacji i nadzorze pracowników, systemy oceny zdolności kredytowej, technologie wspomagające kontrolę graniczną oraz systemy edukacyjne.
Ograniczone ryzyko
Systemy AI ograniczonego ryzyka, takie jak chatboty czy systemy generatywnej AI, podlegają mniej restrykcyjnym regulacjom, ale nadal muszą spełniać określone wymogi przejrzystości. Główne obowiązki dostawców tych systemów to:
- Informowanie użytkowników o interakcji z systemem AI, chyba że jest to oczywiste.
- Oznaczanie treści generowanych przez AI (np. deepfake’ów) w sposób umożliwiający ich wykrycie.
Użytkownicy tych systemów powinni być świadomi, że mają do czynienia z maszyną, szczególnie w przypadkach, gdy istnieje ryzyko manipulacji.
Przejrzystość i nadzór
AI Act kładzie duży nacisk na przejrzystość i nadzór nad systemami AI. Dostawcy i użytkownicy muszą zapewnić:
- Informowanie osób o interakcji z systemem AI, zwłaszcza w przypadku systemów rozpoznawania emocji lub biometrycznej kategoryzacji.
- Oznaczanie treści generowanych przez AI, w tym dźwięku, obrazów, wideo i tekstu.
- Przestrzeganie przepisów o ochronie danych osobowych.
Dodatkowo, AI Act wprowadza system kar za naruszenie wytycznych. Na przykład, za naruszenie zakazanych praktyk grozi kara do 35 000 000 euro lub do 7% całkowitego rocznego obrotu przedsiębiorstwa. Za naruszenie pozostałych przepisów kara może wynieść do 15 000 000 euro lub do 3% obrotu.
Warto również wspomnieć o Globalnym Partnerstwie na rzecz Sztucznej Inteligencji (GPAI), które nakłada dodatkowe obowiązki na dostawców modeli AI. Obejmują one m.in. sporządzanie dokumentacji technicznej, ustanowienie polityki przestrzegania praw autorskich oraz publikowanie podsumowań treści używanych do szkolenia modeli.
Podsumowując, AI Act wprowadza kompleksowy system regulacji i obowiązków dla dostawców i użytkowników systemów AI, mający na celu zapewnienie bezpiecznego i etycznego rozwoju sztucznej inteligencji w Unii Europejskiej. Przepisy te mają zagwarantować ochronę praw podstawowych obywateli UE, jednocześnie wspierając innowacje w dziedzinie AI.
Wnioski
AI Act ma znaczący wpływ na rozwój sztucznej inteligencji w Europie, ustanawiając kompleksowe ramy dla jej bezpiecznego i etycznego wykorzystania. To przełomowe rozporządzenie wprowadza klasyfikację systemów AI według poziomu ryzyka, nakładając odpowiednie obowiązki na dostawców i użytkowników. Dzięki temu UE dąży do ochrony praw obywateli, jednocześnie wspierając innowacje w dziedzinie AI.
Wdrożenie AI Act to długoterminowy proces, który będzie miał daleko idące skutki dla branży technologicznej. Choć nowe przepisy mogą początkowo stanowić wyzwanie dla firm, w dłuższej perspektywie mają szansę umocnić pozycję Europy jako lidera w rozwoju godnej zaufania sztucznej inteligencji. To rozporządzenie wyznacza nowe standardy globalne, potencjalnie wpływając na podejście do regulacji AI na całym świecie.