Skip to main content

Akt w sprawie Sztucznej Inteligencji (AI Act) to pierwsza na świecie kompleksowa regulacja prawna dotycząca sztucznej inteligencji. Jej nadrzędnym celem jest wprowadzenie klarownych reguł gry dla twórców i użytkowników AI. Ma to zapewnić bezpieczeństwo, chronić prawa podstawowe i promować zaufanie do tej technologii w całej Unii Europejskiej.

Czym jest akt w sprawie sztucznej inteligencji i dlaczego jest potrzebny?

Akt w sprawie Sztucznej Inteligencji to pionierskie, kompleksowe ramy prawne dla AI, które mają na celu uregulowanie związanych z nią zagrożeń i zapewnienie Europie wiodącej roli na arenie międzynarodowej. Został stworzony, aby promować rozwój godnej zaufania sztucznej inteligencji. Wprowadza on jasny, oparty na ryzyku zbiór zasad dla deweloperów i podmiotów wdrażających AI w odniesieniu do konkretnych zastosowań tej technologii. Akt jest częścią szerszego pakietu środków politycznych, które wspierają rozwój AI zorientowanej na człowieka, gwarantując bezpieczeństwo i poszanowanie praw podstawowych. Jednocześnie ma on na celu pobudzenie inwestycji, innowacji i wdrażania sztucznej inteligencji w całej UE. Dobrowolne inicjatywy, takie jak Pakiet na rzecz AI, wspierają przyszłe wdrożenie przepisów, angażując interesariuszy i zachęcając dostawców do wcześniejszego dostosowania się do kluczowych wymogów Aktu.

Głównym celem Aktu jest sprawienie, by ludzie mogli zaufać temu, co oferuje sztuczna inteligencja. Większość systemów AI stwarza niewielkie lub zerowe ryzyko i może być z powodzeniem wykorzystywana do rozwiązywania wielu wyzwań społecznych. Jednak niektóre z nich generują zagrożenia, które należy uregulować, aby uniknąć niepożądanych skutków. Często stajemy przed murem, próbując zrozumieć, dlaczego system AI podjął taką, a nie inną decyzję lub prognozę. To z kolei utrudnia ocenę, czy ktoś został potraktowany niesprawiedliwie. Chociaż istniejące przepisy zapewniają pewien poziom ochrony, są one niewystarczające, aby sprostać specyficznym wyzwaniom, jakie niesie ze sobą AI. Stąd potrzeba stworzenia tego kompleksowego aktu prawnego, który promuje rozwój technologii w sposób odpowiedzialny i etyczny, z myślą o użytkownikach.

akt w sprawie aiPodejście oparte na ryzyku: Klasyfikacja systemów AI

Akt w sprawie Sztucznej Inteligencji wprowadza podejście oparte na ryzyku, definiując cztery poziomy zagrożeń dla systemów AI. To kluczowy element regulacji, który pozwala na proporcjonalne stosowanie przepisów. Rozróżnienie poziomów ryzyka umożliwia skupienie się na tych zastosowaniach AI, które mogą stwarzać największe niebezpieczeństwo dla obywateli i ich praw. Systemy są klasyfikowane w zależności od potencjalnych szkód, jakie mogą wyrządzić.

  • Takie podejście zapewnia, że regulacje są adekwatne do rzeczywistych zagrożeń.
  • Jednocześnie pozwala innowatorom na swobodę w rozwijaniu systemów o niskim ryzyku.

Niedopuszczalne ryzyko: praktyki zakazane

Systemy AI uznane za wyraźne zagrożenie dla bezpieczeństwa, bytu i praw człowieka są całkowicie zakazane. Akt AI zabrania ośmiu praktyk, które stanowią poważne niebezpieczeństwo dla społeczeństwa. Należą do nich: szkodliwe manipulacje i oszustwa oparte na AI, wykorzystywanie słabości i podatności ludzi, systemy oceny społecznej (tzw. social scoring), indywidualna ocena ryzyka popełnienia przestępstwa oraz masowe pobieranie wizerunków z internetu lub monitoringu w celu tworzenia lub rozszerzania baz danych do rozpoznawania twarzy. Zakazane jest także rozpoznawanie emocji w miejscu pracy i w instytucjach edukacyjnych, kategoryzacja biometryczna w celu wnioskowania o cechach chronionych oraz zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej na potrzeby organów ścigania. Zakazy te mają na celu ochronę podstawowych wolności i prywatności obywateli.

Wysokie ryzyko: zastosowania AI podlegające szczególnym regulacjom

Przypadki użycia AI, które stwarzają poważne zagrożenie dla zdrowia, bezpieczeństwa lub praw podstawowych, są klasyfikowane jako systemy wysokiego ryzyka. Podlegają one rygorystycznym obowiązkom. Oto przykłady takich zastosowań:

Kategoria Zastosowania Przykłady Systemów AI Wysokiego Ryzyka
Infrastruktura krytyczna Komponenty bezpieczeństwa AI w infrastrukturze krytycznej (np. w transporcie), które mogą zagrażać życiu i zdrowiu obywateli.
Edukacja i zatrudnienie Rozwiązania AI stosowane w placówkach edukacyjnych, które mogą decydować o dostępie do edukacji i przebiegu kariery zawodowej (np. ocenianie egzaminów); narzędzia AI w zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV w procesach rekrutacyjnych).
Usługi podstawowe Wybrane zastosowania AI wykorzystywane do przyznawania dostępu do kluczowych usług prywatnych i publicznych (np. systemy oceny zdolności kredytowej, które mogą uniemożliwić obywatelom uzyskanie pożyczki).
Identyfikacja biometryczna Systemy AI używane do zdalnej identyfikacji biometrycznej, rozpoznawania emocji i kategoryzacji biometrycznej (np. system AI do identyfikacji sprawcy kradzieży sklepowej na podstawie nagrań).
Prawo i migracja Zastosowania AI w organach ścigania, które mogą naruszać prawa podstawowe (np. ocena wiarygodności dowodów); zastosowania AI w zarządzaniu migracją, azylem i kontrolą granic (np. automatyczne rozpatrywanie wniosków wizowych); rozwiązania AI stosowane w wymiarze sprawiedliwości i procesach demokratycznych (np. do przygotowywania orzeczeń sądowych).

Dostawcy tych systemów muszą spełnić liczne wymogi, w tym: wdrożyć odpowiednie systemy oceny i ograniczania ryzyka, zapewnić wysoką jakość zbiorów danych zasilających system w celu minimalizacji ryzyka dyskryminacji, rejestrować aktywność w celu zapewnienia identyfikowalności wyników, prowadzić szczegółową dokumentację dostarczającą wszelkich niezbędnych informacji o systemie i jego przeznaczeniu, udostępniać jasne i adekwatne informacje podmiotowi wdrażającemu, stosować odpowiednie środki nadzoru ludzkiego oraz gwarantować wysoki poziom solidności, cyberbezpieczeństwa i dokładności.

akt w sprawie sztucznej inteligencjiOgraniczone i minimalne ryzyko: obowiązki i swoboda rozwoju

Kategoria ograniczonego ryzyka odnosi się do zagrożeń związanych z potrzebą przejrzystości w korzystaniu z AI. Akt wprowadza konkretne obowiązki informacyjne, aby ludzie byli świadomi, kiedy jest to konieczne dla zachowania zaufania. Użytkownicy powinni wiedzieć, że wchodzą w interakcję z maszyną (np. w przypadku chatbotów). Dostawcy generatywnej AI muszą zadbać o to, by treści tworzone przez sztuczną inteligencję były łatwo rozpoznawalne. Niektóre z nich, takie jak deepfake, powinny być wyraźnie i widocznie oznaczone.

Akt AI nie wprowadza żadnych zasad dla sztucznej inteligencji, która została uznana za stwarzającą minimalne lub zerowe ryzyko. Zdecydowana większość obecnie używanych systemów AI należy do tej kategorii. Obejmuje to aplikacje takie jak gry wideo wspomagane przez AI czy filtry antyspamowe. W tych obszarach innowacje mogą rozwijać się swobodnie, bez dodatkowych obciążeń regulacyjnych, co sprzyja szybkiej adaptacji i rozwojowi technologii.

Modele AI ogólnego przeznaczenia (GPAI)

Modele AI Ogólnego Przeznaczenia (GPAI) są fundamentem wielu współczesnych systemów sztucznej inteligencji. Realizują one szeroki zakres zadań i stanowią podstawę dla wielu bardziej wyspecjalizowanych systemów. Są to wszechstronne modele, które można adaptować do różnych zastosowań, od przetwarzania języka naturalnego po generowanie obrazów. Ich znaczenie dla rozwoju AI jest kluczowe.

Definicja, ryzyka i regulacje dotyczące GPAI

Niektóre modele GPAI mogą stwarzać ryzyko systemowe, zwłaszcza jeśli są bardzo zaawansowane lub szeroko stosowane. Zagrożenia te obejmują potencjalne błędy, stronniczość czy niewłaściwe wykorzystanie na dużą skalę. Akt AI ustanawia zasady dla dostawców takich modeli, które mają na celu minimalizowanie tych niebezpieczeństw. Dostawcy powinni oceniać i łagodzić potencjalne ryzyka. Wśród regulacji dla GPAI znajdują się zasady dotyczące przejrzystości i praw autorskich. Przepisy Aktu AI dotyczące GPAI wejdą w życie z początkiem sierpnia 2025 roku.

Obowiązki dostawców modeli GPAI obejmują:

  • ocenę i ograniczanie ryzyka,
  • zapewnienie przejrzystości dotyczącej danych treningowych,
  • przestrzeganie przepisów dotyczących praw autorskich.

Jak to działa w praktyce? Nadzór i monitoring

Praktyczne wdrożenie Aktu AI obejmuje szereg mechanizmów nadzoru i monitorowania. Po wprowadzeniu systemu AI na rynek, odpowiednie władze odpowiadają za nadzór rynkowy. Z kolei użytkownicy systemów AI zapewniają nadzór ludzki i bieżące monitorowanie. Dostawcy zaś muszą posiadać system monitorowania powdrożeniowego. Ten wielopoziomowy nadzór ma na celu szybkie reagowanie na wszelkie nieprawidłowości. Dostawcy i użytkownicy będą również odpowiedzialni za zgłaszanie poważnych incydentów i awarii. Taka współpraca zapewnia ciągłą kontrolę nad systemami AI w całym ich cyklu życia, zwiększając bezpieczeństwo i zaufanie użytkowników.

Wsparcie dla zgodności z AI Act

Wprowadzono narzędzia wspierające odpowiedzialny rozwój i wdrażanie modeli GPAI. Wytyczne precyzują zakres obowiązków wynikających z Aktu AI, pomagając podmiotom w całym łańcuchu wartości zrozumieć, kto musi przestrzegać tych przepisów. Opracowano również Kodeks Postępowania GPAI – dobrowolne narzędzie zgodności przygotowane przez niezależnych ekspertów. Zapewnia on praktyczne wskazówki, które pomagają dostawcom w wypełnianiu obowiązków związanych z przejrzystością, prawami autorskimi oraz bezpieczeństwem. Dodatkowo, udostępniono wzór dokumentu, który wymaga od dostawców przedstawienia przeglądu danych użytych do trenowania ich modeli. Inicjatywy te mają na celu ułatwienie zgodności i promowanie etycznego rozwoju AI.

akty w sprawie aiPodsumowanie artykułu:

Akt w sprawie Sztucznej Inteligencji (AI Act) to przełomowa regulacja, która ustanawia ramy prawne dla rozwoju i wdrażania AI w Unii Europejskiej. Wprowadza podejście oparte na ryzyku, klasyfikując systemy na cztery poziomy – od niedopuszczalnego, przez wysokie i ograniczone, aż po minimalne. Akt zakazuje szkodliwych praktyk, nakłada surowe obowiązki na systemy wysokiego ryzyka i wymaga przejrzystości od systemów o ograniczonym ryzyku. Reguluje również Modele AI Ogólnego Przeznaczenia (GPAI), wprowadzając zasady dotyczące transparentności i praw autorskich. Wdrożenie obejmuje nadzór rynkowy, monitoring i zgłaszanie incydentów, a także wsparcie dla dostawców w zakresie zgodności z przepisami. Celem jest zapewnienie bezpieczeństwa, ochrona praw podstawowych i budowanie zaufania do technologii AI.

Zobacz nasz ostatni artykuł – Zmiany w prawie: Aktualności i przegląd najważniejszych nowelizacji

Leave a Reply