Kontakt z nami

sztuczna inteligencja

Ustawa o sztucznej inteligencji: Rada i Parlament osiągają porozumienie w sprawie pierwszych przepisów dotyczących sztucznej inteligencji na świecie

DZIELIĆ:

Opublikowany

on

Używamy Twojej rejestracji, aby dostarczać treści w sposób, na który wyraziłeś zgodę, i aby lepiej zrozumieć Ciebie. Możesz zrezygnować z subskrypcji w dowolnym momencie.

Po trzydniowym „maratonie” rozmów prezydencja Rady i negocjatorzy Parlamentu Europejskiego osiągnęli wstępne porozumienie w sprawie wniosku w sprawie zharmonizowanych przepisów dotyczących sztucznej inteligencji (AI), tzw. ustawy o sztucznej inteligencji. Projekt rozporządzenia ma na celu zapewnienie, że systemy sztucznej inteligencji wprowadzane na rynek europejski i wykorzystywane w UE są bezpieczne oraz respektują prawa podstawowe i wartości UE. Ten przełomowy wniosek ma również na celu stymulowanie inwestycji i innowacji w zakresie sztucznej inteligencji w Europie.

Carme Artigas, hiszpańska sekretarz stanu ds. cyfryzacji i sztucznej inteligencji

To historyczne osiągnięcie i ogromny kamień milowy na przyszłość! Dzisiejsze porozumienie skutecznie odpowiada na globalne wyzwanie w szybko zmieniającym się środowisku technologicznym w obszarze kluczowym dla przyszłości naszych społeczeństw i gospodarek. W tym przedsięwzięciu udało nam się zachować niezwykle delikatną równowagę: pobudzanie innowacyjności i upowszechniania sztucznej inteligencji w Europie przy pełnym poszanowaniu praw podstawowych naszych obywateli.Carme Artigas, hiszpańska sekretarz stanu ds. cyfryzacji i sztucznej inteligencji

Ustawa o sztucznej inteligencji to: flagowy inicjatywa ustawodawcza mogąca wspierać rozwój i wdrażanie bezpiecznej i godnej zaufania sztucznej inteligencji na jednolitym rynku UE zarówno przez podmioty prywatne, jak i publiczne. Główną ideą jest uregulowanie sztucznej inteligencji w oparciu o jej zdolność do wyrządzania szkody społeczeństwu w następstwie: „oparte na ryzyku” podejście: im wyższe ryzyko, tym bardziej rygorystyczne zasady. Jako pierwszy tego typu wniosek legislacyjny na świecie może ustanowić światowy standard regulacji sztucznej inteligencji w innych jurysdykcjach, tak jak zrobiło to RODO, promując w ten sposób europejskie podejście do regulacji technicznych na arenie międzynarodowej.

Główne elementy umowy tymczasowej

W porównaniu z pierwotnym wnioskiem Komisji główne nowe elementy tymczasowego porozumienia można podsumować w następujący sposób:

  • zasady dot modele sztucznej inteligencji ogólnego przeznaczenia o dużym wpływie które mogą powodować ryzyko systemowe w przyszłości, jak również o wysokim ryzyku Systemy SI
  • poprawiony system zarządzanie z pewnymi uprawnieniami wykonawczymi na poziomie UE
  • rozszerzenie listy zakazy ale z możliwością wykorzystania zdalna identyfikacja biometryczna przez organy ścigania w przestrzeni publicznej, z zastrzeżeniem zabezpieczeń
  • lepsza ochrona praw poprzez obowiązek prowadzenia przez podmioty wdrażające systemy sztucznej inteligencji wysokiego ryzyka: ocenę wpływu na prawa podstawowe przed wprowadzeniem systemu AI do użytku.

Mówiąc bardziej konkretnie, tymczasowe porozumienie obejmuje następujące aspekty:

Definicje i zakres

Aby zapewnić, że definicja systemu sztucznej inteligencji zapewnia wystarczająco jasne kryteria odróżniania sztucznej inteligencji od prostszych systemów oprogramowania, porozumienie kompromisowe dostosowuje tę definicję do podejścia zaproponowanego przez OECD.

Tymczasowe porozumienie wyjaśnia również, że rozporządzenie nie ma zastosowania do obszarów pozostających poza zakresem prawa UE i w żadnym wypadku nie powinno wpływać na kompetencje państw członkowskich w zakresie bezpieczeństwo narodowe lub jakikolwiek podmiot, któremu powierzono zadania w tym zakresie. Ponadto ustawa o sztucznej inteligencji nie będzie miała zastosowania do systemów, które służą wyłącznie do celów wojsko or obrona cele. Podobnie umowa przewiduje, że rozporządzenie nie będzie miało zastosowania do systemów sztucznej inteligencji wykorzystywanych wyłącznie w celu badania i innowacjelub dla osób korzystających ze sztucznej inteligencji w celach pozazawodowych.

reklama

Klasyfikacja systemów AI jako praktyk wysokiego ryzyka i zabronionych AI

Porozumienie kompromisowe przewiduje pozioma warstwa ochronna, w tym klasyfikację wysokiego ryzyka, aby zapewnić, że systemy sztucznej inteligencji, które prawdopodobnie nie spowodują poważnych naruszeń praw podstawowych lub innych znaczących zagrożeń, nie zostaną wykryte. Prezentacja wyłącznie systemów AI ograniczone ryzyko byłby narażony na bardzo światło obowiązki w zakresie przejrzystości, na przykład ujawnienie, że treści zostały wygenerowane przez sztuczną inteligencję, aby użytkownicy mogli podejmować świadome decyzje dotyczące dalszego wykorzystania.

Szeroka gama wysokie ryzyko Systemy sztucznej inteligencji zostałyby zatwierdzone, ale podlegałyby szeregowi wymogów i obowiązków związanych z uzyskaniem dostępu do rynku UE. Wymogi te zostały doprecyzowane i dostosowane przez współprawodawców w taki sposób, że jest ich więcej technicznie możliwe i mniej obciążające zainteresowane strony, na przykład w odniesieniu do jakości danych, lub w odniesieniu do dokumentacji technicznej, którą MŚP powinny sporządzić, aby wykazać, że ich systemy sztucznej inteligencji wysokiego ryzyka spełniają wymogi.

Ponieważ systemy sztucznej inteligencji są opracowywane i dystrybuowane w ramach złożonych łańcuchów wartości, porozumienie kompromisowe obejmuje zmiany wyjaśniające podział obowiązków i role różnych aktorów w tych łańcuchach, w szczególności dostawcy i użytkownicy systemów sztucznej inteligencji. Wyjaśnia również związek między obowiązkami wynikającymi z ustawy o sztucznej inteligencji a obowiązkami, które już istnieją na mocy innych przepisów, takich jak odpowiednie przepisy UE dotyczące ochrony danych lub przepisy sektorowe.

W przypadku niektórych zastosowań sztucznej inteligencji uwzględnia się ryzyko gorszący w związku z czym systemy te zostaną zakazane w UE. Tymczasowe porozumienie zakazuje np. funkcji poznawczych manipulacja behawioralna, nieukierunkowany złomowanie wizerunków twarzy z Internetu lub nagrań CCTV, rozpoznawanie emocji w zakładach pracy i placówkach oświatowych, punktacja społeczna, kategoryzacja biometryczna w celu wywnioskowania danych wrażliwych, takich jak orientacja seksualna lub przekonania religijne, a w niektórych przypadkach przewidywanie działań policji dla klientów indywidualnych.

Wyjątki dotyczące egzekwowania prawa

Biorąc pod uwagę specyfikę organy ścigania oraz potrzebę zachowania ich zdolności do wykorzystywania sztucznej inteligencji w kluczowej pracy, uzgodniono kilka zmian we wniosku Komisji dotyczących wykorzystania systemów sztucznej inteligencji do celów egzekwowania prawa. Z zastrzeżeniem odpowiednich zabezpieczeniazmiany te mają odzwierciedlać potrzebę poszanowania poufności wrażliwych danych operacyjnych w związku z prowadzoną działalnością. Na przykład wprowadzono procedurę awaryjną umożliwiającą organom ścigania wdrożenie narzędzia AI wysokiego ryzyka, które nie przeszło pomyślnie ocena zgodności procedurę w nagłych przypadkach. Jednakże wprowadzono również specjalny mechanizm, który ma to zapewnić podstawowe prawa będą wystarczająco chronione przed wszelkimi potencjalnymi nadużyciami systemów sztucznej inteligencji.

Co więcej, jeśli chodzi o wykorzystanie czasu rzeczywistego zdalna identyfikacja biometryczna systemów w przestrzeniach publicznie dostępnych, tymczasowe porozumienie wyjaśnia cele, w przypadku których takie wykorzystanie jest absolutnie konieczne do celów egzekwowania prawa i do jakich celów organy egzekwowania prawa powinny zatem wyjątkowo mieć możliwość korzystania z takich systemów. Umowa kompromisowa przewiduje dodatkowe zabezpieczenia i ogranicza te wyjątki do przypadków ofiar niektórych przestępstw, zapobiegania rzeczywistym, obecnym lub przewidywalnym zagrożeniom, takim jak ataki terrorystyczne, oraz poszukiwań osób podejrzanych o popełnienie najpoważniejszych przestępstw.

Systemy AI ogólnego przeznaczenia i modele podstawowe

Dodano nowe przepisy, aby uwzględnić sytuacje, w których systemy sztucznej inteligencji można wykorzystywać do wielu różnych celów (sztuczna inteligencja ogólnego przeznaczenia) i w przypadku których technologia sztucznej inteligencji ogólnego przeznaczenia jest następnie integrowana z innym systemem wysokiego ryzyka. Tymczasowe porozumienie odnosi się również do konkretnych przypadków systemów sztucznej inteligencji ogólnego przeznaczenia (GPAI).

Uzgodniono także szczegółowe zasady modele fundamentów, duże systemy zdolne do kompetentnego wykonywania szerokiego zakresu charakterystycznych zadań, takich jak generowanie wideo, tekstu, obrazów, konwersacja w języku bocznym, przetwarzanie danych lub generowanie kodu komputerowego. Tymczasowa umowa przewiduje, że modele fundamentów muszą być zgodne ze specyfikacją obowiązki w zakresie przejrzystości zanim zostaną wprowadzone na rynek. Wprowadzono bardziej rygorystyczny reżim 'duży wpływ' modele fundamentów. Są to podstawowe modele wyszkolone na podstawie dużej ilości danych oraz o zaawansowanej złożoności, możliwościach i wydajności znacznie powyżej średniej, które mogą rozprzestrzeniać ryzyko systemowe w całym łańcuchu wartości.

Nowa architektura zarządzania

W związku z nowymi przepisami dotyczącymi modeli GPAI i oczywistą potrzebą ich egzekwowania na poziomie UE, an Biuro AI w Komisji ma za zadanie nadzorować te najbardziej zaawansowane modele sztucznej inteligencji, przyczyniać się do wspierania standardów i praktyk testowania oraz egzekwować wspólne zasady we wszystkich państwach członkowskich. A panel naukowy niezależnych ekspertów będzie doradzać Biuru AI w zakresie modeli GPAI, przyczyniając się do rozwoju metodologii oceny możliwości modeli fundamentów, doradzając w zakresie wyznaczania i pojawiania się modeli fundamentów o dużym wpływie oraz monitorując możliwe zagrożenia bezpieczeństwa materiałowego związane z modelami fundamentów.

Połączenia Zarząd AI, w skład której wchodziliby przedstawiciele państw członkowskich, pozostanie platformą koordynacyjną i organem doradczym Komisji oraz przyzna państwom członkowskim ważną rolę w zakresie wdrażania rozporządzenia, w tym w zakresie opracowywania kodeksów postępowania dla modeli fundacji. Wreszcie, forum doradcze dla zainteresowanych stron, takich jak przedstawiciele przemysłu, MŚP, start-upy, społeczeństwo obywatelskie i środowisko akademickie, zostaną utworzone w celu zapewnienia Radzie ds. AI wiedzy technicznej.

kary

Kary za naruszenia ustawy o sztucznej inteligencji zostały ustalone jako procent całkowitego rocznego obrotu spółki, która dopuściła się naruszenia w poprzednim roku obrotowym, lub jako z góry ustalona kwota, w zależności od tego, która wartość jest wyższa. Wynosiłoby to 35 mln euro lub 7% za naruszenia zakazanych zastosowań sztucznej inteligencji, 15 mln euro lub 3% za naruszenia obowiązków wynikających z ustawy o sztucznej inteligencji oraz 7,5 mln euro lub 1,5% za podanie nieprawidłowych informacji. Jednakże tymczasowe porozumienie przewiduje bardziej proporcjonalne pułapy w sprawie kar administracyjnych dla MŚP i start-upów w przypadku naruszeń przepisów ustawy o AI.

W porozumieniu kompromisowym wyraźnie określono, że osoba fizyczna lub prawna może złożyć skargę do odpowiedniego organu organ nadzoru rynku dotyczące niezgodności z ustawą o AI i może oczekiwać, że taka skarga zostanie rozpatrzona zgodnie z dedykowanymi procedurami tego organu.

Przejrzystość i ochrona praw podstawowych

Umowa tymczasowa przewiduje m.in ocenę wpływu na prawa podstawowe zanim system sztucznej inteligencji wysokiego ryzyka zostanie wprowadzony na rynek przez jego wdrażających. Tymczasowe porozumienie przewiduje również zwiększenie transparentność dotyczące stosowania systemów sztucznej inteligencji wysokiego ryzyka. W szczególności niektóre przepisy wniosku Komisji zostały zmienione w celu wskazania, że ​​niektórzy użytkownicy systemu sztucznej inteligencji wysokiego ryzyka, będący podmiotami publicznymi, będą również zobowiązani do rejestracji w rejestrze Baza danych UE dla systemów AI wysokiego ryzyka. Ponadto nowo dodane przepisy kładą nacisk na obowiązek użytkowników system rozpoznawania emocji informowania osób fizycznych o kontakcie z takim systemem.

Działania wspierające innowacyjność

Z myślą o stworzeniu ram prawnych bardziej przyjaznych innowacjom i promowaniu uczenia się regulacyjnego opartego na dowodach, przepisy dot działania wspierające innowacyjność zostały zasadniczo zmienione w porównaniu z wnioskiem Komisji.

Warto zauważyć, że wyjaśniono, że AI piaskownice regulacyjne, które mają stworzyć kontrolowane środowisko do opracowywania, testowania i walidacji innowacyjnych systemów sztucznej inteligencji, powinny również umożliwiać testowanie innowacyjnych systemów sztucznej inteligencji w warunkach rzeczywistych. Ponadto dodano nowe przepisy umożliwiające testowanie systemów AI w realne warunki, pod określonymi warunkami i zabezpieczeniami. Aby zmniejszyć obciążenia administracyjne dla mniejszych przedsiębiorstw, tymczasowe porozumienie zawiera wykaz działań, które należy podjąć w celu wsparcia takich operatorów, oraz przewiduje pewne ograniczone i jasno określone odstępstwa.

Wejście w życie

Tymczasowe porozumienie przewiduje, że zastosowanie powinna mieć ustawa o sztucznej inteligencji dwa lata po jego wejściu w życie, z pewnymi wyjątkami dotyczącymi przepisów szczegółowych.

Następne kroki

W następstwie dzisiejszego tymczasowego porozumienia w nadchodzących tygodniach będą kontynuowane prace na poziomie technicznym w celu sfinalizowania szczegółów nowego rozporządzenia. Po zakończeniu prac prezydencja przekaże tekst kompromisowy przedstawicielom państw członkowskich (Coreperowi) do zatwierdzenia.

Cały tekst będzie musiał zostać zatwierdzony przez obie instytucje i poddany przeglądowi prawno-językowemu przed formalnym przyjęciem przez współprawodawców.

Informacje ogólne

Wniosek Komisji przedstawiony w kwietniu 2021 r. stanowi kluczowy element polityki UE mającej na celu wspieranie rozwoju i wdrażania na jednolitym rynku bezpiecznej i zgodnej z prawem sztucznej inteligencji, która szanuje prawa podstawowe.

We wniosku zastosowano podejście oparte na ryzyku i ustanowiono jednolite, horyzontalne ramy prawne dla sztucznej inteligencji, których celem jest zapewnienie pewności prawa. Projekt rozporządzenia ma na celu promowanie inwestycji i innowacji w zakresie sztucznej inteligencji, poprawę zarządzania i skutecznego egzekwowania istniejących przepisów dotyczących praw podstawowych i bezpieczeństwa oraz ułatwienie rozwoju jednolitego rynku zastosowań sztucznej inteligencji. Idzie to w parze z innymi inicjatywami, w tym ze skoordynowanym planem dotyczącym sztucznej inteligencji, którego celem jest przyspieszenie inwestycji w sztuczną inteligencję w Europie. W dniu 6 grudnia 2022 r. Rada osiągnęła porozumienie w sprawie podejścia ogólnego (mandatu negocjacyjnego) w tej sprawie i w połowie czerwca 2023 r. rozpoczęła rozmowy międzyinstytucjonalne z Parlamentem Europejskim („rozmowy trójstronne”).

Udostępnij ten artykuł:

EU Reporter publikuje artykuły z różnych źródeł zewnętrznych, które wyrażają szeroki zakres punktów widzenia. Stanowiska zajęte w tych artykułach niekoniecznie są stanowiskami EU Reporter.

Trendy