AI Act czyli sztuczna inteligencja w Unii Europejskiej

Bez wątpienia wpływ sztucznej inteligencji na życie społeczne jest coraz wyraźniej zauważalny. Na przestrzeni lat technologia, przeszła ze sfery rozrywkowej do sfery codziennej, obecnie ciężko wyobrazić sobie życie bez technologii – wraz z rozwojem sztucznej inteligencji i jej coraz wyraźniej widocznym wpływem na społeczeństwo, po za korzyściami z rozwoju technologii w sferze społeczno-ekonomicznej, zaczęto dostrzegać także ryzyko i zagrożenia związane z rozwojem technologii, w tym rozwojem sztucznej inteligencji.

Wraz z rozwojem sztucznej inteligencji i jej coraz wyraźniejszym wpływem na społeczeństwo, po za korzyściami z rozwoju technologii w sferze społeczno-ekonomicznej, w tym w sektorze zarówno prywatnym jak i sektorze publicznym w obszarze finansów, mobilności, zdrowia publicznego jak również rolnictwie czy ochronie środowiska, zaczęto dostrzegać także ryzyko i zagrożenia związane z rozwojem technologii, w tym w szczególności w aspekcie sztucznej inteligencji. Korzyści z rozwoju rynku nowych technologii po za sektorem prywatnym zaczęły dostrzegać także poszczególne kraje, jak również Unia Europejska.

W kwietniu 2021 roku Komisja Europejska opublikowała projekt rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act – dalej jako: „Projekt Act SI” „Rozporządzenie”). Projekt Act SI jest przełomowym aktem stanowiącym pierwszą próbę kompleksowej regulacji sztucznej inteligencji przez prawo. Prace nad projektem rozporządzenia są obecnie na finalnym etapie i już w tym roku możemy się spodziewać publikacji tego aktu.

 

Obszar regulacji

Celem rozporządzenia jest ujednolicenie przepisów dotyczących sztucznej inteligencji
w zakresie wprowadzania do obrotu, oddawania do użytku oraz wykorzystania systemów sztucznej inteligencji na obszarze Unii Europejskiej.

Ramy regulacji mają na celu zapewnienie bezpieczeństwa użytkowania nowych technologii oraz zapewnienia ochrony praw podstawowych zarówno osób fizycznych jak i  przedsiębiorstw działających na rynku. Ponadto projekt przewiduję także pozytywny wpływ regulacji na zaufanie do rozwoju i wykorzystywania sztucznej inteligencji na szeroką skale.

 

Kto jest adresatem rozporządzenia?

Rozporządzenie będzie mieć zastosowanie zarówno do podmiotów publicznych jak
i podmiotów prywatnych. Tym samym Act SI będzie dotyczył bezpośrednio twórców, podmiotów wdrażających i użytkowników SI na terenie Unii ale i po za nią. Przepis zakładają bowiem zastosowanie norm prawnych również do dostawców i użytkowników systemu sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w Unii.

 

Kategorie ryzyka zastosowania sztucznej inteligencji

Projekt Act SI zakłada podział sztucznej technologii na cztery poziomy oparte na ryzyku jaki dana technologia może mieć wpływ na podstawowe prawa i wolności.

Niedopuszczalne ryzyko: w tym wypadku ogranicza się do szczególnych zastosowań SI
w kontekście największego ryzyka dla praw podstawowych. Wymienia się przy tym takie zastosowanie SI jak: scoring społeczny– system wprowadzony na obszarze Chińskiej Republiki Ludowej, nazywany także system zaufania społecznego – jest to system służący do monitorowania obywateli pod kątem ich zachowania zgodnego z normami prawnymi
i społecznymi. Ponadto w tej kategorii wymieniane jest także, wykorzystywanie podatności dzieci, stosowanie techniki propagandowych oraz z zastrzeżeniem pewnych wyjątków systemy zdalnej identyfikacji biometrycznej na żywo w publicznie dostępnych przestrzeniach wykorzystywane do celów egzekwowania prawa.

Wysokie ryzyko: w tej kategorii znalazła się technologia stwarzający niekorzystny wpływ na bezpieczeństwo i prawa podstawowe chronione przede wszystkim Kartą praw podstawowych Unie Europejskiej.

Ograniczone ryzyko: ta kategoria odnosi się głównie do popularnych ostatnimi czasy chatbotów, w tym wypadku zakłada się nakładanie szczególnych wymogów dotyczące przejrzystości działania chatbotów. Podkreśla się przy tym, że użytkownicy powinni być świadomi, że wchodzą w interakcję z maszyną.

Minimalne ryzyko: obecnie najszersza kategoria – większość systemów SI stosowanych
w UE należy do tej kategorii. Systemy sklasyfikowanej jako minimalne ryzyko mogą być opracowywane i wykorzystywane z zastrzeżeniem istniejących przepisów bez dodatkowych zobowiązań prawnych.

 

Normy rozporządzenia

Treść artykułu 1 obecnego projektu Rozporządzenia wyznacza obszar jego regulacji, oprócz harmonizacji przepisów dotyczących wprowadzania sztucznej technologii na rynek i jej wykorzystania, obszarem regulacji rozporządzenia mają być także zakazy odnoszące się do praktyk w zakresie SI, szczególne wymogi dotyczące systemu SI wysokiego ryzyka. Określona jest także regulacja w zakresie najbardziej kontrowersyjnego wykorzystywania systemów SI, a więc dotycząca systemu przeznaczonych do wchodzenia w interakcję z osobami fizycznymi, systemów rozpoznawania emocji oraz systemów kategoryzacji biometrycznej jak również systemów sztucznej inteligencji wykorzystywanych do generowania obrazów, treści dźwiękowych, treści wideo lub do manipulowania tymi treściami – w tej kategorii szczególnie na uwagę zasługują ostatnio popularne zjawisko tzw. deep fake tj. techniki manipulacji obrazów polegającej na łączeniu i nakładaniu wizerunków twarzy na inny obraz lub wizerunek innej osoby np. na filmach źródłowych.

 

Czym jest sztuczna inteligencja?

Regulacja przepisów dotyczących nowych technologii w Act SI niesie za sobą konieczność stworzenia definicji sztucznej inteligencji, co biorąc pod uwagę obszar regulacji jest niezwykle kluczowe bowiem definicja stworzona na potrzeby aktu będzie wyznacznikiem stosowania jej norm w praktyce. Zgodnie z art. 3 pkt. 1. Rozporządzenia „system sztucznej inteligencji” oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść określonych szczegółowo w Rozporządzeniu, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję. Definicja ta jest bardzo szeroka i mało precyzyjna, co w kontekście tak szybko rozwijającej się technologii jaką jest sztuczna inteligencja jest zrozumiałe.

 

Zakazane praktyki w zakresie sztucznej inteligencji

Project Act SI przewiduję także zakaz praktyk w zakresie sztucznej inteligencji w obszarze stwarzającym największe zagrożenia dla podstawowych praw i wolności. Zgodnie z Tytułem II projektu Act SI zakazuję się wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który:

  • stosuje techniki podprogowe będące poza świadomością danej osoby w celu istotnego zniekształcenia zachowania tej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną;
  • wykorzystuje dowolne słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować
    u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną;

Co ciekawe, zdecydowano się natomiast na nieco odmienną regulacje zakazów w przypadku wykorzystywania sztucznej inteligencji przez organy państwowe. I tak w tym obszarze zakazuję się wykorzystywania systemu sztucznej inteligencji, przez organy publiczne lub w ich imieniu na potrzeby oceny lub kwalifikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości, w sytuacjach gdy punktowa ocena społeczna może prowadzić do dyskryminacji osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane oraz krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.

Kontrowersyjnym zagadnieniem jest również dopuszczenie wykorzystania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej. Przepisy Rozporządzenia zakładają dopuszczalność jej wykorzystania w ściśle określonym celu oraz regulują warunki dopuszczenia takiego systemu. Przepisy zakładają, że wykorzystanie systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” dopuszczalne będzie jedynie do celów egzekwowania prawa w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do:

  • ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
  • zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;
  • wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy przestępstwa lub podejrzanego o popełnienie określonego w przepisach przestępstwa i które w danym państwie członkowskim podlega karze pozbawienia wolności lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata, zgodnie z prawem danego państwa członkowskiego.

 

Pozostałe obszary regulacji

Act Si skupia się także na wymogach dotyczących systemów sztucznej inteligencji wysokiego ryzyka. W projekcie przewiduję się ustanowienie systemu zarządzania ryzykiem, który ma składać się z ciągłego, iteracyjnego procesu realizowanego przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka, wymagającego regularnej, systematycznej aktualizacji. Regulacja zakłada także bezpieczeństwo w zakresie przetwarzania danych przez systemy i ustanawia wytyczne dla zarządzania danymi.

 

Sztuczna inteligencja pod nadzorem człowieka

Rozporządzenie kładzie nacisk na potrzebę nadzoru człowieka nad systemami sztucznej inteligencji w celu zapobiegania ryzyka dla bezpieczeństwa lub praw podstawowych w tym minimalizowania ryzyka, które może pojawić się przy wykorzystywaniu systemów sztucznej inteligencji wysokiego ryzyka.

Projekt zakłada, że systemy sztucznej inteligencji wysokiego ryzyka powinny być  projektowane i opracowywane w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne. Projekt określa dodatkowo obowiązki dostawców, importerów oraz dystrybutorów i użytkowników systemów sztucznej inteligencji wysokiego ryzyka.

 

Europejska Rada ds. Sztucznej Inteligencji i organy krajowe

Rozporządzenie przewiduję powołanie Europejskiej Rada ds. Sztucznej Inteligencji. Rada ma składa się z krajowych organów nadzorczych reprezentowanych przez osobę stojącą na czele danego organu lub równoważnego wysokiego rangą urzędnika danego organu oraz Europejski Inspektor Ochrony Danych.  Ponadto nadzór nad stosowaniem i wdrażaniem norm zawartych w projekcie mają zapewnić także właściwe organy nadzorcze krajów członkowskich. Organy nadzorcze krajów członkowskich po za nadzorowaniem rynku będą miały także za zadanie udzielać porad i wsparcia dystrybutorom i dostawcom systemów sztucznej inteligencji w zakresie odpowiedniego dostosowania systemów do norm prawnych.

 

Podsumowanie

Act Si bez wątpienia jest przełomową regulacją mającą bezpośredni wpływ na rynek nowych technologii, jak i bezpieczeństwo w zakresie przestrzegania praw podstawowych
i ograniczania ryzyka jakie wiąże się z zastosowaniem i rozwojem sztucznej inteligencji.

Rosnące obawy związane z wykorzystywaniem sztucznej inteligencji w coraz to szerszych obszarach społeczno-ekonomicznych powoduje konieczność uregulowania norm chroniących podstawowe prawa i zapewniających bezpieczeństwo danych. Z drugiej jednak strony błyskawiczne tempo rozwoju technologii może skutkować tym, że regulacje prawne mające za przedmiot tą tematykę mogą już za kilka lat być nieaktualne.  Ponadto narzucenie sztywnych norm prawnych może powodować zahamowanie rozwoju technologii, bowiem nadmierna ingerencja regulacji prawnych w rynek technologii stwarza ryzyko ograniczenia sztucznej inteligencji. Projekt Act SI przewiduję stały nadzór nad rozwojem rynku zakłada również stworzenie instrumentów pozwalających na zmianę regulacji dostosowując ją do tempa zmian w technologii.

Tematyka sztucznej inteligencji z uwagi na jej ciągły wpływ na coraz to więcej obszarów życia społecznego z pewnością będzie jeszcze przedmiotem wielu regulacji prawnych, dlatego też pierwsza kompleksowa próba uregulowania jej na skalę unijną sprawia, że Act SI jest jednym z najbardziej wyczekiwanych aktów prawnych ostatnich lat, a jego publikacja przewidziana została jeszcze na ten rok.

 

Źródło:

https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0012.02/DOC_1&format=PDF

https://www.europarl.europa.eu/news/pl/headlines/society/20201015STO89417/regulacje-ws-sztucznej-inteligencji-oczekiwania-parlamentu

https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0012.02/DOC_2&format=PDF

https://www.europarl.europa.eu/news/pl/headlines/society/20200918STO87404/sztuczna-inteligencja-szanse-i-zagrozenia