Słusznie zauważono konieczność usprawnienia rynku wewnętrznego poprzez ustanowienie jednolitych wymogów dotyczących sztucznej inteligencji, w tym również odnoszących się do odpowiedzialności za szkody spowodowane na skutek wykorzystania AI.

Czytaj też: Komisja od sztucznej inteligencji do poprawki. Spływają uwagi do projektu ustawy

 

Act AI – od kiedy obowiązuje?

Rozporządzenie Parlamentu Europejskiego i Rady UE o nr 2024/1689 z 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (dalej: Act Al) weszło w życie z dniem 1 sierpnia 2024 r. Jako data początkowa stosowania Act AI w art. 113 wskazany jest jednak 2 sierpnia 2026 r., przy czym dla poszczególnych rozdziałów i artykułów wyszczególnione zostały odrębne daty.

Zgodnie z art. 1 Act Al celem aktu jest poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska, przed szkodliwymi skutkami systemów AI w Unii oraz wspieraniu innowacji.

Zgodnie z Act AI za szkody, które zostały wyrządzone przy wykorzystaniu sztucznej inteligencji odpowiada operator.

Czytaj w LEX: Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? > >

 

Nowość
Sztuczna inteligencja w wymiarze sprawiedliwości
-20%

Cena promocyjna: 151.2 zł

|

Cena regularna: 189 zł

|

Najniższa cena w ostatnich 30 dniach: 132.3 zł


Operator, czyli kto?

Art. 3 pkt 8 Act AI określa kim jest operator, tak więc „operator” oznacza dostawcę, producenta produktu, podmiot stosujący, upoważnionego przedstawiciela, importera lub dystrybutora. Operatorem może być zarówno osoba prawna, jak i fizyczna.

Z uwagi na pojemność pojęcia „operator” to celem dookreślenia tego, kto odpowiada za AI, należy to pojęcie rozłożyć na czynniki pierwsze.

Zgodnie z art. 3 „Dostawca” oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które rozwijają system AI lub model AI ogólnego przeznaczenia lub zlecają rozwój systemu AI lub modelu AI ogólnego przeznaczenia oraz które – odpłatnie lub nieodpłatnie – pod własną nazwą lub własnym znakiem towarowym wprowadzają do obrotu lub oddają do użytku system AI.

„Dystrybutor” oznacza osobę fizyczną lub prawną w łańcuchu dostaw, inną niż dostawca lub importer, która udostępnia system AI na rynku Unii.

„Importer” oznacza osobę fizyczną lub prawną znajdującą się lub mającą siedzibę w Unii, która wprowadza do obrotu system AI opatrzony nazwą lub znakiem towarowym osoby fizycznej lub prawnej mającej siedzibę w państwie trzecim.

„Upoważniony przedstawiciel” oznacza osobę fizyczną lub prawną znajdującą się lub mającą siedzibę w Unii, która otrzymała i przyjęła pisemne pełnomocnictwo od dostawcy systemu AI lub modelu AI ogólnego przeznaczenia do, odpowiednio, spełnienia w jego imieniu obowiązków i przeprowadzania procedur ustanowionych w niniejszym rozporządzeniu.

A pod pojęciem „podmiot stosujący” rozumieć należy osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które wykorzystują system AI, nad którym sprawują kontrolę, z wyjątkiem sytuacji, gdy system AI jest wykorzystywany w ramach osobistej działalności pozazawodowa.

--------------------------------------------

Poznaj Law4AI - Źródło wiedzy o obowiązujących przepisach prawa
i planowanych regulacjach dotyczących sztucznej inteligencji >>

---------------------------------------------

Zobacz w LEX: Akt w sprawie sztucznej inteligencji > >

Zgodnie z art. 2 „producentem produktu” jest ten, kto pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadza do obrotu lub oddaje do użytku system AI.

Co więcej, rozporządzenie rozróżnia systemy AI w zależności od ryzyka i określa szereg wymogów, które należy spełnić. Przepisy dotyczące systemu AI wysokiego ryzyka uregulowane zostały w rozdziale III Act AI.

Rozważania na temat odpowiedzialności w kontekście sztucznej inteligencji są niezwykle istotne, szczególnie w obliczu dynamicznie rozwijającej się technologii. Polskie towarzystwa ubezpieczeniowe muszą być przygotowane na nowe wyzwania, jakie niesie za sobą rozwój AI, nie tylko pod względem prawnym, ale również operacyjnym.

Towarzystwa ubezpieczeniowe muszą opracować nowe strategie zarządzania ryzykiem, uwzględniające specyfikę systemów AI. Konieczność opracowania nowych strategii w powyższym zakresie spowodowana jest tym, że sztuczna inteligencja może działać w sposób nieprzewidywalny, co komplikuje tradycyjne metody oceny ryzyka. Chcąc „nadążać” za rozwojem sztucznej inteligencji i coraz szerszym jej zastosowaniem istotne jest opracowanie nowych algorytmów i modeli predykcyjnych, które pozwolą na lepsze przewidywanie potencjalnych szkód spowodowanych przez Al.

Niewątpliwie powyższe rodzi potrzebę tworzenia nowych produktów ubezpieczeniowych, które będą uwzględniać specyfikę ryzyk związanych ze sztuczną inteligencją. Polisy proponowane przez towarzystwa ubezpieczeniowe powinny obejmować m.in. odpowiedzialność cywilną za szkody wyrządzone przez systemy AI, awarie systemów AI, a także cyberzagrożenia związane z atakami na te systemy.

Act AI ma na celu zapewnienie ochrony i pewności co do prawa, co bezpośrednio przełoży się na wzrost zaufania społecznego i szersze zastosowanie sztucznej inteligencji.

Klaudia Trzaska, adwokat, Kancelaria Prawnicza Maciej Panfil i Partnerzy

Sprawdź także w LEX: Sztuczna inteligencja: zrozumieć, opanować, zastosować. Prawne aspekty funkcjonowania > >