(2021/C 404/05)
(Dz.U.UE C z dnia 6 października 2021 r.)
Parlament Europejski,
- uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
- uwzględniając art. 114 i 169 Traktatu o funkcjonowaniu Unii Europejskiej,
- uwzględniając dyrektywę Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe 1 (dyrektywa w sprawie odpowiedzialności za produkty),
- uwzględniając dyrektywę 2005/29/WE Parlamentu Europejskiego i Rady z dnia 11 maja 2005 r. dotyczącą nieuczciwych praktyk handlowych stosowanych przez przedsiębiorstwa wobec konsumentów na rynku wewnętrznym (dyrektywę w sprawie nieuczciwych praktyk handlowych) 2 , dyrektywę Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów 3 oraz inne przepisy dotyczące ochrony konsumentów,
- uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych 4 ,
- uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali 5 ,
- uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych 6 ,
- uwzględniając porozumienie międzyinstytucjonalne w sprawie lepszego stanowienia prawa z dnia 13 kwietnia 2016 r. oraz wytyczne dotyczące lepszego stanowienia prawa 7 ,
- uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program "Cyfrowa Europa" na lata 2021-2027 (CoM(2o18)0434),
- uwzględniając komunikat Komisji z dnia 25 kwietnia 2018 r. w sprawie sztucznej inteligencji dla Europy (COM(2018)0237),
- uwzględniając komunikat Komisji z dnia 7 grudnia 2018 r. w sprawie skoordynowanego planu w dziedzinie sztucznej inteligencji (COM(2018)0795),
- uwzględniając komunikat Komisji z dnia 8 kwietnia 2019 r. w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka (COM(2019)0168),
- uwzględniając sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno- Społecznego z dnia 19 lutego 2020 r. na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność (COM(2020)0064),
- uwzględniając Białą księgę Komisji Europejskiej z dnia 19 lutego 2020 r. pt. "Sztucznej inteligencja - Europejskie podejście do doskonałości i zaufania" (COM(2020)0065),
- uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki 8 ,
- uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu 9 ,
- uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia 10 ,
- uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki 11 ,
- uwzględniając swoją rezolucję z dnia 12 lutego 2020 r. w sprawie zautomatyzowanych procesów decyzyjnych - zagwarantowanie ochrony konsumenta oraz swobodnego przepływu towarów i usług 12 ,
- uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. "Wytyczne w zakresie etyki na rzecz wiarygodnej sztucznej inteligencji",
- uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. "Definicja sztucznej inteligencji: podstawowe możliwości i dziedziny zastosowania",
- uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 26 czerwca 2019 r. pt. "Zalecenia polityczne i inwestycyjne na rzecz wiarygodnej sztucznej inteligencji",
- uwzględniając sprawozdanie grupy ekspertów ds. odpowiedzialności i nowych technologii - Forum Nowych Technologii z 21 listopada 2019 r. pt. "Odpowiedzialność w związku ze sztuczną inteligencją i innymi rozwijającymi się technologiami cyfrowymi",
- uwzględniając studium w sprawie oceny europejskiej wartości dodanej przygotowane przez Biuro Analiz Parlamentu Europejskiego, zatytułowane: 'Civil liability regime for artificial intelligence: European added value assessment' ("System odpowiedzialności cywilnej za sztuczną inteligencję: ocena europejskiej wartości dodanej" 13
- uwzględniając dokument tematyczny Zespołu Parlamentu Europejskiego ds. Przyszłości Nauki i Techniki (STOA) z czerwca 2016 r. dotyczący aspektów prawnych i etycznych w związku z robotyką 14 ,
- uwzględniając analizę Dyrekcji Generalnej ds. Polityki Wewnętrznej Parlamentu Europejskiego z października 2016 r., przygotowaną dla Komisji Prawnej, pt. "Przepisy europejskiego prawa cywilnego w robotyce" 15 ,
- uwzględniając art. 47 i 54 Regulaminu,
- uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Transportu i Turystyki,
- uwzględniając sprawozdanie Komisji Prawnej (A9-0178/2020),
A. mając na uwadze, że pojęcie "odpowiedzialności" odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż - z jednej strony - gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wniesienia roszczenia o odszkodowanie i do uzyskania odszkodowania od strony, której udowodniono, że ponosi odpowiedzialność za wyrządzone szkody, zaś - z drugiej strony - stanowi zachętę ekonomiczną dla osób fizycznych i prawnych, by przede wszystkim unikać wyrządzania szkód lub uwzględniać w swoim działaniu konieczność wypłacenia odszkodowania;
B. mając na uwadze, że przyszłościowe ramy prawne odpowiedzialności cywilnej muszą wzbudzać zaufanie do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym do technologii cyfrowej, aby zapewnić równowagę między skuteczną i sprawiedliwą ochroną potencjalnych poszkodowanych a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić przedsiębiorstwom, w szczególności małym i średnim, rozwój nowych technologii, produktów i usług; mając na uwadze, że pomoże to w budowie zaufania i tworzeniu stabilnego
C. mając na uwadze, że system prawny państwa członkowskiego może różnicować zasady dotyczące odpowiedzialności pewnych podmiotów lub zaostrzać je w stosunku do pewnych działań; mając na uwadze, że odpowiedzialność na zasadzie ryzyka oznacza, że strona może zostać pociągnięta do odpowiedzialności pomimo braku winy; mając na uwadze, że w wielu krajowych systemach prawnych oskarżony ponosi odpowiedzialność na zasadzie ryzyka, jeżeli stworzone przez niego zagrożenie dla ogółu społeczeństwa, takie jak związane z wykorzystaniem pojazdu czy niebezpiecznym działaniem, lub też takie, którego nie może on kontrolować, np. przykład wynikające z zachowania zwierząt, powoduje szkodę;
D. mając na uwadze, że wszelkie przyszłe prawodawstwo Unii mające za cel jednoznaczne przypisanie odpowiedzialności w odniesieniu do systemów sztucznej inteligencji (SI) powinny być poprzedzone analizą i konsultacjami z państwami członkowskimi w sprawie zgodności proponowanego aktu ustawodawczego z warunkami gospodarczymi, prawnymi i społecznymi;
E. mając na uwadze, że zagadnienie systemu odpowiedzialności cywilnej za SI powinno być przedmiotem szerokiej debaty publicznej uwzględniającej wszystkie niezbędne interesy, zwłaszcza aspekty etyczne, prawne, gospodarcze i społeczne, aby uniknąć nieporozumień i nieuzasadnionych obaw, jakie technologia ta może wywołać wśród obywateli; mając na uwadze, że dokładna analiza następstw wszelkich nowych ram regulacyjnych dla wszystkich podmiotów uczestniczących w ocenie skutków powinna być warunkiem wstępnym dla dalszych kroków legislacyjnych;
F. mając na uwadze, że pojęcie systemów SI obejmuje dużą grupę różnych technologii, w tym proste statystyki, uczenie się maszyn i głębokie uczenie maszynowe;
G. mając na uwadze, że dzięki używaniu terminu "zautomatyzowane podejmowanie decyzji" można by uniknąć ewentualnej niejednoznaczności terminu SI; mając na uwadze, że "zautomatyzowane podejmowanie decyzji" polega na wstępnym przeniesieniu przez użytkownika podjęcia decyzji, w części lub w całości, na inny podmiot w drodze korzystania z oprogramowania lub usługi; mając na uwadze, że z kolei podmiot ten stosuje następnie modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub informowania o decyzjach użytkownika dotyczących realizacji działania;
H. mając na uwadze, że niektóre systemy SI stanowią istotne wyzwanie prawne dla obowiązujących ram prawnych w zakresie odpowiedzialności i mogą prowadzić do sytuacji, w których brak ich przejrzystości może sprawić, że wskazanie, kto kontrolował ryzyko związane z systemem SI czy też który kod, które dane wejściowe lub dane ostatecznie wywołały szkodliwe działanie, może okazać się bardzo drogie lub niemożliwe; mając na uwadze, że ten czynnik może utrudniać ustalenie powiązania między szkodą a powodującym ją zachowaniem, przez co ofiary mogą nie otrzymać odpowiedniego odszkodowania;
I. mając na uwadze, że te wyzwania prawne wynikają też z powiązań między danym systemem SI a innymi systemami, w tym systemami SI, z ich zależności od danych zewnętrznych, podatności na naruszenia cyberbezpieczeństwa, jak również projektowania coraz bardziej autonomicznych systemów SI z wykorzystaniem m.in. uczenia się maszyn i technik głębokiego uczenia maszynowego;
J. mając na uwadze, że surowe normy etyczne w odniesieniu do systemów SI powiązane z rozsądnymi i sprawiedliwymi procedurami rekompensowania szkód pomagają zająć się tymi wyzwaniami prawnymi i wyeliminować ryzyko, że użytkownicy będą mniej skłonni do zaakceptowania nowej technologii; mając na uwadze, że sprawiedliwe procedury odszkodowawcze oznaczają, że każda osoba, która ucierpiała w wyniku działania systemu SI lub poniosła szkody majątkowe w wyniku działania takiego systemu, powinna korzystać z tego samego poziomu ochrony, który przysługiwałby w przypadkach bez udziału systemów SI; mając na uwadze, że użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące SI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń;
K. mając na uwadze, że pewność prawa jest również zasadniczym warunkiem dynamicznego opracowywania i unowocześniania technologii opartych na SI, w szczególności dla przedsiębiorstw typu startup, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, oraz ich praktycznego zastosowania w życiu codziennym; mając na uwadze, że kluczowa rola przedsiębiorstw typu startup, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, zwłaszcza w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne, umożliwiające im rozwój i innowacyjność;
L. mając na uwadze, że różnorodność systemów SI i zróżnicowanie zakresu zagrożeń, jakie stwarza ta technologia, utrudnia wysiłki na rzecz znalezienia jednego rozwiązania odpowiedniego dla całego spektrum zagrożeń; mając na uwadze, że w związku z tym należy przyjąć podejście, w ramach którego eksperymenty, projekty pilotażowe i piaskownice regulacyjne będą wykorzystywane do opracowywania proporcjonalnych rozwiązań opartych na dowodach, w razie potrzeby uwzględniających konkretne sytuacje i sektory;
Wprowadzenie
1. wyraża przekonanie, że wyzwanie związane z wprowadzeniem systemów SI w społeczeństwie, miejscu pracy i gospodarce jest obecnie jedną z najważniejszych kwestii w działaniach politycznych; technologie oparte na SI mogłyby i powinny poprawić jakość życia w niemal każdej sferze: od życia osobistego, obejmującego np. transport, dostosowaną do potrzeb danej osoby edukację, pomoc osobom znajdującym się w trudnej sytuacji, programy w zakresie fitnessu i przyznawanie kredytów, poprzez środowisko pracy, np. uwolnienie od uciążliwych i powtarzających się zadań, po wyzwania globalne, takie jak zmiana klimatu, opieka zdrowotna, żywienie czy logistyka;
2. jest głęboko przekonany, że aby skutecznie korzystać z zalet systemów SI, przeciwdziałać ich potencjalnemu nadużywaniu i zapobiegać fragmentacji regulacyjnej w Unii, zasadnicze znaczenie ma przyjęcie w całej UE jednolitego prawodawstwa w zakresie wszelkich systemów SI, opartego na konkretnych zasadach i nieulegającego dezaktualizacji; stoi na stanowisku, że choć lepsze wydają się sektorowe przepisy dla szerokiego wachlarza możliwych zastosowań SI, konieczne wydaje się przyjęcie przekrojowych i ujednoliconych ram prawnych opierających się na powszechnych zasadach, by zagwarantować pewność prawa, ustanowić te same normy w całej Unii i skutecznie chronić wartości europejskie i prawa obywateli;
3. stwierdza, że jednolity rynek cyfrowy wymaga pełnej harmonizacji, ponieważ sfera cyfrowa charakteryzuje się bardzo zmienną dynamiką ponadgraniczną i międzynarodowym przepływem danych; uważa, że jedynie poprzez przyjęcie spójnych, powszechnych zasad Unia może osiągnąć cele utrzymania suwerenności cyfrowej i przyspieszenia innowacji cyfrowych w Europie w zgodzie z kulturą innowacji;
4. zauważa, że globalny wyścig ku sztucznej inteligencji już trwa, a Unia powinna odegrać w nim czołową rolę, wykorzystując swój potencjał naukowy i technologiczny; zdecydowanie podkreśla, że rozwój technologii nie może osłabiać ochrony użytkowników przed szkodami, które mogą być powodowane przez urządzenia i systemy wykorzystujące SI; zachęca do promowania unijnych norm odpowiedzialności cywilnej na szczeblu międzynarodowym;
5. wyraża stanowcze przeświadczenie, że nowe, powszechne zasady dotyczące systemów sztucznej inteligencji powinny przyjąć formę rozporządzenia; uważa, że kwestia odpowiedzialności w odniesieniu do szkód spowodowanych przez system SI jest jednym z kluczowych aspektów, którymi należy się zająć w ramach tych przepisów;
Odpowiedzialność a sztuczna inteligencja
6. wyraża przekonanie, że nie ma potrzeby dokonywać całkowitego przeglądu dobrze funkcjonujących systemów odpowiedzialności, ale że złożoność, zdolność do łączenia się, nieprzejrzystość, podatność na zagrożenia, możliwość modyfikowania w drodze aktualizacji, możliwość samodzielnego uczenia się, potencjalna autonomiczność systemów SI i duża liczba zaangażowanych podmiotów stanowią jednak poważne wyzwanie dla skuteczności krajowych i unijnych przepisów ramowych dotyczących odpowiedzialności; uważa, że niezbędne są konkretne i skoordynowane dostosowania systemów odpowiedzialności, by uniknąć sytuacji, w której osoba, która ucierpiała lub poniosła szkody majątkowe, nie otrzyma rekompensaty;
7. zauważa, że wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego; zauważa w tym względzie, że nie jest konieczne nadawanie systemom SI osobowości prawnej; wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów SI może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów SI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe; przypomina, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem SI;
8. uważa, że dyrektywa w sprawie odpowiedzialności za produkty jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt, ale mimo to potrzebny jest jej przegląd w celu dostosowania jej do świata cyfrowego i sprostania wyzwaniom związanym z powstającymi technologiami cyfrowymi, zapewniając tym samym wysoki poziom skutecznej ochrony konsumentów, a także pewność prawa dla konsumentów i przedsiębiorstw przy jednoczesnym unikaniu wysokich kosztów i ryzyka dla MŚP i przedsiębiorstw typu startup; wzywa Komisję, aby oceniła, czy dyrektywę w sprawie odpowiedzialności za produkty należy przekształcić w rozporządzenie, wyjaśniła definicję "produktów", określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak "szkoda", "wada" i "producent"; jest zdania, że w celu zagwarantowania pewności prawa w całej Unii w następstwie przeglądu dyrektywy w sprawie odpowiedzialności za produkty pojęcie "producenta" powinno obejmować wytwórców, twórców, programistów, usługodawców i operatorów back-end; wzywa Komisję, aby rozważyła uchylenie przepisów dotyczących ciężaru dowodu w odniesieniu do szkód spowodowanych przez pojawiające się technologie cyfrowe w jasno określonych przypadkach i po odpowiedniej ocenie; podkreśla, że należy zadbać o to, by uaktualniony unijny akt nadal ograniczał się do jasno określonych problemów, w przypadku których istnieją już wykonalne rozwiązania, i jednocześnie pozwalał na uwzględnienie przyszłych zmian technologicznych, w tym rozwoju opartego na wolnym i otwartym oprogramowaniu; zauważa, że dyrektywę w sprawie odpowiedzialności za produkty należy nadal stosować w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej producenta wadliwego systemu SI, jeżeli system taki można uznać za produkt w rozumieniu tej dyrektywy; podkreśla, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów 16 , aby mieć pewność, że w systemach SI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania;
9. uważa, że obowiązujące w państwach członkowskich prawo deliktów opierające się na winie w większości przypadków przewiduje odpowiedni poziom ochrony osób, które ucierpiały z uwagi na fakt, że strona trzecia, taka jak haker, ingerowała w system, lub które poniosły szkody majątkowe w wyniku działania takiej osoby, ponieważ ingerencja stanowi zazwyczaj zawinione działanie; zauważa, że jedynie w szczególnych przypadkach, w tym kiedy nie można wykryć tej osoby trzeciej lub jest ona niewypłacalna, konieczne wydaje się dodanie przepisów dotyczących odpowiedzialności w celu uzupełnienia istniejącego krajowego prawa deliktów;
10. uważa zatem za stosowne, by w niniejszym sprawozdaniu skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI; potwierdza, że odpowiedzialność operatora można uzasadnić faktem, że kontroluje on ryzyko związane z systemem SI porównywalne z ryzykiem kontrolowanym przez właściciela pojazdu; uważa, że ze względu na złożoność systemów SI oraz ich zdolność do połączeń operator będzie w wielu przypadkach pierwszą, identyfikowalną osobą kontaktową dla poszkodowanego;
Odpowiedzialność operatora
11. stoi na stanowisku, że zasady odpowiedzialności dotyczące operatora powinny obejmować wszelkie działania systemów SI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny czy wirtualny; zauważa, że działania w przestrzeni publicznej, które narażają wiele osób na zagrożenie, wymagają dalszych rozważań; uważa, że potencjalni poszkodowani często nie są świadomi działania systemu i często nie mieliby umów, które dawałyby im prawo do zgłaszania roszczeń wobec operatora; zauważa, że w momencie gdy dojdzie do szkody, osoby takie mogłyby zgłaszać tylko roszczenia na zasadzie winy, a dowiedzenie winy operatora systemu SI mogłoby okazać się trudne i tym samym odpowiednie roszczenia z tytułu odpowiedzialności spełzłyby na niczym;
12. uważa, że pojęcie operatora należy rozumieć jako obejmujące zarówno operator front-end, jak i operator back-end, o ile ten drugi nie jest objęty dyrektywą w sprawie odpowiedzialności za produkty; uważa, że operatora front-end należy zdefiniować jako osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu SI i korzysta z jego działania; stwierdza, że operatora back-end należy zdefiniować jako osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że sprawowanie kontroli należy rozumieć jako dowolne działanie operatora, które wpływa na działanie systemu SI, a tym samym na zakres, w jakim naraża on osoby trzecie na zagrożenia z nim związane; uważa, że takie działania mogłyby wpływać na działanie systemu SI od początku do końca przez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy systemu SI;
13. zauważa, że może dojść do sytuacji, w których mamy do czynienia z większą liczbą operatorów, na przykład z operatorem front-end i back-end; uważa, że w takim przypadku wszystkie podmioty powinny ponosić solidarną odpowiedzialność na zasadzie ryzyka, mając przy tym prawo do proporcjonalnego regresu wobec siebie nawzajem; jest zdania, że proporcje odpowiedzialności powinny być ustalane na podstawie odpowiedniego stopnia kontroli operatorów nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że należy poprawić identyfikowalność produktów, aby móc lepiej wskazywać podmioty zaangażowane na różnych etapach;
Różne zasady odpowiedzialności zależnie od rodzaju ryzyka
14. uznaje, że czynnikiem determinującym odpowiedzialność jest rodzaj systemu SI, nad którym sprawuje kontrolę dany operator; zauważa, że system SI, który z natury wiąże się ze znacznym ryzykiem i działa autonomicznie, potencjalnie zagraża ogółowi społeczeństwa w znacznie większym stopniu; uważa, że w obliczu wyzwań prawnych wynikających ze stosowania systemów SI dla obowiązujących systemów odpowiedzialności cywilnej wydaje się zasadne stworzenie powszechnego surowego systemu odpowiedzialności dla tych autonomicznych systemów SI obarczonych wysokim ryzykiem; podkreśla, że takie podejście oparte na ryzyku, które może obejmować kilka poziomów ryzyka, powinno opierać się na jasnych kryteriach i odpowiedniej definicji wysokiego ryzyka oraz zapewniać pewność prawa;
15. wyraża przekonanie, że system SI stanowi poważne ryzyko, gdy jego autonomiczne działanie wiąże się ze znaczącym potencjałem wyrządzenia szkód jednej osobie lub grupie osób w sposób losowy i wykraczający poza to, czego można zasadnie oczekiwać; wyraża przekonanie, że przy ustalaniu, czy system SI jest obarczony wysokim ryzykiem, pod uwagę należy również wziąć branżę, w której można oczekiwać wystąpienia znacznego ryzyka, a także charakter prowadzonej działalności; wyraża przekonanie, że znaczenie tego potencjału zależy od wzajemnego stosunku między powagą ewentualnej szkody, prawdopodobieństwem zaistnienia szkody i sposobem użycia systemu SI;
16. zaleca, by wszystkie systemy SI obarczone wysokim ryzykiem zostały umieszczone w wyczerpującym załączniku do proponowanego rozporządzenia; biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę w zakresie technologii, Komisja powinna przeprowadzić niezwłocznie przegląd tego załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności uaktualnić go w drodze aktu delegowanego; uważa, że Komisja powinna ściśle współpracować z niedawno utworzonym komitetem stałym, podobnym do istniejących już struktur, a mianowicie Stałego Komitetu ds. Prekursorów czy Komitetu Technicznego ds. Pojazdów Silnikowych, które skupiają ekspertów krajowych z państw członkowskich i inne zainteresowane podmioty; uważa, że zrównoważona reprezentacja w grupie ekspertów wysokiego szczebla ds. sztucznej inteligencji może posłużyć za przykład do utworzenia grupy zainteresowanych podmiotów, w skład której wejdą również eksperci w dziedzinie etyki, a także antropolodzy, socjolodzy i specjaliści ds. zdrowia psychicznego; wyraża również opinię, że Parlament Europejski powinien wyznaczyć ekspertów-konsultantów, którzy będą doradzać niedawno ustanowionemu komitetowi stałemu;
17. uważa, że rozwój technologii opartych na SI jest bardzo dynamiczny i stale przyspiesza; podkreśla, że aby zapewnić użytkownikom odpowiednią ochronę, konieczne jest podejście przyspieszone pozwalające analizować pod kątem potencjalnych zagrożeń nowe urządzenia i systemy wykorzystujące systemy SI, które pojawiają się na rynku europejskim; zaleca jak największe uproszczenie wszystkich procedur w tym zakresie; sugeruje ponadto, aby Komisja rozpoczynała ocenę tego, czy system SI stwarza wysokie ryzyko, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako obarczony wysokim ryzykiem i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej;
18. uważa, że Komisja powinna ocenić, w jaki sposób dane gromadzone, rejestrowane lub przechowywane w systemach SI wysokiego ryzyka do celów gromadzenia dowodów w przypadku szkody spowodowanej przez ten system SI mogłyby być udostępniane i wykorzystywane przez organ dochodzeniowy oraz w jaki sposób można poprawić identyfikowalność i możliwość kontrolowania takich danych przy jednoczesnym uwzględnianiu praw podstawowych i prawa do prywatności;
19. uważa, że zgodnie z surowymi systemami odpowiedzialności w państwach członkowskich proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń; jest zdania, że proponowane rozporządzenie powinno również obejmować poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób; wzywa Komisję do ponownej oceny i dostosowania progów szkód w prawie Unii; jest zdania, że Komisja powinna dogłębnie przeanalizować tradycje prawne we wszystkich państwach członkowskich oraz obowiązujące w nich przepisy krajowe przyznające rekompensatę za szkody niematerialne, aby ocenić, czy włączenie szkód niematerialnych do aktów ustawodawczych dotyczących SI jest konieczne oraz czy jest ono sprzeczne z obowiązującymi ramami prawnymi Unii lub narusza prawo krajowe państw członkowskich;
20. wskazuje, że wszelkie działania sterowane systemami sztucznej inteligencji, urządzenia czy procesy wykorzystujące te systemy, które powodują szkody, ale nie zostały wymienione w załączniku do proponowanego rozporządzenia powinny nadal być objęte odpowiedzialnością na zasadzie winy; uważa, że poszkodowany powinien mieć jednak prawo do domniemania winy operatora, który powinien mieć możliwość uwolnienia się od odpowiedzialności przez udowodnienie, że wywiązał się z obowiązku staranności;
21. uważa, że system SI, który nie został jeszcze oceniony przez Komisję i nowo utworzony stały komitet, a zatem nie jest jeszcze sklasyfikowany jako system wysokiego ryzyka i nie znajduje się w wykazie zawartym w załączniku do proponowanego rozporządzenia, powinien jednak, w drodze wyjątku od systemu przewidzianego w ust. 20, podlegać odpowiedzialności na zasadzie ryzyka, jeżeli spowodował powtarzające się incydenty skutkujące poważnymi szkodami; zauważa, że w takim przypadku Komisja powinna również bez zbędnej zwłoki ocenić potrzebę zmiany tego załącznika w celu dodania tego systemu SI do wykazu; jest zdania, że jeżeli w wyniku tej oceny Komisja podejmie decyzję o umieszczeniu tego systemu SI w wykazie, włączenie to powinno mieć moc wsteczną od momentu pierwszego udowodnionego incydentu spowodowanego przez ten system SI, w wyniku którego doszło do poważnych szkód;
22. wzywa Komisję, aby oceniła potrzebę wprowadzenia przepisów prawnych na szczeblu Unii dotyczących umów w celu zapobiegania klauzulom o braku odpowiedzialności umownej, w tym w relacjach między przedsiębiorstwami i między przedsiębiorstwami a administracją;
Ubezpieczenia a systemy sztucznej inteligencji
23. uważa, że pokrycie zobowiązań z tytułu odpowiedzialności jest kluczowym czynnikiem, który stanowi o sukcesie nowych technologii, produktów i usług; zauważa, że prawidłowe podejście do odpowiedzialności ma również zasadnicze znaczenie dla zadbania o to, by ogół społeczeństwa mógł zaufać nowym technologiom pomimo faktu, że potencjalnie można w związku z nimi ucierpieć lub też że poszkodowany może wystąpić z roszczeniami; odnotowuje jednocześnie, że ten system regulacyjny skupia się na potrzebie wykorzystania i wzmocnienia korzyści oferowanych przez systemy SI przy jednoczesnym wprowadzeniu solidnych zabezpieczeń;
24. jest zdania, że ze względu na znaczny potencjał spowodowania szkody oraz uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2009/103/WE z dnia 16 września 2009 r. w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych i egzekwowania obowiązku ubezpieczania od takiej odpowiedzialności 17 , wszyscy operatorzy systemów SI obarczonych wysokim ryzykiem wymienieni w załączniku do proponowanego rozporządzenia powinni posiadać ubezpieczenie od odpowiedzialności cywilnej; uważa, że taki system obowiązkowych ubezpieczeń dla obarczonych wysokim ryzykiem systemów SI powinien pokrywać odszkodowania w kwocie i zakresie, które wynikają z proponowanego rozporządzeniu; jest świadomy, że taka technologia jest obecnie nadal bardzo rzadka, ponieważ zakłada wysoki stopień autonomicznego podejmowania decyzji, oraz że obecne dyskusje dotyczą głównie przyszłości; uważa jednak, że niepewność dotycząca zagrożeń nie powinna powodować, że składki ubezpieczeniowe będą zbyt wysokie, a tym samym będą stanowić przeszkodę dla badań i innowacji;
25. uważa, że unijny mechanizm odszkodowawczy finansowany ze środków publicznych nie jest właściwym sposobem na usuwanie ewentualnych niedociągnięć systemów ubezpieczeniowych; uważa, że brak danych na temat ryzyka związanego z systemami SI w połączeniu z niepewnością dotyczącą wydarzeń w przyszłości utrudnia sektorowi ubezpieczeń opracowanie dostosowanych lub nowych produktów ubezpieczeniowych; uważa, że pozostawienie opracowania obowiązkowego ubezpieczenia wyłącznie w gestii rynku może doprowadzić do przyjęcia jednego uniwersalnego podejścia charakteryzującego się nieproporcjonalnie wysokimi cenami i niewłaściwymi zachętami, co zachęci operatorów do wybierania najtańszego, a nie najlepszego ubezpieczenia i może stać się przeszkodą dla badań i innowacji; uważa, że Komisja powinna ściśle współpracować z sektorem ubezpieczeń, aby sprawdzić, jak wykorzystać dane i innowacyjne modele do stworzenia polis ubezpieczeniowych oferujących odpowiednią ochronę za przystępną cenę;
Kwestie końcowe
26. zwraca się do Komisji o przedłożenie, na podstawie art. 225 Traktatu o funkcjonowaniu Unii Europejskiej, wniosku dotyczącego rozporządzenia w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji w oparciu o zalecenia przedstawione w załączniku do niniejszej rezolucji;
27. uważa, iż wspomniany wniosek nie pociągnie za sobą skutków finansowych;
o
o o
28. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz zaleceń zawartych w załączniku Komisji i Radzie.
Od 18 kwietnia policja oraz żandarmeria wojskowa będą mogły karać tych, którzy bez zezwolenia m.in. fotografują i filmują szczególnie ważne dla bezpieczeństwa lub obronności państwa obiekty resortu obrony narodowej, obiekty infrastruktury krytycznej oraz ruchomości. Obiekty te zostaną specjalnie oznaczone.
17.04.2025Kompleksową modernizację instytucji polskiego rynku pracy poprzez udoskonalenie funkcjonowania publicznych służb zatrudnienia oraz form aktywizacji zawodowej i podnoszenia umiejętności kadr gospodarki przewiduje podpisana w czwartek przez prezydenta Andrzeja Dudę ustawa z dnia 20 marca 2025 r. o rynku pracy i służbach zatrudnienia. Ustawa, co do zasady, wejdzie w życie pierwszego dnia miesiąca następującego po upływie 14 dni od dnia ogłoszenia.
11.04.2025Prezydent Andrzej Duda podpisał ustawę o warunkach dopuszczalności powierzania pracy cudzoziemcom na terytorium Rzeczypospolitej Polskiej. Jej celem jest ograniczenie występujących nadużyć, usprawnienie procedur dotyczących powierzania pracy cudzoziemcom, zmniejszenie zaległości załatwiania spraw przez urzędy oraz pełna elektronizacja postępowań. Nowe przepisy wejdą w życie pierwszego dnia miesiąca następującego po upływie 14 dni od dnia ogłoszenia.
11.04.2025500 zł zarobi członek obwodowej komisji wyborczej w wyborach Prezydenta RP, 600 zł - zastępca przewodniczącego, a 700 zł przewodniczący komisji wyborczej – wynika z uchwały Państwowej Komisji Wyborczej. Jeżeli odbędzie się ponownie głosowanie, zryczałtowana dieta wyniesie 75 proc. wysokości diety w pierwszej turze. Termin zgłaszania kandydatów na członków obwodowych komisji wyborczych mija 18 kwietnia
10.04.2025Kobiety i mężczyźni z innych roczników są w nieco innej sytuacji niż emerytki z rocznika 1953. Dowiedzieli się bowiem o zastosowaniu do nich art. 25 ust. 1b ustawy emerytalnej znacznie wcześniej, bo od 2 do ponad 6 lat przed osiągnięciem powszechnego wieku emerytalnego - przekonywał w Sejmie Sebastian Gajewski, wiceszef resortu pracy. Zdaniem prawników, ministerstwo celowo różnicuje sytuację wcześniejszych emerytów, by dla pozostałych roczników wprowadzić mniej korzystne rozwiązania niż dla rocznika 1953.
08.04.2025Sejm uchwalił w piątek ustawę, która obniża składkę zdrowotną dla przedsiębiorców. Zmiana, która wejdzie w życie 1 stycznia 2026 roku, ma kosztować budżet państwa 4,6 mld zł. Według szacunków Ministerstwo Finansów na reformie ma skorzystać około 2,5 mln przedsiębiorców. Teraz ustawa trafi do Senatu.
04.04.2025Identyfikator: | Dz.U.UE.C.2021.404.107 |
Rodzaj: | Rezolucja |
Tytuł: | Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)). |
Data aktu: | 20/10/2020 |
Data ogłoszenia: | 06/10/2021 |