Poprawka 1 Wniosek dotyczący rozporządzenia Umocowanie 4 a (nowe)
Tekst proponowany przez Komisję |
Poprawka |
|
uwzględniając opinię Europejskiego Banku Centralnego, |
Poprawka 2
Wniosek dotyczący rozporządzenia
Umocowanie 4 b (nowe)
Tekst proponowany przez Komisję |
Poprawka |
|
uwzględniając wspólną opinię wydaną przez Europejską Radę Ochrony Danych i Europejskiego Inspektora Ochrony Danych, |
Poprawka 3
Wniosek dotyczący rozporządzenia
Motyw 1
Tekst proponowany przez Komisję |
Poprawka |
(1) Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu i wykorzystywania sztucznej inteligencji zgodnie z wartościami Unii. Niniejsze rozporządzenie służy realizacji szeregu nadrzędnych celów interesu publicznego, takich jak wysoki poziom ochrony zdrowia, bezpieczeństwa i praw podstawowych, oraz zapewnia swobodny przepływ trans- graniczny towarów i usług opartych na sztucznej inteligencji, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń w zakresie opracowywania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji, chyba że wyraźnie zezwolono na to w niniejszym rozporządzeniu. |
(1) Celem niniejszego rozporządzenia jest promowanie upowszechniania ukierunkowanej na człowieka i godnej zaufania sztucznej inteligencji oraz zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych, demokracji i praworządności oraz środowiska przed szkodliwymi skutkami systemów sztucznej inteligencji w Unii, przy jednoczesnym wspieraniu innowacji i poprawie funkcjonowania rynku wewnętrznego. Niniejsze rozporządzenie ustanawia jednolite ramy prawne, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania sztucznej inteligencji zgodnie z wartościami Unii, oraz zapewnia swobodny przepływ transgraniczny towarów i usług opartych na sztucznej inteligencji, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń w zakresie opracowywania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji, chyba że wyraźnie zezwolono na to w niniejszym rozporządzeniu. Niektóre systemy sztucznej inteligencji mogą mieć też wpływ na demokrację, praworządność i środowisko. Obawy te zostały w szczególności uwzględnione w sektorach krytycznych i przypadkach użycia wymienionych w załącznikach do niniejszego rozporządzenia. |
Poprawka 4
Wniosek dotyczący rozporządzenia
Motyw 1 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(1a) Niniejsze rozporządzenie powinno chronić wartości Unii, ułatwić dystrybucję korzyści płynących ze sztucznej inteligencji w społeczeństwie, chronić osoby fizyczne, przedsiębiorstwa, demokrację, praworządność i środowisko przed zagrożeniami, a jednocześnie pobudzać innowacje i zatrudnienie oraz uczynić Unię liderem w tej dziedzinie. |
Poprawka 5
Wniosek dotyczący rozporządzenia
Motyw 2
Tekst proponowany przez Komisję |
Poprawka |
(2) Systemy sztucznej inteligencji mogą być łatwo wdrażane w wielu sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie rozważały już przyjęcie przepisów krajowych w celu zapewnienia, aby sztuczna inteligencja była bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i zmniejszenia pewności prawa dla operatorów, którzy opracowują lub wykorzystują systemy sztucznej inteligencji. Należy zatem zapewnić spójny i wysoki poziom ochrony w całej Unii, zapobiegając jednocześnie rozbieżnościom utrudniającym swobodny obrót systemami sztucznej inteligencji oraz powiązanymi produktami i usługami na rynku wewnętrznym poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym, w oparciu o art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE). W zakresie, w jakim niniejsze rozporządzenie zawiera określone przepisy szczegółowe dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczegółowych powinien być art. 16 TFUE. W świetle tych przepisów szczegółowych i odwołania się do art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych. |
(2) Systemy sztucznej inteligencji mogą być łatwo wdrażane w wielu sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie rozważały już przyjęcie przepisów krajowych w celu zapewnienia, aby sztuczna inteligencja była bezpieczna i wiarygodna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i zmniejszenia pewności prawa dla operatorów, którzy opracowują lub wykorzystują systemy sztucznej inteligencji. Aby osiągnąć wiarygodną sztuczną inteligencję należy zatem zapewnić spójny i wysoki poziom ochrony w całej Unii, zapobiegając jednocześnie rozbieżnościom utrudniającym swobodny obrót systemami sztucznej inteligencji oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniającym innowacje w zakresie systemów sztucznej inteligencji oraz ich wdrażanie i rozpowszechnianie poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym, w oparciu o art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE). |
Poprawka 6
Wniosek dotyczący rozporządzenia
Motyw 2 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(2a) Ponieważ sztuczna inteligencja często bazuje na przetwarzaniu dużych ilości danych, a wiele systemów i zastosowań sztucznej inteligencji - na przetwarzaniu danych osobowych, niniejsze rozporządzenie należy oprzeć na art. 16 TFUE, w którym zapisano prawo do ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i przewidziano przyjęcie przepisów o ochronie osób fizycznych w związku z przetwarzaniem danych osobowych. |
Poprawka 7
Wniosek dotyczący rozporządzenia
Motyw 2 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(2b) Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywę 2016/680. Dyrektywa 2002/58/WE dodatkowo chroni życie prywatne i poufność komunikacji, w tym określa warunki przechowywania wszelkich danych osobowych i nieosobowych w urządzeniach końcowych i dostępu do nich. Te akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, np. kiedy zbiory danych zawierają mieszankę danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. Niniejsze rozporządzenie nie ma wpływu na prawa podstawowe do życia prywatnego i ochrony danych osobowych przewidziane w prawie Unii dotyczącym ochrony danych i prywatności oraz zapisane w Karcie praw podstawowych Unii Europejskiej (Karta). |
Poprawka 8
Wniosek dotyczący rozporządzenia
Motyw 2 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(2c) Systemy sztucznej inteligencji w Unii podlegają odpowiednim przepisom o bezpieczeństwie produktów, które ogólnie zapewniają ramy ochrony konsumentów przed produktami niebezpiecznymi, i takie przepisy powinny nadal obowiązywać. Niniejsze rozporządzenie nie narusza też przepisów innych aktów prawnych Unii, które dotyczą ochrony konsumentów i bezpieczeństwa produktów, w tym rozporządzenia (UE) 2017/2394, rozporządzenia (UE) 2019/1020, dyrektywy 2001/95/WE w sprawie ogólnego bezpieczeństwa produktów i dyrektywy 2013/11/UE. |
Poprawka 9
Wniosek dotyczący rozporządzenia
Motyw 2 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(2d) Zgodnie z art. 114 ust. 2 TFUE niniejsze rozporządzenie uzupełnia prawa i interesy pracowników i nie powinno ich osłabiać. Niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy i krajowe praktyki pracownicze, tj. na żadne przepisy ani postanowienia umowne dotyczące warunków zatrudnienia, warunków pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami, które obejmują informowanie, konsultacje i uczestnictwo. Niniejsze rozporządzenie nie powinno mieć wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na szczeblu Unii, w tym z prawa do strajku czy swobody podejmowania strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, zgodnie z krajowym ustawodawstwem lub krajową praktyką. Nie powinno ono również wpływać na praktyki uzgodnione, prawo do negocjowania, zawierania i egzekwowania umów zbiorowych i podejmowania działań zbiorowych w oparciu o krajowe prawo lub praktykę. W żadnym wypadku nie powinno też uniemożliwiać Komisji zaproponowania szczegółowych przepisów dotyczących praw i wolności pracowników, na których mają wpływ systemy sztucznej inteligencji. |
Poprawka 10
Wniosek dotyczący rozporządzenia
Motyw 2 e (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(2e) Niniejsze rozporządzenie nie powinno mieć wpływu na określone w dyrektywie ... [COD 2021/414/WE] przepisy mające na celu poprawę warunków pracy za pośrednictwem platform internetowych. |
Poprawka 11
Wniosek dotyczący rozporządzenia
Motyw 2 f (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(2f) Niniejsze rozporządzenie powinno pomóc we wspieraniu badań i innowacji, powinno zapewniać poszanowanie wolności badań naukowych i nie powinno osłabiać działalności badawczej i rozwojowej. Należy zatem wyłączyć z zakresu rozporządzenia systemy sztucznej inteligencji opracowane wyłącznie do celów badań naukowych i rozwoju oraz zagwarantować, że rozporządzenie nie będzie w inny sposób wpływało na działalność badawczą i rozwojową w zakresie systemów sztucznej inteligencji. Bez względu na okoliczności wszelką działalność badawczą i rozwojową należy prowadzić zgodnie z Kartą, prawem Unii i prawem krajowym. |
Poprawka 12
Wniosek dotyczący rozporządzenia
Motyw 3
Tekst proponowany przez Komisję |
Poprawka |
(3) Sztuczna inteligencja to szybko rozwijająca się grupa technologii, które mogą przyczyniać się do wielu różnych korzyści społecznoekonomicznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Rozwiązania bazujące na sztucznej inteligencji umożliwiają lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, mają potencjał, aby zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wspierać wyniki korzystne z punktu widzenia kwestii społecznych i ochrony środowiska, na przykład w zakresie opieki zdrowotnej, rolnictwa, kształcenia i szkolenia, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej oraz łagodzenia zmiany klimatu i przystosowywania się do niej. |
(3) Sztuczna inteligencja to szybko rozwijająca się grupa technologii, które mogą przyczyniać się i już przyczyniają się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej, jeżeli będzie ona rozwijana zgodnie z ogólnymi zasadami kompatybilnymi z Kartą i wartościami, na których opiera się Unia. Rozwiązania bazujące na sztucznej inteligencji umożliwiają lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, mają potencjał, aby zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wspierać wyniki korzystne z punktu widzenia kwestii społecznych i ochrony środowiska, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, zarządzania kryzysowego, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odbudowy różnorodności biologicznej oraz łagodzenia zmiany klimatu i przystosowywania się do niej. |
Poprawka 13
Wniosek dotyczący rozporządzenia
Motyw 3 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(3a) Aby przyczynić się do osiągnięcia celów neutralności pod względem emisji dwutlenku węgla, przedsiębiorstwa europejskie powinny dążyć do wykorzystywania wszystkich dostępnych osiągnięć technologicznych, które mogą pomóc w realizacji tego celu. Sztuczna inteligencja jest technologią, którą można wykorzystywać do przetwarzania stale rosnącej ilości danych powstających w procesach przemysłowych, środowiskowych, zdrowotnych i innych. Aby ułatwić inwestycje w narzędzia analizy i optymalizacji oparte na sztucznej inteligencji, niniejsze rozporządzenie powinno zapewnić przewidywalne i proporcjonalne otoczenie regulacyjne dla rozwiązań przemysłowych niskiego ryzyka. |
Poprawka 14
Wniosek dotyczący rozporządzenia
Motyw 4
Tekst proponowany przez Komisję |
Poprawka |
(4) Jednocześnie sztuczna inteligencja może być źródłem ryzyka i szkody dla interesu publicznego i przywilejów chronionych prawem Unii, w zależności od okoliczności dotyczących jej konkretnego zastosowania i wykorzystania. Szkody te mogą być materialne lub niematerialne. |
(4) Jednocześnie sztuczna inteligencja może być źródłem ryzyka i szkody dla interesu publicznego lub prywatnego i praw podstawowych osób fizycznych, chronionych prawem Unii, w zależności od okoliczności dotyczących jej konkretnego zastosowania i wykorzystania, a także poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne. |
Poprawka 15
Wniosek dotyczący rozporządzenia
Motyw 4 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(4a) Biorąc pod uwagę istotny wpływ, jaki sztuczna inteligencja może mieć na społeczeństwo, oraz potrzebę budowania zaufania, sztuczną inteligencję i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 TUE, prawami podstawowymi i wolnościami zapisanymi w traktatach, Karcie i międzynarodowym prawie praw człowieka. Warunkiem wstępnym jest to, by sztuczna inteligencja była technologią ukierunkowaną na człowieka. Nie powinna ona zastępować autonomii człowieka ani zakładać utraty wolności jednostki, a przede wszystkim powinna służyć potrzebom społeczeństwa i dobru wspólnemu. Należy przewidzieć zabezpieczenia, aby zapewnić rozwój i wykorzystywanie sztucznej inteligencji zgodnie z zasadami etycznymi oraz wartościami Unii i Karty. |
Poprawka 16
Wniosek dotyczący rozporządzenia
Motyw 5
Tekst proponowany przez Komisję |
Poprawka |
(5) Unijne ramy prawne określające zharmonizowane prze- |
(5) Unijne ramy prawne określające zharmonizowane prze- |
pisy dotyczące sztucznej inteligencji są zatem niezbędne do wspierania rozwoju, wykorzystywania i upowszechniania sztucznej inteligencji na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu i oddawanie do użytku niektórych systemów sztucznej inteligencji, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i umożliwiając swobodny obrót tymi systemami zgodnie z zasadą swobodnego przepływu towarów i usług. Ustanawiając te zasady, niniejsze rozporządzenie wspiera realizację celu, jakim jest osiągnięcie przez Unię pozycji światowego lidera, jeśli chodzi o rozwój bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji, zgodnie z konkluzjami Rady Europejskiej (33), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym żądaniem Parlamentu Europejskiego (34). |
pisy dotyczące sztucznej inteligencji są zatem niezbędne do wspierania rozwoju, wykorzystywania i upowszechniania sztucznej inteligencji na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo, ochrona praw podstawowych, demokracja, praworządność i środowisko, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów sztucznej inteligencji, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i umożliwiając swobodny obrót tymi systemami zgodnie z zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne pod względem ochrony praw podstawowych, sprzyjać nowym innowacyjnym rozwiązaniom i tworzeniu europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy sztucznej inteligencji zgodnie z wartościami Unii. Ustanawiając te zasady, a także środki wspierające innowacje, ze szczególnym uwzględnieniem MŚP i przedsiębiorstw typu startup, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie sztucznej inteligencji tworzonej w Europie, osiągnięcie przez Unię pozycji światowego lidera, jeśli chodzi o rozwój bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji, zgodnie z konkluzjami Rady Europejskiej (33), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym żądaniem Parlamentu Europejskiego (34). |
(33) Rada Europejska, Nadzwyczajne posiedzenie Rady Europejskiej (1 i 2 października 2020 r.) - Konkluzje., EUCO 13/20, 2020, s. 6.
(34) Rezolucja Parlamentu Europejskiego z dnia 20 października
2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii, 2020/2012(INL).
|
(33) Rada Europejska, Nadzwyczajne posiedzenie Rady Europejskiej (1 i 2 października 2020 r.) - Konkluzje., EUCO 13/20, 2020, s. 6.
(34) Rezolucja Parlamentu Europejskiego z dnia 20 października
2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii, 2020/2012(INL).
|
Poprawka 17
Wniosek dotyczący rozporządzenia
Motyw 5 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(5a) Ponadto, aby wspierać rozwój systemów sztucznej inteligencji zgodnie z wartościami Unii, Unia musi wyeliminować główne luki i bariery blokujące potencjał transformacji cyfrowej, w tym niedobór pracowników posiadających umiejętności cyfrowe, problemy związane z cyberbezpieczeństwem, brak inwestycji i dostępu do inwestycji oraz istniejące i potencjalne luki między dużymi przedsiębiorstwami, MŚP i przedsiębiorstwami typu startup. Szczególną uwagę należy zwrócić na to, aby korzyści płynące ze sztucznej inteligencji i innowacji w zakresie nowych technologii były odczuwalne we wszystkich regionach Unii oraz by zapewnić wystarczające inwestycje i zasoby zwłaszcza tym regionom, które mogą pozostawać w tyle pod względem niektórych wskaźników cyfrowych. |
Poprawka 18
Wniosek dotyczący rozporządzenia
Motyw 6
Tekst proponowany przez Komisję |
Poprawka |
(6) Pojęcie systemu sztucznej inteligencji powinno być jasno zdefiniowane w celu zapewnienia pewności prawa, przy jednoczesnym zapewnieniu elastyczności umożliwiającej dostosowanie się do przyszłego rozwoju technologicznego. Podstawę tej definicji powinny stanowić kluczowe cechy funkcjonalne oprogramowania, w szczególności zdolność, przy danym zestawie celów określonych przez człowieka, do generowania wyników takich jak treści, prognozy, zalecenia lub decyzje wpływające na środowisko, z którym system wchodzi w interakcję, czy to w wymiarze fizycznym, czy cyfrowym. Systemy sztucznej inteligencji mogą być zaprojektowane tak, aby działały na różnym poziomie autonomii i mogły być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany). Definicję systemu sztucznej inteligencji powinien uzupełniać wykaz konkretnych technik i podejść stosowanych przy jego opracowywaniu, który to wykaz powinien być aktualizowany w świetle rozwoju sytuacji rynkowej i postępu technologicznego w drodze aktów delegowanych przyjmowanych przez Komisję w celu zmiany tego wykazu. |
(6) Pojęcie systemu sztucznej inteligencji w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się sztuczną inteligencją, aby zapewnić pewność prawa, harmonizację i szeroką akceptację, przy jednoczesnym zapewnieniu elastyczności umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Powinno ono opierać się na kluczowych cechach sztucznej inteligencji, takich jak jej zdolności w zakresie uczenia się, rozumowania czy modelowania, aby odróżnić ją od prostszych systemów oprogramowania lub podejść do programowania. Systemy sztucznej inteligencji są zaprojektowane tak, aby działały na różnym poziomie autonomii, co oznacza, że są co najmniej w pewnym stopniu niezależne od kontroli ze strony człowieka i zdolne do działania bez interwencji człowieka. Termin "oparty na maszynie" odnosi się do faktu, że systemy sztucznej inteligencji działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy sztucznej inteligencji mogą działać według celów określonych jasno przez człowieka lub celów dorozumianych. Cele systemu sztucznej inteligencji mogą różnić się od przeznaczenia systemu sztucznej inteligencji w określonym kontekście. Odniesienie do prognoz obejmuje treść, którą w niniejszym rozporządzeniu uznaje się za pewną formę prognozy dotyczącej jednego z możliwych wyników działania systemu sztucznej inteligencji. Do celów niniejszego rozporządzenia środowisko należy rozumieć jako kontekst, w którym działają systemy sztucznej inteligencji, natomiast wyniki działania generowane przez system sztucznej inteligencji, czyli prognozy, zalecenia lub decyzje, odpowiadają celom systemu na podstawie danych wejściowych z tego środowiska. Takie wyniki jeszcze bardziej wpływają na wspomniane środowisko, nawet poprzez zwykłe wprowadzanie do niego nowych informacji. |
Poprawka 19
Wniosek dotyczący rozporządzenia
Motyw 6 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(6a) Systemy sztucznej inteligencji mają często zdolność do uczenia maszynowego, która pozwala im dostosowywać się i wykonywać nowe zadania autonomicznie. Uczenie maszynowe odnosi się do obliczeniowego procesu optymalizacji parametrów modelu stosowanego do danych, będącego konstruktem matematycznym generującym dane wyjściowe na podstawie danych wejściowych. Mechanizmy uczenia maszynowego obejmują na przykład uczenie nadzorowane, uczenie bez nadzoru i uczenie przez wzmacnianie przy zastosowaniu różnorodnych metod, w tym uczenia głębokiego z wykorzystaniem sieci neuronowych. Niniejsze rozporządzenie ma na celu przeciwdziałanie nowym potencjalnym zagrożeniom, które mogą powstać w wyniku przekazania kontroli systemom sztucznej inteligencji, w szczególności tym, które mogą ewoluować po wdrożeniu. Funkcja i wyniki wielu z tych systemów sztucznej inteligencji opierają się na abstrakcyjnych relacjach matematycznych, które człowiekowi jest trudno zrozumieć, monitorować i powiązać z konkretnymi danymi wejściowymi. Te złożone i nieprzejrzyste cechy (element czarnej skrzynki) mają wpływ na rozliczalność i wy- jaśnialność.Porównywalnie prostsze techniki, takie jak podejścia oparte na wiedzy, estymacja bayesowska lub drzewa decyzyjne, mogą również prowadzić do powstawania luk prawnych, które należy wyeliminować w niniejszym rozporządzeniu, w szczególności gdy są one stosowane w połączeniu z podejściami do uczenia maszynowego w systemach hybrydowych. |
Poprawka 20
Wniosek dotyczący rozporządzenia
Motyw 6 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(6b) Systemy sztucznej inteligencji mogą być wykorzystywane jako samodzielny system oprogramowania, zintegrowane z produktem fizycznym (wbudowane), wykorzystywane do obsługi funkcjonalności produktu fizycznego, nie będąc z nim zintegrowane (niewbudo- wane), lub wykorzystywane jako komponent większego systemu sztucznej inteligencji. Jeżeli ten większy system nie funkcjonowałby bez danego komponentu sztucznej inteligencji, cały większy system należałoby uznać za jeden system sztucznej inteligencji na mocy niniejszego rozporządzenia. |
Poprawka 21
Wniosek dotyczący rozporządzenia
Motyw 7
Tekst proponowany przez Komisję |
Poprawka |
(7) Pojęcie danych biometrycznych stosowane w niniejszym rozporządzeniu jest zgodne z pojęciem danych biometrycznych zdefiniowanym w art. 4 pkt 14 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (35), art. 3 pkt 18 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1725 (36) oraz art. 3 pkt 13 dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/680 i powinno być interpretowane w sposób spójny z tym pojęciem (37). |
(7) Pojęcie danych biometrycznych stosowane w niniejszym rozporządzeniu jest zgodne z pojęciem danych biometrycznych zdefiniowanym w art. 4 pkt 14 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (35). Dane oparte na biometrii oznaczają dodatkowe dane wynikające z określonego przetwarzania technicznego powiązanego z sygnałami fizycznymi, fizjologicznymi lub behawioralnymi osoby fizycznej, takimi jak wyraz twarzy, ruchy, puls, głos, sposób pisania na klawiaturze lub chód, które mogą, ale nie muszą, umożliwiać lub potwierdzać niepowtarzalną identyfikację osoby fizycznej; |
(35) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
(36) Rozporządzenie Parlamentu Europejskiego i Rady (UE)
2018/1725 z dnia 23 października 2018 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez instytucje, organy i jednostki organizacyjne Unii i swobodnego przepływu takich danych oraz uchylenia rozporządzenia (WE) nr 45/2001 i decyzji nr 1247/2002/WE (Dz.U. L 295 z 21.11.2018, s. 39).
(37) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/680
z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylająca decyzję ramową Rady 2008/977/WSiSW (dyrektywa w sprawie egzekwowania prawa) (Dz.U. L 119 z 4.5.2016, s. 89).
|
(35) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
|
Poprawka 22
Wniosek dotyczący rozporządzenia
Motyw 7 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(7a) Pojęcie identyfikacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować jako automatyczne rozpoznawanie fizycznych, fizjologicznych, behawioralnych i psychologicznych cech człowieka, takich jak twarz, ruch gałek ocznych, wyraz twarzy, kształt ciała, głos, mowa, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, reakcje psychologiczne (gniew, niepokój, smutek itp.) w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w bazie danych danymi biometrycznymi osób fizycznych (identyfikacja jeden do wielu) niezależnie od tego, czy osoba ta wyraziła na to zgodę. |
Poprawka 23
Wniosek dotyczący rozporządzenia
Motyw 7 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(7b) Pojęcie kategoryzacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii lub odgadywanie ich cech i atrybutów, takich jak płeć społecznokulturowa, płeć biologiczna, wiek, kolor włosów, kolor oczu, tatuaże, pochodzenie etniczne lub społeczne, stan zdrowia, sprawność umysłowa lub fizyczna, cechy dotyczące zachowania bądź osobowości, język, wyznanie, przynależność do mniejszości narodowej, orientacja seksualna bądź polityczna, na podstawie ich danych biometrycznych, danych opartych na ich biometrii lub tego, co można wywnioskować z takich danych. |
Poprawka 24
Wniosek dotyczący rozporządzenia
Motyw 8
Tekst proponowany przez Komisję |
Poprawka |
(8) Pojęcie systemu zdalnej identyfikacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować funkcjonalnie jako system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez wcześniejszej wiedzy o tym, czy dana osoba będzie w niej figurować i może zatem zostać zidentyfikowana, niezależnie od konkretnej technologii oraz konkretnych procesów lub rodzajów wykorzystywanych danych biometrycznych. Należy dokonać rozróżnienia między systemami zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" a systemami zdalnej identyfikacji biometrycznej "post factum", biorąc pod uwagę ich różne cechy i sposoby stosowania, a także różne związane z nimi zagrożenia. W przypadku systemów działających "w czasie rzeczywistym" pobranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania przedmiotowych systemów sztucznej inteligencji "w czasie rzeczywistym" poprzez wprowadzenie niewielkich opóźnień. Systemy identyfikacji "w czasie rzeczywistym" obejmują wykorzystanie materiału rejestrowanego "na żywo" lub "w czasie zbliżonym do rzeczywistego", takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji "post factum" dane biometryczne zostały już pobrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub nagrania wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, których rejestracji dokonano, zanim użyto systemu w stosunku do danej osoby fizycznej. |
(8) Pojęcie systemu zdalnej identyfikacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować funkcjonalnie jako system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez wcześniejszej wiedzy o tym, czy dana osoba będzie w niej figurować i może zatem zostać zidentyfikowana, niezależnie od konkretnej technologii oraz konkretnych procesów lub rodzajów wykorzystywanych danych biometrycznych, z wyłączeniem systemów weryfikacji, które jedynie porównują dane biometryczne osoby udostępnione wcześniej (jeden do jednego). Należy dokonać rozróżnienia między systemami zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" a systemami zdalnej identyfikacji biometrycznej "post factum", biorąc pod uwagę ich różne cechy i sposoby stosowania, a także różne związane z nimi zagrożenia. W przypadku systemów działających "w czasie rzeczywistym" pobranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania przedmiotowych systemów sztucznej inteligencji "w czasie rzeczywistym" poprzez wprowadzenie niewielkich opóźnień. Systemy identyfikacji "w czasie rzeczywistym" obejmują wykorzystanie materiału rejestrowanego "na żywo" lub "w czasie zbliżonym do rzeczywistego", takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji "post factum" dane biometryczne zostały już pobrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub nagrania wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, których rejestracji dokonano, zanim użyto systemu w stosunku do danej osoby fizycznej. Ponieważ pojęcie identyfikacji biometrycznej nie zależy od zgody danej osoby, definicja ta ma zastosowanie nawet wtedy, gdy w miejscu znajdującym się pod nadzorem systemu zdalnej identyfikacji biometrycznej są umieszczone ostrzeżenia, i nie unieważnia jej tak naprawdę wstępne rejestrowanie. |
Poprawka 25
Wniosek dotyczący rozporządzenia
Motyw 8 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(8a) Identyfikacja osób fizycznych na odległość jest rozumiana jako odróżnienie systemów zdalnej identyfikacji biometrycznej od systemów weryfikacji indywidualnej z bliska przy użyciu środków identyfikacji biometrycznej, których jedynym celem jest potwierdzenie, czy konkretna osoba fizyczna zgłaszająca się do identyfikacji ma uzyskać zgodę, np. na dostęp do usługi, urządzenia lub lokalu. |
Poprawka 26
Wniosek dotyczący rozporządzenia
Motyw 9
Tekst proponowany przez Komisję |
Poprawka |
(9) Do celów niniejszego rozporządzenia pojęcie przestrzeni publicznej należy rozumieć jako odnoszące się do każdego miejsca fizycznego, które jest dostępne dla ogółu osób, niezależnie od tego, czy dane miejsce jest własnością prywatną czy publiczną. Pojęcie to nie obejmuje zatem miejsc, które mają charakter prywatny i zazwyczaj nie są ogólnodostępne dla osób trzecich, w tym organów ścigania, chyba że osoby te wyraźnie zaproszono lub upoważniono do wejścia na dany teren; do takich miejsc zalicza się domy, prywatne kluby, biura, magazyny i fabryki. Przestrzenie internetowe również nie są objęte niniejszym rozporządzeniem, ponieważ nie są to przestrzenie fizyczne. Sam fakt, że mogą obowiązywać jednak pewne warunki dostępu do danej przestrzeni, takie jak bilety wstępu lub ograniczenia wiekowe, nie oznacza, że przestrzeń ta nie jest dostępna publicznie w rozumieniu niniejszego rozporządzenia. W związku z tym oprócz przestrzeni publicznych, takich jak ulice, odpowiednie części budynków rządowych i większość infrastruktury transportowej, publicznie dostępne są zazwyczaj również przestrzenie takie jak kina, teatry, sklepy i centra handlowe. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji. |
(9) Do celów niniejszego rozporządzenia pojęcie przestrzeni publicznej należy rozumieć jako odnoszące się do każdego miejsca fizycznego, które jest dostępne dla ogółu osób, niezależnie od tego, czy dane miejsce jest własnością prywatną czy publiczną, oraz od potencjalnych ograniczeń pojemności. Pojęcie to nie obejmuje zatem miejsc, które mają charakter prywatny i zazwyczaj nie są ogólnodostępne dla osób trzecich, w tym organów ścigania, chyba że osoby te wyraźnie zaproszono lub upoważniono do wejścia na dany teren; do takich miejsc zalicza się domy, prywatne kluby, biura, magazyny i fabryki. Przestrzenie internetowe również nie są objęte niniejszym rozporządzeniem, ponieważ nie są to przestrzenie fizyczne. Sam fakt, że mogą obowiązywać jednak pewne warunki dostępu do danej przestrzeni, takie jak bilety wstępu lub ograniczenia wiekowe, nie oznacza, że przestrzeń ta nie jest dostępna publicznie w rozumieniu niniejszego rozporządzenia. W związku z tym oprócz przestrzeni publicznych, takich jak ulice, odpowiednie części budynków rządowych i większość infrastruktury transportowej, publicznie dostępne są zazwyczaj również przestrzenie takie jak kina, teatry, tereny sportowe, szkoły, uniwersytety, odpowiednie części szpitali i banków, parki rozrywki, festiwale, sklepy i centra handlowe. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji. |
Poprawka 27
Wniosek dotyczący rozporządzenia
Motyw 9 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(9a) Należy zauważyć, że systemy sztucznej inteligencji powinny podejmować jak największe starania, by przestrzegać ogólnych zasad ustanawiających ramy wysokiego szczebla, które promują spójne, ukierunkowane na człowieka podejście do etycznej i godnej zaufania sztucznej inteligencji, zgodnie z Kartą i wartościami, na których opiera się Unia, w tym ochroną praw podstawowych, przewodnią i nadzorczą rolą człowieka, solidnością techniczną i bezpieczeństwem technicznym, prywatnością i zarządzaniem danymi, przejrzystością, niedyskryminacją i sprawiedliwością oraz dobrostanem społecznym i środowiskowym. |
Poprawka 28
Wniosek dotyczący rozporządzenia
Motyw 9 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(9b) Pojęcie "kompetencji w zakresie sztucznej inteligencji" odnosi się do umiejętności, wiedzy oraz zrozumienia, które pozwalają dostawcom, obywatelom i zainteresowanym osobom - z uwzględnieniem ich odnośnych praw i obowiązków w kontekście niniejszego rozporządzenia - w przemyślany sposób wdrażać systemy sztucznej inteligencji oraz mieć świadomość, jakie możliwości i zagrożenia wiążą się ze sztuczną inteligencją oraz jakie potencjalne szkody może ona wyrządzić, i dzięki temu promować kontrolę demokratyczną nad tą technologią. Kompetencje w zakresie sztucznej inteligencji nie powinny ograniczać się do uczenia się o narzędziach i technologiach, ale powinny mieć również na celu wyposażenie dostawców i użytkowników w koncepcje i umiejętności wymagane do zapewnienia zgodności z niniejszym rozporządzeniem i jego egzekwowania. Konieczne jest zatem, aby Komisja, państwa członkowskie, a także dostawcy i użytkownicy systemów sztucznej inteligencji, we współpracy ze wszystkimi odpowiednimi zainteresowanymi stronami, propagowali rozwój umiejętności posługiwania się sztuczną inteligencją na wystarczającym poziomie we wszystkich sektorach społeczeństwa, u osób w każdym wieku, w tym wśród kobiet i dziewcząt, oraz aby uważnie obserwowano postępy w tym zakresie. |
Poprawka 29
Wniosek dotyczący rozporządzenia
Motyw 10
Tekst proponowany przez Komisję |
Poprawka |
(10) W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów sztucznej inteligencji w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do użytkowników systemów sztucznej inteligencji mających siedzibę w Unii. |
(10) W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii i na szczeblu międzynarodowym przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów sztucznej inteligencji w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii czy w państwie trzecim, oraz do operatorów systemów sztucznej inteligencji mających siedzibę w Unii. Aby Unia była wierna swoim podstawowym wartościom, systemy sztucznej inteligencji przeznaczone do stosowania w praktykach, które w niniejszym rozporządzeniu uznaje się za niedopuszczalne, należy również uznać za niedopuszczalne poza Unią ze względu na ich szczególnie szkodliwy wpływ na prawa podstawowe zapisane w Karcie. W związku z tym należy zakazać wywozu takich systemów sztucznej inteligencji do państw trzecich przez dostawców mających miejsce zamieszkania w Unii. |
Poprawka 30
Wniosek dotyczący rozporządzenia
Motyw 11
Tekst proponowany przez Komisję |
Poprawka |
(11) Ze względu na swój cyfrowy charakter niektóre systemy sztucznej inteligencji powinny zostać objęte zakresem niniejszego rozporządzenia, nawet jeśli nie są wprowadzane do obrotu, oddawane do użytku ani wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca określone usługi operatorowi mającemu siedzibę poza Unią w związku z operacjami, które mają być wykonywane przez system sztucznej inteligencji, który zostałby zakwalifikowany jako system wysokiego ryzyka, a których skutki byłyby odczuwalne przez osoby fizyczne zlokalizowane w Unii. W takich okolicznościach system sztucznej inteligencji wykorzystywany przez operatora spoza Unii mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych, natomiast sam system sztucznej inteligencji nie byłby przedmiotem wprowadzenia do obrotu lub oddania do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i użytkowników systemów sztucznej inteligencji, którzy mają siedzibę w państwie trzecim, w zakresie, w jakim wyniki działania tych systemów są wykorzystywane w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejsze rozporządzenie nie powinno mieć zastosowania do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach zawartych na szczeblu krajowym lub europejskim umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub jej państwami członkowskimi. Takie umowy zostały zawarte dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami UE a państwami trzecimi i organizacjami międzynarodowymi. |
(11) Ze względu na swój cyfrowy charakter niektóre systemy sztucznej inteligencji powinny zostać objęte zakresem niniejszego rozporządzenia, nawet jeśli nie są wprowadzane do obrotu, oddawane do użytku ani wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca określone usługi operatorowi mającemu siedzibę poza Unią w związku z operacjami, które mają być wykonywane przez system sztucznej inteligencji, który zostałby zakwalifikowany jako system wysokiego ryzyka, a których skutki byłyby odczuwalne przez osoby fizyczne zlokalizowane w Unii. W takich okolicznościach system sztucznej inteligencji wykorzystywany przez operatora spoza Unii mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych, natomiast sam system sztucznej inteligencji nie byłby przedmiotem wprowadzenia do obrotu lub oddania do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i operatorów systemów sztucznej inteligencji, którzy mają siedzibę w państwie trzecim, w zakresie, w jakim wyniki działania tych systemów mają być wykorzystywane w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejsze rozporządzenie nie powinno mieć zastosowania do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach zawartych na szczeblu krajowym lub europejskim umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub jej państwami członkowskimi. Takie umowy zostały zawarte dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami UE a państwami trzecimi i organizacjami międzynarodowymi. Wyjątek ten powinien jednak ograniczać się do zaufanych państw i organizacji międzynarodowych, które podzielają wartości Unii. |
Poprawka 31
Wniosek dotyczący rozporządzenia
Motyw 12
Tekst proponowany przez Komisję |
Poprawka |
(12) Niniejsze rozporządzenie powinno mieć również zastosowanie do instytucji, urzędów, organów i agencji Unii, gdy działają one jako dostawca lub użytkownik systemu sztucznej inteligencji. Systemy sztucznej inteligencji opracowywane lub wykorzystywane wyłącznie do celów wojskowych powinny zostać wyłączone z zakresu stosowania niniejszego rozporządzenia, jeżeli takie wykorzystanie wchodzi w zakres wyłącznych kompetencji wspólnej polityki zagranicznej i bezpieczeństwa regulowanej na mocy tytułu V Traktatu o Unii Europejskiej (TUE). Niniejsze rozporządzenie nie powinno naruszać przepisów dotyczących odpowiedzialności usługodawców będących pośrednikami, określonych w dyrektywie 2000/31/WE Parlamentu Europejskiego i Rady [zmienionej aktem prawnym o usługach cyfrowych]. |
(12) Niniejsze rozporządzenie powinno mieć również zastosowanie do instytucji, urzędów, organów i agencji Unii, gdy działają one jako dostawca lub operator systemu sztucznej inteligencji. Systemy sztucznej inteligencji opracowywane lub wykorzystywane wyłącznie do celów wojskowych powinny zostać wyłączone z zakresu stosowania niniejszego rozporządzenia, jeżeli takie wykorzystanie wchodzi w zakres wyłącznych kompetencji wspólnej polityki zagranicznej i bezpieczeństwa regulowanej na mocy tytułu V Traktatu o Unii Europejskiej (TUE). Niniejsze rozporządzenie nie powinno naruszać przepisów dotyczących odpowiedzialności usługodawców będących pośrednikami, określonych w dyrektywie 2000/31/WE Parlamentu Europejskiego i Rady [zmienionej aktem prawnym o usługach cyfrowych]. |
Poprawka 32
Wniosek dotyczący rozporządzenia
Motyw 12 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(12a) Oprogramowanie i dane lub ich zmodyfikowane wersje, które są bezpłatnie dostępne dla każdego, do których użytkownicy mogą uzyskiwać swobodny dostęp, z których mogą korzystać oraz które mogą modyfikować i rozpowszechniać, mogą zapewnić wkład w badania naukowe i innowacje na rynku. Z badań przeprowadzonych przez Komisję wynika również, że wolne i otwarte oprogramowanie może wnieść od 65 mld EUR do 95 mld EUR do PKB Unii Europejskiej i stworzyć znaczne możliwości wzrostu dla europejskiej gospodarki. Użytkownicy mogą uruchamiać, rozpowszechniać, badać, zmieniać i ulepszać oprogramowanie i dane, w tym modele, na podstawie wolnych i otwartych licencji. Aby wspierać rozwój i wdrażanie sztucznej inteligencji, w szczególności przez MŚP, przedsiębiorstwa typu startup, badaczy naukowych, ale również przez osoby fizyczne, niniejsze rozporządzenie nie powinno mieć zastosowania do takich wolnych i otwartych komponentów sztucznej inteligencji, chyba że są one wprowadzane do obrotu lub oddawane do użytku przez dostawcę jako część systemu sztucznej inteligencji wysokiego ryzyka lub systemu sztucznej inteligencji objętego tytułem II lub IV niniejszego rozporządzenia. |
Poprawka 33
Wniosek dotyczący rozporządzenia
Motyw 12 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(12b) Oparty na współpracy rozwój wolnych i otwartych komponentów sztucznej inteligencji ani udostępnianie ich w otwartych repozytoriach nie powinny stanowić wprowadzania do obrotu ani wprowadzania do użytku. Działalność handlowa rozumiana jako udostępnianie na rynku może jednak charakteryzować się pobieraniem opłaty, z wyjątkiem transakcji między mikroprzedsię- biorstwami, za wolny i otwarty komponent sztucznej inteligencji, a także pobieraniem opłaty za usługi wsparcia technicznego, udostępnianiem platformy oprogramowania, za pośrednictwem której dostawca czerpie zyski z innych usług, lub wykorzystywaniem danych osobowych z powodów innych niż tylko poprawa bezpieczeństwa, kompatybilności czy interoperacyjności oprogramowania. |
Poprawka 34
Wniosek dotyczący rozporządzenia Motyw 12 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(12c) Twórcy wolnych i otwartych komponentów sztucznej inteligencji nie powinny być zobowiązani na mocy niniejszego rozporządzenia do spełniania wymogów dotyczących łańcucha wartości sztucznej inteligencji, a w szczególności nie wobec dostawcy, który wykorzystał ten wolny i otwarty komponent sztucznej inteligencji. Należy jednak zachęcać twórców wolnych i otwartych komponentów sztucznej inteligencji do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak modele i karty danych, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości sztucznej inteligencji, co umożliwi promowanie wiarygodnych systemów sztucznej inteligencji w Unii. |
Poprawka 35
Wniosek dotyczący rozporządzenia
Motyw 13
Tekst proponowany przez Komisję |
Poprawka |
(13) W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne standardy normatywne dla wszystkich systemów sztucznej inteligencji wysokiego ryzyka. Standardy te powinny być zgodne z Kartą praw podstawowych Unii Europejskiej ("Karta") oraz powinny być niedyskrymi- nacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. |
(13) W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych, a także demokracji, praworządności i środowiska, należy ustanowić wspólne standardy normatywne dla wszystkich systemów sztucznej inteligencji wysokiego ryzyka. Standardy te powinny być zgodne z Kartą, Europejskim Zielonym Ładem, Wspólną deklaracją UE w sprawie praw cyfrowych i Wytycznymi w zakresie etyki dotyczącymi godnej zaufania sztucznej inteligencji, które opracowała grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, oraz powinny być niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. |
Poprawka 36
Wniosek dotyczący rozporządzenia
Motyw 14
Tekst proponowany przez Komisję |
Poprawka |
(14) Aby wprowadzić proporcjonalny i skuteczny zestaw wiążących zasad dotyczących systemów sztucznej inteligencji, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich zasad do intensywności i zakresu zagrożeń, jakie mogą powodować systemy sztucznej inteligencji. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych praktyk z zakresu sztucznej inteligencji, określenie wymogów w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz określenie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów sztucznej inteligencji. |
(14) Aby wprowadzić proporcjonalny i skuteczny zestaw wiążących zasad dotyczących systemów sztucznej inteligencji, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich zasad do intensywności i zakresu zagrożeń, jakie mogą powodować systemy sztucznej inteligencji. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk z zakresu sztucznej inteligencji, określenie wymogów w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz określenie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów sztucznej inteligencji. |
Poprawka 37
Wniosek dotyczący rozporządzenia
Motyw 15
Tekst proponowany przez Komisję |
Poprawka |
(15) Oprócz wielu korzystnych zastosowań sztucznej inteligencji technologia ta może być również niewłaściwie wykorzystywana i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wykorzystywania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi Unii, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka. |
(15) Oprócz wielu korzystnych zastosowań sztucznej inteligencji technologia ta może być również niewłaściwie wykorzystywana i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wykorzystywania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe oraz stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi Unii, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka. |
Poprawka 38
Wniosek dotyczący rozporządzenia
Motyw 16
Tekst proponowany przez Komisję |
Poprawka |
(16) Należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania niektórych systemów sztucznej inteligencji mających na celu zniekształcenie ludzkiego zachowania, co w rezultacie może prowadzić do wystąpienia szkód fizycznych lub psychicznych. Takie systemy sztucznej inteligencji wykorzystują mechanizmy podprogowe, których osoby fizyczne nie są w stanie dostrzec, lub wykorzystują słabości dzieci i innych osób ze względu na ich wiek, niepełnosprawność fizyczną lub umysłową. Czynią to z zamiarem istotnego zniekształcenia zachowania danej osoby i w sposób, który powoduje lub może powodować szkodę dla tej lub innej osoby. Istnienia takiego zamiaru nie można zakładać wówczas, gdy zniekształcenie ludzkiego zachowania wynika z czynników zewnętrznych w stosunku do systemu sztucznej inteligencji, które pozostają poza kontrolą dostawcy lub użytkownika. Zakaz ten nie powinien hamować badań prowadzonych w uzasadnionych celach w odniesieniu do takich systemów sztucznej inteligencji, jeżeli badania te nie prowadzą do takiego wykorzystania systemu sztucznej inteligencji w relacjach człowiek-maszyna, które naraża osoby fizyczne na szkodę, a przy tym są prowadzone zgodnie z uznanymi normami etycznymi dotyczącymi badań naukowych. |
(16) Należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania niektórych systemów sztucznej inteligencji mającego na celu istotne zniekształcenie ludzkiego zachowania lub skutkującego istotnym zniekształceniem ludzkiego zachowania, co w rezultacie może prowadzić do wystąpienia szkód fizycznych lub psychicznych. Ograniczenie to należy rozumieć jako obejmujące neurotechnologie wspomagane przez systemy sztucznej inteligencji, które są wykorzystywane do monitorowania i wykorzystywania danych neuronowych gromadzonych za pośrednictwem interfejsów mózg-komputer lub wpływania na nie, o ile zniekształcają one istotnie zachowanie osoby fizycznej w sposób, który wyrządza lub może wyrządzić tej lub innej osobie poważną szkodę. Takie systemy sztucznej inteligencji wykorzystują mechanizmy podprogowe, których osoby fizyczne nie są w stanie dostrzec, lub wykorzystują słabości osób i konkretnych grup osób ze względu na ich znane lub przewidywane cechy osobowe, takie jak wiek, niepełnosprawność fizyczna lub umysłowa czy sytuacja społeczna lub ekonomiczna. Czynią to z zamiarem istotnego zniekształcenia zachowania danej osoby lub skutkują istotnym zniekształceniem zachowania danej osoby, w sposób, który powoduje lub może powodować poważną szkodę dla tej lub innej osoby lub grup osób, w tym szkody, które mogą kumulować się w czasie. Istnienia zamiaru zniekształcenia zachowania nie można zakładać wówczas, gdy zniekształcenie ludzkiego zachowania wynika z czynników zewnętrznych w stosunku do systemu sztucznej inteligencji, które pozostają poza kontrolą dostawcy lub użytkownika, np. czynników, których dostawca lub operator systemu sztucznej inteligencji nie może racjonalnie przewidzieć ani złagodzić. W każdym razie nie jest konieczne, aby dostawca lub operator systemu sztucznej inteligencji zamierzał wyrządzić poważną szkodę, o ile szkoda ta wynika z praktyk manipulacyjnych lub praktyk wykorzystujących sztuczną inteligencję. Zakazy dotyczące takich praktyk w zakresie sztucznej inteligencji stanowią uzupełnienie przepisów dyrektywy 2005/29/WE, zgodnie z którymi nieuczciwe praktyki handlowe są zakazane niezależnie od tego, czy dochodzi do nich z użyciem systemów sztucznej inteligencji czy w inny sposób. W takim przypadku zgodne z prawem praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z prawem Unii, nie powinny być same w sobie uznawane za naruszające zakaz. Zakaz ten nie powinien hamować badań prowadzonych w uzasadnionych celach w odniesieniu do takich systemów sztucznej inteligencji, jeżeli badania te nie prowadzą do takiego wykorzystania systemu sztucznej inteligencji w relacjach człowiek-ma- szyna, które naraża osoby fizyczne na szkodę, a przy tym są prowadzone zgodnie z uznanymi normami etycznymi dotyczącymi badań naukowych i na podstawie wyraźniej i świadomej zgody osób, które są narażone na te systemy, a w stosownych przypadkach ich opiekuna prawnego. |
Poprawka 39
Wniosek dotyczący rozporządzenia
Motyw 16 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(16a) Systemy sztucznej inteligencji, które kategoryzują osoby fizyczne poprzez przypisanie ich do określonych kategorii, zgodnie ze znanymi lub wywnioskowanymi wrażliwymi lub chronionymi cechami, są szczególnie inwazyjne, naruszają godność ludzką i wiążą się z dużym ryzykiem dyskryminacji. Takie cechy obejmują płeć, tożsamość płciową, rasę, pochodzenie etniczne, status migracyjny lub obywatelstwo, poglądy polityczne, orientację seksualną, wyznanie, niepełnosprawność lub wszelkie inne powody, z których dyskryminacja jest zakazana na mocy art. 21 Karty oraz art. 9 rozporządzenia (UE) 2016/769. Takie systemy należy zatem objąć zakazem. |
Poprawka 40
Wniosek dotyczący rozporządzenia
Motyw 17
Tekst proponowany przez Komisję |
Poprawka |
(17) Systemy sztucznej inteligencji, które umożliwiają prowadzenie przez organy publiczne lub w ich imieniu oceny punktowej zachowań społecznych osób fizycznych do celów ogólnych, mogą prowadzić do dyskryminacyjnych wyników i wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy sztucznej inteligencji oceniają lub klasyfikują wiarygodność osób fizycznych na podstawie ich zachowań społecznych w wielu kontekstach lub na podstawie znanych lub przewidywanych cech osobistych lub cech osobowości. Ocena społeczna wystawiona przez takie systemy sztucznej inteligencji może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Takie systemy sztucznej inteligencji należy zatem zakazać. |
(17) Systemy sztucznej inteligencji, które umożliwiają prowadzenie oceny punktowej zachowań społecznych osób fizycznych do celów ogólnych, mogą prowadzić do dyskryminacyjnych wyników i wykluczenia pewnych grup. Naruszają one prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy sztucznej inteligencji oceniają lub klasyfikują osoby fizyczne lub grupy na podstawie wielu punktów danych i wystąpień w czasie dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości. Ocena społeczna wystawiona przez takie systemy sztucznej inteligencji może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Takie systemy sztucznej inteligencji należy zatem zakazać. |
Poprawka 41
Wniosek dotyczący rozporządzenia
Motyw 18
Tekst proponowany przez Komisję |
Poprawka |
(18) Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa uważa się za szczególnie ingerujące w prawa i wolności zainteresowanych osób w zakresie, ponieważ może wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających "w czasie rzeczywistym" niosą ze sobą zwiększone ryzyko dla praw i wolności osób, których dotyczą działania organów ścigania. |
(18) Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych "w czasie rzeczywistym" w przestrzeni publicznej jest szczególnie ingerujące w prawa i wolności zainteresowanych osób i może ostatecznie wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru, dawać stronom wprowadzającym identyfikację biometryczną w przestrzeni publicznej pozycję niepod- legającą kontroli i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych stanowiących podstawę praworządności. Techniczne niedokładności systemów sztucznej inteligencji przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Jest to szczególnie istotne, jeżeli chodzi o wiek, pochodzenie etniczne, płeć lub niepełnosprawność. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających "w czasie rzeczywistym" niosą ze sobą zwiększone ryzyko dla praw i wolności osób, których dotyczą działania organów ścigania. Wykorzystanie tych systemów powinno zatem być zabronione w miejscach dostępnych publicznie. Podobnie systemy sztucznej inteligencji wykorzystywane do analizy zapisu obrazu z przestrzeni publicznej za pośrednictwem systemów zdalnej identyfikacji biometrycznej "post factum" również powinny być zabronione, chyba że sąd wydał wcześniej zgodę na wykorzystanie w kontekście egzekwowania prawa, jeżeli jest to absolutnie niezbędne do ukierunkowanego wyszukiwania związanego z konkretnym poważnym przestępstwem, które już miało miejsce, i wyłącznie pod warunkiem uzyskania uprzedniej zgody sądu. |
Poprawka 42
Wniosek dotyczący rozporządzenia
Motyw 19
Tekst proponowany przez Komisję Poprawka |
(19) Wykorzystanie tych systemów do celów egzekwowania prawa powinno zatem być zabronione, z wyjątkiem zamkniętej listy trzech wąsko zdefiniowanych sytuacji, w których wykorzystanie jest absolutnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie potencjalnych ofiar przestępstw, w tym zaginionych dzieci; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz wykrywanie, lokalizowanie, identyfikowanie lub ściganie sprawców przestępstw lub podejrzanych o popełnienie przestępstw, o których mowa w decyzji ramowej Rady 2002/584/WSiSW (38), jeżeli przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata, i zostały zdefiniowane w prawie danego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka zabezpieczającego polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym". Ponadto spośród 32 przestępstw wymienionych w decyzji ramowej Rady 2002/584/WSiSW niektóre mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" będzie w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. |
skreśla się |
(38) Decyzja ramowa Rady 2002/584/WSiSW z dnia 13 czerwca 2002 r. w sprawie europejskiego nakazu aresztowania i procedury wydawania osób między państwami członkowskimi (Dz.U. L 190 z 18.7.2002, s. 1). |
|
Poprawka 43
Wniosek dotyczący rozporządzenia
Motyw 20
Tekst proponowany przez Komisję |
Poprawka |
(20) W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych trzech wąsko zdefiniowanych sytuacji z zamkniętej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ korzystania z takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane w związku z korzystaniem z takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa powinno podlegać odpowiednim ograniczeniom w czasie i przestrzeni, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku użycia w każdej z trzech wyżej wymienionych sytuacji. |
skreśla się |
Poprawka 44
Wniosek dotyczący rozporządzenia
Motyw 21
Tekst proponowany przez Komisję |
Poprawka |
(21) Każde użycie systemu zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa powinno podlegać wyraźnemu i szczegółowemu zezwoleniu wydanemu przez organ sądowy lub niezależny organ administracyjny państwa członkowskiego. Takie zezwolenie należy zasadniczo uzyskać przed rozpoczęciem korzystania z systemu, z wyjątkiem należycie uzasadnionych sytuacji nagłych, to znaczy sytuacji, w których potrzeba skorzystania z danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nagłych wykorzystanie powinno być ograniczone do absolutnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym w kontekście każdego przypadku pilnego użycia przez sam organ ścigania. Ponadto organ ścigania powinien w takich sytuacjach dążyć do jak najszybszego uzyskania zezwolenia, podając jednocześnie powody, dla których nie mógł wystąpić o nie wcześniej. |
skreśla się |
Poprawka 45
Wniosek dotyczący rozporządzenia
Motyw 22
Tekst proponowany przez Komisję |
Poprawka |
(22) Ponadto należy zapewnić, w wyczerpujących ramach określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas gdy -iw zakresie, w jakim - dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. |
skreśla się |
Poprawka 46
Wniosek dotyczący rozporządzenia
Motyw 23
Tekst proponowany przez Komisję |
Poprawka |
(23) Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym stosowanie takich systemów i przetwarzanie odnośnych danych przez właściwe organy - gdy działają w celu egzekwowania prawa - w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach nakreślonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu zapewnienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów innych niż egzekwowanie prawa, w tym przez właściwe organy, nie powinno być jednak objęte szczegółowymi ramami dotyczącymi takiego wykorzystywania do celów egzekwowania prawa, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż egzekwowanie prawa nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia i obowiązujących szczegółowych przepisów prawa krajowego, które mogą stanowić podstawę jego wykonania. |
skreśla się |
Poprawka 47
Wniosek dotyczący rozporządzenia
Motyw 24
Tekst proponowany przez Komisję |
Poprawka |
(24) Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane ze stosowaniem systemów sztucznej inteligencji do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa zgodnie z przepisami niniejszego rozporządzenia, w tym w przypadku gdy systemy te są stosowane przez właściwe organy w przestrzeni publicznej do celów innych niż egzekwowanie prawa, powinno nadal spełniać wszystkie wymogi wynikające, stosownie do przypadku, z art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 ust. 1 rozporządzenia (UE) 2018/1725 oraz art. 10 dyrektywy (UE) 2016/680. |
(24) Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane ze stosowaniem systemów sztucznej inteligencji do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej zgodnie z przepisami niniejszego rozporządzenia powinno nadal spełniać wszystkie wymogi wynikające, stosownie do przypadku, z art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 ust. 1 rozporządzenia (UE) 2018/1725 oraz art. 10 dyrektywy (UE) 2016/680. |
Poprawka 48
Wniosek dotyczący rozporządzenia
Motyw 25
Tekst proponowany przez Komisję |
Poprawka |
(25) Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami określonymi w art. 5 ust. 1 lit. d) oraz art. 5 ust. 2 i 3 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy przestrzegać przepisów ustanowionych na podstawie art. 16 TFUE. |
(25) Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami określonymi w art. 5 ust. 1 lit. d) niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy przestrzegać przepisów ustanowionych na podstawie art. 16 TFUE. |
Poprawka 49
Wniosek dotyczący rozporządzenia
Motyw 26
Tekst proponowany przez Komisję |
Poprawka |
(26) Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 lit. d) oraz art. 5 ust. 2 i 3 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania. |
(26) Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami art. 5 ust. 1 lit. d) niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania. |
Poprawka 50
Wniosek dotyczący rozporządzenia
Motyw 26 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(26a) Systemy sztucznej inteligencji stosowane przez organy ścigania lub w ich imieniu do sporządzania prognoz, profili lub ocen ryzyka w oparciu o profilowanie osób fizycznych lub analizę danych bazującą na cechach osobowości i charakterystyce, łącznie z lokalizacją danej osoby, lub na zachowaniu przestępnym osób fizycznych lub grup osób w przeszłości do celów przewidywania wystąpienia lub ponownego wystąpienia faktycznego lub potencjalnego przestępstwa lub innego karalnego zachowania społecznego lub wykroczenia o charakterze administracyjnym, łącznie z systemami przewidywania oszustw, wiążą się ze szczególnym ryzykiem dyskryminacji niektórych osób lub grup osób, ponieważ naruszają godność ludzką, a także kluczową zasadę prawną domniemania niewinności. Takie systemy sztucznej inteligencji powinny być zatem zabronione. |
Poprawka 51
Wniosek dotyczący rozporządzenia
Motyw 26 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(26b) Masowe i nieukierunkowane pozyskiwanie danych biometrycznych z mediów społecznościowych lub nagrań telewizji przemysłowej w celu stworzenia lub rozszerzenia baz danych służących rozpoznawaniu twarzy zwiększa poczucie masowej inwigilacji i może prowadzić do rażących naruszeń praw podstawowych, w tym prawa do prywatności. Wykorzystywanie systemów sztucznej inteligencji z takim zamiarem powinno zatem być zabronione. |
Poprawka 52
Wniosek dotyczący rozporządzenia
Motyw 26 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(26c) Istnieją poważne obawy co do naukowych podstaw systemów sztucznej inteligencji mających wykrywać emocje oraz cechy fizyczne lub fizjologiczne takie jak mimika twarzy, ruchy, puls czy głos. Emocje czy sposób ich wyrażania i postrzegania różnią się znacznie w zależności od kultury i sytuacji, nawet u tej samej osoby. Do najpoważniejszych niedociągnięć takich technologii należą: ograniczona wiarygodność (kategorie emocji nie są ani wiarygodnie wyrażane, ani jednoznacznie kojarzone ze wspólnym zbiorem ruchów fizycznych lub fizjologicznych), brak swoistości (ekspresja fizyczna czy fizjologiczna nie w pełni odpowiada kategoriom emocji) oraz ograniczona możliwość uogólnienia (wpływ kontekstu i kultury nie jest wystarczająco uwzględniany). Problemy z wiarygodnością, a w konsekwencji poważne ryzyko nadużyć, mogą pojawić się w szczególności podczas wdrażania systemu w rzeczywistych sytuacjach związanych z egzekwowaniem prawa, zarządzaniem granicami, miejscem pracy i instytucjami edukacyjnymi. Dlatego trzeba zakazać wprowadzania do obrotu, oddawania do użytku czy wykorzystywania systemów sztucznej inteligencji przeznaczonych do wykrywania stanu emocjonalnego, osób w takich sytuacjach. |
Poprawka 53
Wniosek dotyczący rozporządzenia
Motyw 26 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(26d) Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy przepisów unijnych, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji. |
Poprawka 54
Wniosek dotyczący rozporządzenia
Motyw 27
Tekst proponowany przez Komisję |
Poprawka |
(27) Systemy sztucznej inteligencji wysokiego ryzyka powinny być wprowadzane do obrotu w Unii lub oddawane do użytku wyłącznie wówczas, gdy spełniają określone obowiązkowe wymogi. Wymogi te powinny zapewniać, aby systemy sztucznej inteligencji wysokiego ryzyka dostępne w Unii lub takie, których wyniki działania są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez nie chronionych. Klasyfikację systemów sztucznej inteligencji jako systemów wysokiego ryzyka należy ograniczyć do tych systemów, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym, o ile występują. |
(27) Systemy sztucznej inteligencji wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub użytkowane wyłącznie wówczas, gdy spełniają określone obowiązkowe wymogi. Wymogi te powinny zapewniać, aby systemy sztucznej inteligencji wysokiego ryzyka dostępne w Unii lub takie, których wyniki działania są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez nie chronionych, w tym praw podstawowych, demokracji, praworządności i środowiska. Aby zapewnić dostosowanie do przepisów sektorowych i unikać powielania, wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka powinny uwzględniać przepisy sektorowe, które określają wymogi w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka objętych niniejszym rozporządzeniem, takie jak rozporządzenie (UE) 2017/745 w sprawie wyrobów medycznych i rozporządzenie (UE) 2017/746 w sprawie wyrobów do diagnostyki in vitro czy dyrektywa 2006/42/WE w sprawie maszyn. Klasyfikację systemów sztucznej inteligencji jako systemów wysokiego ryzyka należy ograniczyć do tych systemów, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym, o ile występują. Biorąc pod uwagę szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w stosowaniu systemów sztucznej inteligencji, wykaz obszarów i przypadków użycia wysokiego ryzyka zawarty w załączniku III powinien jednak podlegać stałemu przeglądowi w drodze regularnej oceny. |
Poprawka 55
Wniosek dotyczący rozporządzenia
Motyw 28
Tekst proponowany przez Komisję |
Poprawka |
(28) Systemy sztucznej inteligencji mogą wywoływać szkodliwe skutki dla zdrowia i bezpieczeństwa osób, w szczególności w przypadku, gdy takie systemy funkcjonują jako elementy produktów. Zgodnie z celami określonymi w unijnym prawodawstwie harmonizacyjnym, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i spełniające pozostałe wymogi, istotne jest odpowiednie zapobieganie i ograniczanie zagrożeń dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy sztucznej inteligencji. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne. Przy klasyfikowaniu systemu sztucznej inteligencji jako systemu wysokiego ryzyka zasadnicze znaczenie ma skala szkodliwego wpływu wywieranego przez system sztucznej inteligencji na prawa podstawowe chronione na mocy Karty. Do praw tych należą: prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz niedyskryminacja, ochrona konsumentów, prawa pracownicze, prawa osób niepełnosprawnych, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty praw podstawowych UE oraz w Konwencji o prawach dziecka (szerzej rozwinięte w komentarzu ogólnym nr 25 do Konwencji ONZ o prawach dziecka w odniesieniu do środowiska cyfrowego), które wymagają uwzględnienia słabości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie powagi szkody, jaką może spowodować system sztucznej inteligencji, w tym w odniesieniu do zdrowia i bezpieczeństwa osób. |
(28) Systemy sztucznej inteligencji mogą mieć negatywny wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako elementy bezpieczeństwa produktów. Zgodnie z celami określonymi w unijnym prawodawstwie harmonizacyj- nym, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i spełniające pozostałe wymogi, istotne jest odpowiednie zapobieganie i ograniczanie zagrożeń dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy sztucznej inteligencji. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne. |
Poprawka 56
Wniosek dotyczący rozporządzenia
Motyw 28 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(28a) Przy klasyfikowaniu systemu sztucznej inteligencji jako systemu wysokiego ryzyka zasadnicze znaczenie ma skala szkodliwego wpływu systemu sztucznej inteligencji na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz niedyskryminacja, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnos- prawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 oraz w Konwencji o prawach dziecka (szerzej rozwinięte w komentarzu ogólnym nr 25 do Konwencji ONZ o prawach dziecka w odniesieniu do środowiska cyfrowego), które wymagają uwzględnienia słabości dzieci oraz zapewnienia im ochrony i opieki koniecznej dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie powagi szkody, jaką może spowodować system sztucznej inteligencji, np. w odniesieniu do zdrowia i bezpieczeństwa osób lub środowiska. |
Poprawka 57
Wniosek dotyczący rozporządzenia
Motyw 29
Tekst proponowany przez Komisję |
Poprawka |
(29) Jeżeli chodzi o systemy sztucznej inteligencji wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (39), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (40), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (41), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (42), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (43), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (44), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (45) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (46) lub które same są takimi produktami lub systemami, wskazane jest wprowadzenie zmian do tych aktów w celu zapewnienia, aby przyjmując wszelkie stosowne przyszłe akty delegowane lub wykonawcze na podstawie wspomnianych aktów, Komisja uwzględniła - w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy i organy zarządzania, oceny zgodności i egzekwowania ustanowione w tych aktach - obowiązkowe wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka określone w niniejszym rozporządzeniu. |
(29) Jeżeli chodzi o systemy sztucznej inteligencji wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (39), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (40), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (41), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (42), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (43), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (44), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (45) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (46) lub które same są takimi produktami lub systemami, wskazane jest wprowadzenie zmian do tych aktów w celu zapewnienia, aby przyjmując wszelkie stosowne przyszłe akty delegowane lub wykonawcze na podstawie wspomnianych aktów, Komisja uwzględniła - w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy i organy zarządzania, oceny zgodności, nadzoru rynku i egzekwowania ustanowione w tych aktach - obowiązkowe wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka określone w niniejszym rozporządzeniu. |
(39) Rozporządzenie Parlamentu Europejskiego i Rady (WE) nr 300/2008 z dnia 11 marca 2008 r. w sprawie wspólnych zasad w dziedzinie ochrony lotnictwa cywilnego i uchylające rozporządzenie (WE) nr 2320/2002 (Dz.U. L 97 z 9.4.2008, s. 72).
|
(39) Rozporządzenie Parlamentu Europejskiego i Rady (WE) nr 300/2008 z dnia 11 marca 2008 r. w sprawie wspólnych zasad w dziedzinie ochrony lotnictwa cywilnego i uchylające rozporządzenie (WE) nr 2320/2002 (Dz.U. L 97 z 9.4.2008, s. 72).
|
(40) Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 167/2013 z dnia 5 lutego 2013 r. w sprawie homologacji i nadzoru rynku pojazdów rolniczych i leśnych (Dz.U. L 60 z 2.3.2013, s. 1).
|
(40) Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 167/2013 z dnia 5 lutego 2013 r. w sprawie homologacji i nadzoru rynku pojazdów rolniczych i leśnych (Dz.U. L 60 z 2.3.2013, s. 1).
|
(41) Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 168/2013 z dnia 15 stycznia 2013 r. w sprawie homologacji i nadzoru rynku pojazdów dwu- lub trzykołowych oraz czterokołowców (Dz.U. L 60 z 2.3.2013, s. 52).
|
(41) Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 168/2013 z dnia 15 stycznia 2013 r. w sprawie homologacji i nadzoru rynku pojazdów dwu- lub trzykołowych oraz czterokołowców (Dz.U. L 60 z 2.3.2013, s. 52).
|
Tekst proponowany przez Komisję |
Poprawka |
(42) Dyrektywa Parlamentu Europejskiego i Rady 2014/90/UE z dnia 23 lipca 2014 r. w sprawie wyposażenia morskiego i uchylająca dyrektywę Rady 96/98/WE (Dz.U. L 257 z 28.8.2014, s. 146).
|
(42) Dyrektywa Parlamentu Europejskiego i Rady 2014/90/UE z dnia 23 lipca 2014 r. w sprawie wyposażenia morskiego i uchylająca dyrektywę Rady 96/98/WE (Dz.U. L 257 z 28.8.2014, s. 146).
|
(43) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/797 z dnia 11 maja 2016 r. w sprawie interoperacyjności systemu kolei w Unii Europejskiej (Dz.U. L 138 z 26.5.2016, s. 44).
|
(43) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/797 z dnia 11 maja 2016 r. w sprawie interoperacyjności systemu kolei w Unii Europejskiej (Dz.U. L 138 z 26.5.2016, s. 44).
|
(44) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).
|
(44) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).
|
(45) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/1139 z dnia 4 lipca 2018 r. w sprawie wspólnych zasad w dziedzinie lotnictwa cywilnego i utworzenia Agencji Unii Europejskiej ds. Bezpieczeństwa Lotniczego oraz zmieniające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 2111/2005, (WE) nr 1008/2008, (UE) nr 996/2010, (UE) nr 376/2014 i dyrektywy Parlamentu Europejskiego i Rady 2014/30/UE i 2014/53/UE, a także uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 552/2004 i (WE) nr 216/2008 i rozporządzenie Rady (EWG) nr 3922/91 (Dz.U. L 212 z 22.8.2018, s. 1).
|
(45) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/1139 z dnia 4 lipca 2018 r. w sprawie wspólnych zasad w dziedzinie lotnictwa cywilnego i utworzenia Agencji Unii Europejskiej ds. Bezpieczeństwa Lotniczego oraz zmieniające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 2111/2005, (WE) nr 1008/2008, (UE) nr 996/2010, (UE) nr 376/2014 i dyrektywy Parlamentu Europejskiego i Rady 2014/30/UE i 2014/53/UE, a także uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 552/2004 i (WE) nr 216/2008 i rozporządzenie Rady (EWG) nr 3922/91 (Dz.U. L 212 z 22.8.2018, s. 1).
|
(46) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/2144 z dnia 27 listopada 2019 r. w sprawie wymogów dotyczących homologacji typu pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, w odniesieniu do ich ogólnego bezpieczeństwa oraz ochrony osób znajdujących się w pojeździe i niechronionych uczestników ruchu drogowego, zmieniające rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 oraz uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 78/2009, (WE) nr 79/2009 i (WE) nr 661/2009 oraz rozporządzenia Komisji (WE) nr 631/2009, (UE) nr 406/2010, (UE) nr 672/2010, (UE)
nr 1003/2010, (UE) nr 1005/2010, (UE) nr 1008/2010, (UE)
nr 1009/2010, (UE) nr 19/2011, (UE) nr 109/2011, (UE)
nr 458/2011, (UE) nr 65/2012, (UE) nr 130/2012, (UE)
nr 347/2012, (UE) nr 351/2012, (UE) nr 1230/2012 i (UE) 2015/166 (Dz.U. L 325 z 16.12.2019, s. 1).
|
(46) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/2144 z dnia 27 listopada 2019 r. w sprawie wymogów dotyczących homologacji typu pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, w odniesieniu do ich ogólnego bezpieczeństwa oraz ochrony osób znajdujących się w pojeździe i niechronionych uczestników ruchu drogowego, zmieniające rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 oraz uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 78/2009, (WE) nr 79/2009 i (WE) nr 661/2009 oraz rozporządzenia Komisji (WE) nr 631/2009, (UE) nr 406/2010, (UE) nr 672/2010, (UE)
nr 1003/2010, (UE) nr 1005/2010, (UE) nr 1008/2010, (UE)
nr 1009/2010, (UE) nr 19/2011, (UE) nr 109/2011, (UE)
nr 458/2011, (UE) nr 65/2012, (UE) nr 130/2012, (UE)
nr 347/2012, (UE) nr 351/2012, (UE) nr 1230/2012 i (UE) 2015/166 (Dz.U. L 325 z 16.12.2019, s. 1).
|
Poprawka 58
Wniosek dotyczący rozporządzenia
Motyw 30
Tekst proponowany przez Komisję |
Poprawka |
(30) W przypadku systemów sztucznej inteligencji, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami objętymi zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą osobą trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmo- nizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne oraz wyroby medyczne do diagnostyki in vitro. |
(30) W przypadku systemów sztucznej inteligencji, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami objętymi zakresem stosowania niektórych przepisów unijnego prawa har- monizacyjnego wymienionego w załączniku II, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności w celu zapewnienia jego zgodności z zasadniczymi wymaganiami w zakresie bezpieczeństwa przez jednostkę oceniającą zgodność będącą osobą trzecią na podstawie tych stosownych przepisów unijnego prawa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne oraz wyroby medyczne do diagnostyki in vitro. |
Poprawka 59
Wniosek dotyczący rozporządzenia
Motyw 31
Tekst proponowany przez Komisję |
Poprawka |
(31) Klasyfikacja systemu sztucznej inteligencji jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt uznaje się za produkt "wysokiego ryzyka" zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyj- nym, które ma zastosowanie do tego produktu. Ma to miejsce w szczególności w przypadku rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/745 (47) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/746 (48), w których ocenę zgodności przeprowadzaną przez osobę trzecią przewidziano dla produktów średniego i wysokiego ryzyka. |
(31) Klasyfikacja systemu sztucznej inteligencji jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt uznaje się za produkt "wysokiego ryzyka" zgodnie z kryteriami ustanowionymi w stosownym unijnym prawie harmonizacyjnym, które ma zastosowanie do tego produktu. Ma to miejsce w szczególności w przypadku rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/745 (47) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/746 (48), w których ocenę zgodności przeprowadzaną przez osobę trzecią przewidziano dla produktów średniego i wysokiego ryzyka. |
(47) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych, zmiany dyrektywy 2001/83/WE, rozporządzenia (WE) nr 178/2002 i rozporządzenia (WE) nr 1223/2009 oraz uchylenia dyrektyw Rady 90/385/EWG i 93/42/EWG (Dz.U. L 117 z 5.5.2017, s. 1).
(48) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746
z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych do diagnostyki in vitro oraz uchylenia dyrektywy 98/79/WE i decyzji Komisji 2010/227/UE (Dz.U. L 117 z 5.5.2017, s. 176).
|
(47) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych, zmiany dyrektywy 2001/83/WE, rozporządzenia (WE) nr 178/2002 i rozporządzenia (WE) nr 1223/2009 oraz uchylenia dyrektyw Rady 90/385/EWG i 93/42/EWG (Dz.U. L 117 z 5.5.2017, s. 1).
(48) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746
z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych do diagnostyki in vitro oraz uchylenia dyrektywy 98/79/WE i decyzji Komisji 2010/227/UE (Dz.U. L 117 z 5.5.2017, s. 176).
|
Poprawka 60
Wniosek dotyczący rozporządzenia
Motyw 32
Tekst proponowany przez Komisję |
Poprawka |
(32) Jeżeli chodzi o samodzielne systemy sztucznej inteligencji, tj. systemy sztucznej inteligencji wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko powstania szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno skalę potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i tych samych kryteriach, które przewidziano także dla wszelkich przyszłych zmian w wykazie systemów sztucznej inteligencji wysokiego ryzyka. |
(32) Jeżeli chodzi o samodzielne systemy sztucznej inteligencji, tj. systemy sztucznej inteligencji wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami i są wymienione w jednym z obszarów i przypadków użycia w załączniku III, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one poważne ryzyko powstania szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób i środowiska i jeżeli system sztucznej inteligencji jest wykorzystywany jako element bezpieczeństwa infrastruktury krytycznej. Takie poważne ryzyko szkody należy określić poprzez ocenę z jednej strony skutków takiego ryzyka w odniesieniu do jego poziomu dotkliwości, intensywności, prawdopodobieństwa wystąpienia i czasu trwania łącznie, a z drugiej strony tego, czy ryzyko może mieć wpływ na osobę fizyczną, wiele osób lub określoną grupę osób. Taka kombinacja może na przykład skutkować wysokim stopniem dotkliwości, ale niskim prawdopodobieństwem dotknięcia osoby fizycznej lub wysokim prawdopodobieństwem dotknięcia grupy osób z małą intensywnością przez długi czas, w zależności od sytuacji. Identyfikacja tych systemów opiera się na tej samej metodyce i tych samych kryteriach, które przewidziano także dla wszelkich przyszłych zmian w wykazie systemów sztucznej inteligencji wysokiego ryzyka. |
Poprawka 61
Wniosek dotyczący rozporządzenia Motyw 32 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(32a) Dostawcy, których systemy sztucznej inteligencji wchodzą w zakres jednego z obszarów i przypadków użycia wymienionych w załączniku III, którzy uważają, że ich system nie stwarza poważnego ryzyka szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska, powinni poinformować krajowe organy nadzoru w drodze uzasadnionego powiadomienia. Mogłoby ono przybrać formę jednostronicowego podsumowania istotnych informacji o danym systemie sztucznej inteligencji, w tym o jego przeznaczeniu i wyjaśnieniu, dlaczego nie stwarza on poważnego ryzyka szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Komisja powinna określić kryteria umożliwiające przedsiębiorstwom ocenę, czy ich system stwarza takie ryzyko, a także opracowanie łatwego w użyciu i ujednoliconego wzoru powiadomienia. Dostawcy powinni przedłożyć powiadomienie jak najwcześniej, a w każdym razie przed wprowadzeniem systemu sztucznej inteligencji do obrotu lub jego oddaniem do użytku, najlepiej na etapie opracowywania systemu, i powinni mieć swobodę wprowadzenia go do obrotu w dowolnym momencie po powiadomieniu. Jeżeli jednak organ uzna, że dany system sztucznej inteligencji został błędnie zaklasyfikowany, powinien zakwestionować powiadomienie w terminie trzech miesięcy. Sprzeciw ten powinien być uzasadniony i należy w nim odpowiednio wyjaśnić, dlaczego system sztucznej inteligencji został błędnie zaklasyfikowany. Dostawca powinien zachować prawo do odwołania się i przedstawienia dalszych argumentów. Jeżeli po upływie trzech miesięcy nie zgłoszono sprzeciwu wobec powiadomienia, krajowe organy nadzoru mogą nadal interweniować, jeżeli system sztucznej inteligencji stwarza ryzyko na szczeblu krajowym, tak jak w przypadku każdego innego systemu sztucznej inteligencji na rynku. Krajowe organy nadzoru powinny przedkładać Urzędowi ds. Sztucznej Inteligencji roczne sprawozdania zawierające szczegółowe informacje na temat otrzymanych powiadomień i podjętych decyzji. |
Poprawka 62
Wniosek dotyczący rozporządzenia
Motyw 33
Tekst proponowany przez Komisję |
Poprawka |
(33) Techniczne niedokładności systemów sztucznej inteligencji przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Jest to szczególnie istotne, jeżeli chodzi o wiek, pochodzenie etniczne, płeć lub niepełnosprawność. W związku z tym systemy zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" i "post factum" należy klasyfikować jako systemy wysokiego ryzyka. Ze względu na zagrożenia, które stwarzają, oba rodzaje systemów zdalnej identyfikacji biometrycznej powinny podlegać szczególnym wymogom dotyczącym funkcji rejestracji zdarzeń i nadzoru ze strony człowieka. |
skreśla się |
Poprawka 63
Wniosek dotyczący rozporządzenia
Motyw 33 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(33a) Ponieważ dane biometryczne stanowią szczególną kategorię wrażliwych danych osobowych zgodnie z rozporządzeniem (UE) 2016/679, kilka krytycznych przypadków użycia systemów biometrycznych i systemów opartych na biometrii należy sklasyfikować jako obarczone wysokim ryzykiem. Systemy sztucznej inteligencji przeznaczone do stosowania do identyfikacji biometrycznej osób fizycznych oraz systemy sztucznej inteligencji przeznaczone do wykorzystywania do wyciągania wniosków o cechach osobowych osób fizycznych na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji, z wyjątkiem systemów, które są zakazane na mocy niniejszego rozporządzenia, należy zatem sklasyfikować jako systemy wysokiego ryzyka. Nie powinno to obejmować systemów sztucznej inteligencji przeznaczonych do weryfikacji biometrycznej, których jedynym celem jest potwierdzenie, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenie tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, urządzenia lub pomieszczeń (weryfikacja "jeden do jednego"). Systemów biometrycznych i opartych na biometrii przewidzianych w prawie Unii w celu umożliwienia stosowania środków w zakresie cyberbezpieczeństwa i ochrony danych osobowych nie należy uznawać za stwarzające znaczne ryzyko szkody dla zdrowia, bezpieczeństwa i praw podstawowych. |
Poprawka 64
Wniosek dotyczący rozporządzenia
Motyw 34
Tekst proponowany przez Komisję |
Poprawka |
(34) W odniesieniu do zarządzania infrastrukturą krytyczną i jej funkcjonowania wskazane jest klasyfikowanie jako systemy wysokiego ryzyka systemów sztucznej inteligencji, które mają być użytkowane jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi ruchu drogowego oraz zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stanowić zagrożenie dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. |
(34) W odniesieniu do zarządzania infrastrukturą krytyczną i jej funkcjonowania wskazane jest klasyfikowanie jako systemy wysokiego ryzyka systemów sztucznej inteligencji, które mają być użytkowane jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi zaopatrzenia w wodę, gaz, ciepło i energię elektryczną oraz krytycznej infrastruktury cyfrowej, ponieważ ich awaria lub nieprawidłowe działanie mogą naruszyć bezpieczeństwo i integralność takiej infrastruktury krytycznej lub stanowić zagrożenie dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Elementy bezpieczeństwa infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy wykorzystywane do bezpośredniej ochrony integralności fizycznej infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do zagrożenia fizycznej integralności infrastruktury krytycznej, i, co za tym idzie, do zagrożenia dla zdrowia i bezpieczeństwa osób i mienia. Elementy przeznaczone do stosowania wyłącznie do celów cyberbezpieczeństwa nie powinny być kwalifikowane jako elementy bezpieczeństwa. Przykłady takich elementów bezpieczeństwa mogą obejmować systemy monitorowania ciśnienia wody lub systemy kontroli alarmu przeciwpożarowego w ośrodkach przetwarzania w chmurze. |
Poprawka 65
Wniosek dotyczący rozporządzenia
Motyw 35
Tekst proponowany przez Komisję |
Poprawka |
(35) Systemy sztucznej inteligencji wykorzystywane w obszarze kształcenia lub szkolenia zawodowego, w szczególności przy podejmowaniu decyzji o dostępie do instytucji kształcenia i szkolenia zawodowego lub nadawaniu osobom przydziału do tych instytucji lub też do oceniania osób na testach w ramach kształcenia lub jako warunek dopuszczenia do kształcenia, należy uznać za systemy wysokiego ryzyka, ponieważ mogą one decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i nieodpowiednio stosowane, mogą naruszać prawo do nauki i odbywania szkoleń, a także prawo do niedyskryminacji i mogą utrwalać historyczne wzorce dyskryminacji. |
(35) Wdrożenie systemów sztucznej inteligencji w edukacji jest ważne dla zmodernizowania całych systemów edukacji, zwiększenia jakości kształcenia, zarówno stacjonarnego, jak i online, oraz przyspieszenia edukacji cyfrowej, a zatem także udostępnienia jej szerszemu gronu odbiorców. Systemy sztucznej inteligencji wykorzystywane w obszarze kształcenia lub szkolenia zawodowego, w szczególności przy podejmowaniu decyzji lub istotnym wpływaniu na decyzje o dostępie do instytucji kształcenia i szkolenia zawodowego, lub nadawaniu osobom przydziału do tych instytucji, lub też ocenianiu osób na testach w ramach kształcenia czy jako warunek dopuszczenia do kształcenia, lub ocenie odpowiedniego poziomu wykształcenia w przypadku danej osoby i istotnego wpływania na poziom wykształcenia i szkolenia zawodowego, jaki dana osoba otrzyma lub do jakiego będzie mogła mieć dostęp, lub monitorowaniu i wykrywaniu zabronionego zachowania studentów podczas testów, należy klasyfikować jako systemy wysokiego ryzyka, ponieważ mogą one decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i stosowane, mogą być szczególnie inwazyjne i naruszać prawo do nauki i odbywania szkoleń, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej. |
Poprawka 66
Wniosek dotyczący rozporządzenia
Motyw 36
Tekst proponowany przez Komisję |
Poprawka |
(36) Systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji o awansie i rozwiązaniu stosunku pracy oraz do przydzielania zadań, monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również klasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe i źródła utrzymania tych osób. Odnośne umowne stosunki pracy powinny obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o których mowa w programie prac Komisji na 2021 r. Co do zasady osób takich nie należy uznawać za użytkowników w rozumieniu niniejszego rozporządzenia. W całym procesie rekrutacji oraz w ramach oceny, awansu lub retencji osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z nie- pełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej. Systemy sztucznej inteligencji wykorzystywane do monitorowania wydajności i zachowania tych osób mogą wpływać również na ich prawo do ochrony danych i prywatności. |
(36) Systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy oraz do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowe lub dane biometryczne, monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również klasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odnośne umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o których mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceny, awansu lub retencji osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z nie- pełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej. Systemy sztucznej inteligencji wykorzystywane do monitorowania wydajności i zachowania tych osób mogą również podważać istotę ich podstawowych praw do ochrony danych i prywatności. Niniejsze rozporządzenie ma zastosowanie bez uszczerbku dla kompetencji Unii i państw członkowskich w zakresie ustanawiania bardziej szczegółowych przepisów w sprawie korzystania z systemów sztucznej inteligencji w kontekście zatrudnienia. |
Poprawka 67
Wniosek dotyczący rozporządzenia
Motyw 37
Tekst proponowany przez Komisję |
Poprawka |
(37) Innym obszarem, w którym stosowanie systemów sztucznej inteligencji zasługuje na szczególną uwagę, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności systemy sztucznej inteligencji wykorzystywane do przeprowadzania punktowej oceny kredytowej lub oceny zdolności kredytowej osób fizycznych należy klasyfikować jako systemy wysokiego ryzyka, ponieważ decydują one o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy sztucznej inteligencji wykorzystywane w tym celu mogą prowadzić do dyskryminacji osób lub grup i utrwalać historyczne wzorce dyskryminacji, na przykład ze względu na pochodzenie rasowe lub etniczne, niepełnosprawność, wiek, orientację seksualną, lub powodować powstawanie dyskryminujących skutków w nowej postaci. Biorąc pod uwagę bardzo ograniczoną skalę skutków i dostępność na rynku alternatywnych rozwiązań, wskazane jest wyłączenie systemów sztucznej inteligencji stosowanych do oceny zdolności kredytowej i punktowej oceny kredytowej, w przypadku gdy są one oddawane do użytku przez drobnych dostawców na ich własny użytek. Osoby fizyczne ubiegające się o świadczenia i usługi w ramach pomocy publicznej zapewniane przez organy publiczne lub korzystające z takich świadczeń i usług są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy sztucznej inteligencji są wykorzystywane do ustalenia, czy organy powinny odmówić takich świadczeń i usług, ograniczyć je, cofnąć lub odzyskać, mogą one mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego. W związku z tym systemy te należy klasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania spełniających odnośne wymogi i bezpiecznych systemów sztucznej inteligencji, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto systemy sztucznej inteligencji wykorzystywane do wysyłania służb pierwszej pomocy w sytuacjach nadzwyczajnych lub ustalania priorytetów w ich wysyłaniu również należy klasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia. |
(37) Innym obszarem, w którym stosowanie systemów sztucznej inteligencji zasługuje na szczególną uwagę, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych, w tym opieki zdrowotnej i podstawowych usług, w tym m.in. mieszkań, elektryczności, ogrzewania, chłodzenia i internetu, oraz świadczeń niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia. W szczególności systemy sztucznej inteligencji wykorzystywane do przeprowadzania punktowej oceny kredytowej lub oceny zdolności kredytowej osób fizycznych należy klasyfikować jako systemy wysokiego ryzyka, ponieważ decydują one o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy sztucznej inteligencji wykorzystywane w tym celu mogą prowadzić do dyskryminacji osób lub grup i utrwalać historyczne wzorce dyskryminacji, na przykład ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub powodować powstawanie dyskryminujących skutków w nowej postaci. Systemów sztucznej inteligencji przewidzianych w prawie Unii do celów wykrywania oszustw w oferowaniu usług finansowych nie należy jednak uznawać za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia. Osoby fizyczne ubiegające się o świadczenia i usługi w ramach pomocy publicznej zapewniane przez organy publiczne lub korzystające z takich świadczeń i usług, w tym opieki zdrowotnej i podstawowych usług, w tym m.in. mieszkań, elektryczności, ogrzewania, chłodzenia i internetu, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy sztucznej inteligencji są wykorzystywane do ustalenia, czy organy powinny odmówić takich świadczeń i usług, ograniczyć je, cofnąć lub odzyskać, mogą one mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego. Podobnie systemy sztucznej inteligencji przeznaczone do wykorzystywania w podejmowaniu decyzji lub wywieraniu istotnego wpływu na decyzje dotyczące kwalifikowalności osób fizycznych do ubezpieczenia zdrowotnego i ubezpieczenia na życie mogą również mieć znaczący wpływ na środki utrzymania tych osób i naruszać ich prawa podstawowe, np. przez ograniczenie dostępu do opieki zdrowotnej lub utrwalanie dyskryminacji ze względu na cechy osobowe. W związku z tym systemy te należy klasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, |
|
która może odnieść korzyści z powszechniejszego wykorzystywania spełniających odnośne wymogi i bezpiecznych systemów sztucznej inteligencji, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto systemy sztucznej inteligencji wykorzystywane do oceny i klasyfikacji zgłoszeń alarmowych dokonywanych przez osoby fizyczne, wysyłania służb pierwszej pomocy w sytuacjach nadzwyczajnych lub ustalania priorytetów w ich wysyłaniu również należy klasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia. |
Poprawka 68
Wniosek dotyczący rozporządzenia
Motyw 37 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(37a) Z uwagi na rolę i zakres odpowiedzialności policji i organów wymiaru sprawiedliwości oraz wpływ podejmowanych przez nie decyzji w odniesieniu do działań zapobiegawczych, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych oraz wykonywania kar niektóre konkretne przypadki wykorzystania zastosowań sztucznej inteligencji do egzekwowania prawa należy uznać za obarczone wysokim ryzykiem, zwłaszcza w przypadkach, w których istnieje możliwość znacznego wpływu na życie lub prawa podstawowe ludzi. |
Poprawka 69
Wniosek dotyczący rozporządzenia
Motyw 38
Tekst proponowany przez Komisję |
Poprawka |
(38) Działania organów ścigania związane z niektórymi zastosowaniami systemów sztucznej inteligencji charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej niejawnym nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innych niekorzystnych skutków dla praw podstawowych gwarantowanych w Karcie. W szczególności jeżeli system sztucznej inteligencji nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy sztucznej inteligencji nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów sztucznej inteligencji przeznaczonych do stosowania w kontekście egzekwowania prawa, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia szkodliwych skutków, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka. Ze względu na charakter przedmiotowych działań i związane z nimi ryzyko do systemów sztucznej inteligencji wysokiego ryzyka należy zaliczyć w szczególności systemy sztucznej inteligencji przeznaczone do stosowania przez organy ścigania do przeprowadzenia indywidualnej oceny ryzyka, jako poligrafy i podobne narzędzia lub do wykrywania stanu emocjonalnego osoby fizycznej, do wykrywania treści typu "deepfake", do oceny wiarygodności dowodów w postępowaniu karnym, do przewidywania wystąpienia lub ponownego wystąpienia faktycznego lub potencjalnego przestępstwa na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakterystyki lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania, jak również do analizy przestępczości osób fizycznych. Systemów sztucznej inteligencji specjalnie przeznaczonych do stosowania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne nie należy uznawać za systemy sztucznej inteligencji wysokiego ryzyka wykorzystywane przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. |
(38) Działania organów ścigania związane z niektórymi zastosowaniami systemów sztucznej inteligencji charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej niejawnym nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innych niekorzystnych skutków dla praw podstawowych gwarantowanych w Karcie. W szczególności jeżeli system sztucznej inteligencji nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem swoich wyników, dokładności lub solidności, lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy sztucznej inteligencji nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów sztucznej inteligencji przeznaczonych do stosowania w kontekście egzekwowania prawa, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia szkodliwych skutków, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka. Ze względu na charakter przedmiotowych działań i związane z nimi ryzyko do systemów sztucznej inteligencji wysokiego ryzyka należy zaliczyć w szczególności systemy sztucznej inteligencji przeznaczone do stosowania przez organy ścigania lub w ich imieniu bądź przez agencje, urzędy lub organy Unii wspierające organy ścigania, takie jak poligrafy i podobne narzędzia, o ile ich na ich stosowanie zezwala odnośne prawo unijne i krajowe, lub do wykrywania stanu emocjonalnego osoby fizycznej, do oceny wiarygodności dowodów w postępowaniu karnym, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania, jak również do analizy przestępczości osób fizycznych. Systemów sztucznej inteligencji specjalnie przeznaczonych do stosowania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne nie należy sklasyfikować jako systemy sztucznej inteligencji wysokiego ryzyka wykorzystywane przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Stosowanie narzędzi sztucznej inteligencji przez organy ścigania i organy wymiaru sprawiedliwości nie powinno stać się czynnikiem powodującym nierówności, podziały społeczne lub wykluczenie. Nie należy ignorować wpływu stosowania |
|
narzędzi sztucznej inteligencji na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych narzędzi oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby objęte dochodzeniem. |
Poprawka 70
Wniosek dotyczący rozporządzenia
Motyw 39
Tekst proponowany przez Komisję |
Poprawka |
(39) Systemy sztucznej inteligencji wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedys- kryminujący charakter i przejrzystość systemów sztucznej inteligencji wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych zainteresowanych osób, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. Za systemy wysokiego ryzyka należy zatem uznać systemy sztucznej inteligencji przeznaczone do wykorzystywania przez właściwe organy publiczne odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną jako poligrafy i podobne narzędzia lub do wykrywania stanu emocjonalnego osoby fizycznej; w celu oceny niektórych zagrożeń stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl; w celu weryfikacji autentyczności odpowiednich dokumentów osób fizycznych; w celu udzielenia pomocy właściwym organom publicznym przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu. Systemy sztucznej inteligencji w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (49), rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (50) i innych właściwych przepisach. |
(39) Systemy sztucznej inteligencji wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedys- kryminujący charakter i przejrzystość systemów sztucznej inteligencji wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych zainteresowanych osób, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. Za systemy wysokiego ryzyka należy zatem uznać systemy sztucznej inteligencji przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu bądź przez agencje, urzędy lub organy Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną jako poligrafy i podobne narzędzia, o ile na ich stosowanie zezwala odnośne prawo unijne i krajowe, w celu oceny niektórych zagrożeń stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl; w celu weryfikacji autentyczności odpowiednich dokumentów osób fizycznych; w celu udzielenia pomocy właściwym organom publicznym przy rozpatrywaniu i ocenie prawdziwości dowodów w odniesieniu do wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu; w celu monitorowania, nadzorowania lub przetwarzania danych osobowych w kontekście działań związanych z zarządzaniem granicami, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych; w celu prognozowania lub przewidywania tendencji |
(49) Dyrektywa Parlamentu Europejskiego i Rady 2013/32/UE z dnia 26 czerwca 2013 r. w sprawie wspólnych procedur udzielania i cofania ochrony międzynarodowej (Dz.U. L 180 z 29.6.2013, s. 60).
(50) Rozporządzenie Parlamentu Europejskiego i Rady (WE)
nr 810/2009 z dnia 13 lipca 2009 r. ustanawiające Wspólnotowy Kodeks Wizowy (kodeks wizowy) (Dz.U. L 243 z 15.9.2009, s. 1).
|
|
|
związanych z ruchami migracyjnymi i przekraczaniem granic. Systemy sztucznej inteligencji w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (49), rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (50) i innych właściwych przepisach. Stosowanie systemów sztucznej inteligencji w zarządzaniu migracją, azylem i kontrolą graniczną w żadnym wypadku nie może być wykorzystywane przez państwa członkowskie lub instytucje, organy lub jednostki organizacyjne Unii do obchodzenia zobowiązań międzynarodowych w ramach Konwencji z 28 lipca 1951 r. dotyczącej statusu uchodźców, zmienionej protokołem z 31 stycznia 1967 r., ani wykorzystywane do naruszania w dowolny sposób zasady non-refoulement lub odmawiania bezpiecznych i skutecznych legalnych dróg migracji na terytorium Unii, w tym prawa do ochrony międzynarodowej. |
(49) Dyrektywa Parlamentu Europejskiego i Rady 2013/32/UE z dnia 26 czerwca 2013 r. w sprawie wspólnych procedur udzielania i cofania ochrony międzynarodowej (Dz.U. L 180 z 29.6.2013, s. 60).
(50) Rozporządzenie Parlamentu Europejskiego i Rady (WE)
nr 810/2009 z dnia 13 lipca 2009 r. ustanawiające Wspólnotowy Kodeks Wizowy (kodeks wizowy) (Dz.U. L 243 z 15.9.2009, s. 1).
|
Poprawka 71
Wniosek dotyczący rozporządzenia
Motyw 40
Tekst proponowany przez Komisję |
Poprawka |
(40) Niektóre systemy sztucznej inteligencji przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy sklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka odwoławczego i do rzetelnego procesu sądowego. W szczególności, aby wyeliminować potencjalne ryzyko tendencyjności, efektu czarnej skrzynki i błędów, jako systemy wysokiego ryzyka należy kwalifikować systemy sztucznej inteligencji, które mają za zadanie pomóc organom sądowym w badaniu i interpretacji faktów i przepisów oraz w stosowaniu tych przepisów do konkretnego stanu faktycznego. Taka kwalifikacja nie powinna jednak rozciągać się na systemy sztucznej inteligencji przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne lub przydział zasobów. |
(40) Niektóre systemy sztucznej inteligencji przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy sklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka odwoławczego i do rzetelnego procesu sądowego. W szczególności, aby wyeliminować potencjalne ryzyko tendencyjności, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy kwalifikować systemy sztucznej inteligencji przeznaczone do wykorzystania przez organ sądowy lub administracyjny lub w ich imieniu, które mają za zadanie pomóc organom sądowym lub administracyjnym w badaniu i interpretacji faktów i przepisów oraz w stosowaniu tych przepisów do konkretnego stanu faktycznego lub wykorzystywane w podobny sposób w alternatywnych metodach rozwiązywania sporów. Stosowanie narzędzi sztucznej inteligencji może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować, gdyż podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Taka kwalifikacja nie powinna jednak rozciągać się na systemy sztucznej inteligencji przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne lub przydział zasobów. |
Poprawka 72
Wniosek dotyczący rozporządzenia
Motyw 40 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(40a) Aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz nieproporcjonalnemu wpływowi na procesy demokratyczne, demokrację i praworządność, systemy sztucznej inteligencji przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowanie wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy klasyfikować jako systemy sztucznej inteligencji wysokiego ryzyka, z wyjątkiem systemów sztucznej inteligencji, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia. |
Poprawka 73
Wniosek dotyczący rozporządzenia
Motyw 40 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(40b) Biorąc pod uwagę skalę korzystania przez osoby fizyczne z usług platform mediów społecznościowych będących bardzo dużymi platformami internetowymi, takie platformy internetowe mogą być wykorzystywane w sposób, który wywiera silny wpływ na bezpieczeństwo w internecie, kształtowanie opinii publicznej i dyskursu publicznego, wybory, procesy demokratyczne i obawy społeczne. Systemy sztucznej inteligencji wykorzystywane przez te platformy internetowe w ich systemach rekomendacji powinny zatem podlegać niniejszemu rozporządzeniu, aby zapewnić zgodność tych systemów sztucznej inteligencji z wymogami określonymi w niniejszym rozporządzeniu, w tym z wymogami technicznymi dotyczącymi zarządzania danymi, dokumentacji technicznej, identyfikowalności, przejrzystości, nadzoru ze strony człowieka, dokładności i solidności. Zgodność z niniejszym rozporządzeniem powinna umożliwić takim bardzo dużym platformom internetowym przestrzeganie ich szerszych obowiązków w zakresie oceny ryzyka i ograniczania ryzyka określonych w art. 34 i 35 rozporządzenia (UE) 2022/2065. Obowiązki określone w niniejszym rozporządzeniu pozostają bez uszczerbku dla rozporządzenia (UE) 2022/2065 i powinny uzupełniać obowiązki wymagane na mocy rozporządzenia (UE) 2022/2065, jeżeli platforma mediów społecznościowych została uznana za bardzo dużą platformę internetową. Biorąc pod uwagę ogólnoeuropejski wpływ platform mediów społecznościowych będących bardzo dużymi platformami internetowymi, organy wyznaczone na podstawie rozporządzenia (UE) 2022/2065 powinny działać jako organy egzekwowania prawa do celów egzekwowania tego przepisu. |
Poprawka 74
Wniosek dotyczący rozporządzenia
Motyw 41
Tekst proponowany przez Komisję |
Poprawka |
(41) Faktu, że dany system sztucznej inteligencji został sklasyfikowany jako system wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest siłą rzeczy zgodne z prawem na gruncie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania poligrafów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie należy kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych. |
(41) Faktu, że dany system sztucznej inteligencji został sklasyfikowany jako system sztucznej inteligencji wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest siłą rzeczy zgodne albo niezgodne z prawem na gruncie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych. Każde takie wykorzystanie należy kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. |
Poprawka 75
Wniosek dotyczący rozporządzenia
Motyw 41 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(41a) Szereg prawnie wiążących przepisów na szczeblu europejskim, krajowym i międzynarodowym już dziś obowiązuje w stosunku do systemów sztucznej inteligencji lub ma w odniesieniu do nich znaczenie, w tym między innymi prawo pierwotne UE (traktaty Unii Europejskiej i Karta praw podstawowych), prawo wtórne UE (takie jak ogólne rozporządzenie o ochronie danych, dyrektywa w sprawie odpowiedzialności za produkty, rozporządzenie w sprawie swobodnego przepływu danych nieoso- bowych, dyrektywy antydyskryminacyjne, prawo ochrony konsumentów oraz dyrektywy w sprawie bezpieczeństwa i zdrowia w miejscu pracy), traktaty ONZ dotyczące praw człowieka i konwencje Rady Europy (takie jak europejska konwencja praw człowieka) oraz prawo krajowe. Poza przepisami o zastosowaniu horyzontalnym istnieje szereg przepisów, które regulują poszczególne dziedziny i odnoszą się do konkretnych zastosowań sztucznej inteligencji (takie jak np. rozporządzenie w sprawie wyrobów medycznych w sektorze opieki zdrowotnej). |
Poprawka 76
Wniosek dotyczący rozporządzenia
Motyw 42
Tekst proponowany przez Komisję |
Poprawka |
(42) Aby ograniczyć ryzyko dla użytkowników i zainteresowanych osób stwarzane przez systemy sztucznej inteligencji wysokiego ryzyka wprowadzone do obrotu lub w inny sposób oddawane do użytku na rynku unijnym, należy wprowadzić pewne obowiązkowe wymogi, z uwzględnieniem docelowego zastosowania systemu oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. |
(42) Aby ograniczyć ryzyko dla operatorów systemów sztucznej inteligencji i zainteresowanych osób stwarzane przez systemy sztucznej inteligencji wysokiego ryzyka wprowadzone do obrotu lub w inny sposób oddawane do użytku na rynku unijnym, należy wprowadzić pewne obowiązkowe wymogi, z uwzględnieniem docelowego lub racjonalnie przewidywanego nadużywania systemu oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Wymogi te powinny być ukierunkowane na cel, dostosowane do swojego przeznaczenia, rozsądne i skuteczne, bez nakładania zbędnych obciążeń regulacyjnych lub kosztów na operatorów. |
Poprawka 77
Wniosek dotyczący rozporządzenia
Motyw 43
Tekst proponowany przez Komisję |
Poprawka |
(43) Systemy sztucznej inteligencji wysokiego ryzyka powinny podlegać wymogom dotyczącym jakości wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji użytkownikom, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć zagrożenia dla zdrowia, bezpieczeństwa i praw podstawowych, w stosownych przypadkach w świetle przeznaczenia systemu, gdy nie są racjonalnie dostępne inne środki, które powodowałyby mniejsze ograniczenia w handlu, co pozwala uniknąć nieuzasadnionych ograniczeń w handlu. |
(43) Systemy sztucznej inteligencji wysokiego ryzyka powinny podlegać wymogom dotyczącym jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji operatorom systemów sztucznej inteligencji, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć zagrożenia dla zdrowia, bezpieczeństwa i praw podstawowych, a także środowiska, demokracji, praworządności, w stosownych przypadkach w świetle przeznaczenia lub racjonalnie przewidywanego nadużycia systemu, gdy nie są racjonalnie dostępne inne środki, które powodowałyby mniejsze ograniczenia w handlu, co pozwala uniknąć nieuzasadnionych ograniczeń w handlu. |
Poprawka 78
Wniosek dotyczący rozporządzenia
Motyw 44
Tekst proponowany przez Komisję |
Poprawka |
(44) Wysoka jakość danych ma zasadnicze znaczenie dla skuteczności działania wielu systemów sztucznej inteligencji, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system sztucznej inteligencji wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych powinny być wystarczająco adekwatne, reprezentatywne i wolne od błędów oraz kompletne z punktu widzenia przeznaczenia systemu. Powinny one również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system sztucznej inteligencji wysokiego ryzyka ma być wykorzystywany. W szczególności zbiory danych treningowych, walidacyjnych i testowych powinny uwzględniać - w zakresie wymaganym w świetle ich przeznaczenia - cechy, właściwości lub elementy, które są specyficzne dla określonego kontekstu geograficznego, behawioralnego lub funkcjonalnego lub okoliczności, w których system sztucznej inteligencji ma być wykorzystywany. Aby chronić prawa innych osób przed dyskryminacją, która może wynikać z tendencyjności systemów sztucznej inteligencji, dostawcy powinni mieć możliwość przetwarzania również szczególnych kategorii danych osobowych przez wzgląd na istotny interes publiczny w celu zapewnienia monitorowania, wykrywania i eliminowania tendencyjności w systemach sztucznej inteligencji wysokiego ryzyka. |
(44) Dostęp do wysokiej jakości danych odgrywa kluczową rolę w zapewnianiu struktury i skuteczności działania wielu systemów sztucznej inteligencji, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system sztucznej inteligencji wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie zarządzania danymi. Zbiory danych treningowych, a w stosownych przypadkach walidacyjnych i testowych, w tym etykiety, powinny być wystarczająco adekwatne, reprezentatywne, odpowiednio zweryfikowane pod kątem błędów oraz jak najbardziej kompletne z punktu widzenia przeznaczenia systemu. Powinny one również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system sztucznej inteligencji wysokiego ryzyka ma być wykorzystywany, przy czym szczególną uwagę należy poświęcić zmniejszeniu ewentualnej tendencyjności w zbiorach danych, która mogłaby skutkować zagrożeniami dla praw podstawowych lub dyskryminacją osób mających styczność z systemem sztucznej inteligencji wysokiego ryzyka. Tendencyjność może być na przykład nieodłączną cechą podstawowych zbiorów danych, szczególnie jeżeli używa się danych historycznych wprowadzonych przez twórców algorytmów lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki osiągane przez systemy sztucznej inteligencji wpływa taka nieodłączna tendencyjność, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do niektórych słabszych grup lub grup etnicznych czy społeczności rasowych. W szczególności zbiory danych treningowych, walidacyjnych i testowych powinny uwzględniać - w zakresie wymaganym w świetle ich przeznaczenia - cechy, właściwości lub elementy, które są specyficzne dla określonych uwarunkowań geograficznych, kontekstowych, behawioralnych lub funkcjonalnych lub kontekstu, w którym system sztucznej inteligencji ma być wykorzystywany. Aby chronić prawa innych osób przed dyskryminacją, która może |
|
wynikać z tendencyjności systemów sztucznej inteligencji, dostawcy - wyjątkowo i po spełnieniu wszystkich obowiązujących warunków określonych w niniejszym rozporządzeniu, rozporządzeniu (UE) 2016/679, dyrektywie (UE) 2016/680 i rozporządzeniu (UE) 2018/1725 - powinni mieć możliwość przetwarzania również szczególnych kategorii danych osobowych przez wzgląd na istotny interes publiczny w celu zapewnienia monitorowania, wykrywania i eliminowania tendencyjności w systemach sztucznej inteligencji wysokiego ryzyka. Negatywna tendencyjność powinna być rozumiana jako wywołująca bezpośredni lub pośredni skutek dyskryminacyjny wobec osoby fizycznej. Wymogi związane z zarządzaniem danymi można spełnić, korzystając z usług osób trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi, integralność zbiorów danych oraz praktyki w zakresie szkolenia, walidacji i testowania danych. |
Poprawka 79
Wniosek dotyczący rozporządzenia
Motyw 45
Tekst proponowany przez Komisję |
Poprawka |
(45) W celu opracowania systemów sztucznej inteligencji wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, w tym ośrodki innowacji cyfrowych, ośrodki testowo- doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w swoich odpowiednich obszarach działalności związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów sztucznej inteligencji na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz przy odpowiednim zarządzaniu instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. |
(45) W celu opracowania i oceny systemów sztucznej inteligencji wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, w tym ośrodki innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w swoich odpowiednich obszarach działalności związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedys- kryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów sztucznej inteligencji na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz przy odpowiednim zarządzaniu instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. |
Poprawka 80
Wniosek dotyczący rozporządzenia Motyw 45 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(45a) Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu sztucznej inteligencji. W tym względzie zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, określone w unijnych przepisach o ochronie danych, mają zasadnicze znaczenie, gdy przetwarzanie danych wiąże się z istotnym ryzykiem dla praw podstawowych osób fizycznych. Dostawcy i użytkownicy systemów sztucznej inteligencji powinni wdrożyć najnowocześniejsze środki techniczne i organizacyjne w celu ochrony tych praw. Środki te powinny obejmować nie tylko anonimizację i szyfrowanie, ale także wykorzystanie coraz bardziej dostępnej technologii, która pozwala na zastosowanie algorytmów do danych i umożliwia uzyskanie cennej wiedzy bez konieczności przekazywania danych między stronami lub niepotrzebnego kopiowania samych danych surowych lub ustrukturyzowanych. |
Poprawka 81
Wniosek dotyczący rozporządzenia
Motyw 46
Tekst proponowany przez Komisję |
Poprawka |
(46) Dysponowanie informacjami na temat tego, w jaki sposób opracowano systemy sztucznej inteligencji wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu. Wymaga to prowadzenia rejestrów zdarzeń oraz zapewnienia dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu sztucznej inteligencji z odpowiednimi wymogami. Informacje takie powinny obejmować ogólne właściwości, możliwości i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać aktualizacji. |
(46) Dysponowanie kompleksowymi informacjami na temat tego, w jaki sposób opracowano systemy sztucznej inteligencji wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu. Wymaga to prowadzenia rejestrów zdarzeń oraz zapewnienia dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu sztucznej inteligencji z odpowiednimi wymogami. Informacje takie powinny obejmować ogólne właściwości, możliwości i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu sztucznej inteligencji. Systemy sztucznej inteligencji mogą mieć duży i istotny wpływ na środowisko i wysokie zużycie energii podczas swojego cyklu życia. Aby lepiej uwzględnić wpływ systemów sztucznej inteligencji na środowisko, dokumentacja techniczna sporządzana przez dostawców powinna zawierać informacje na temat zużycia energii przez system sztucznej inteligencji, w tym zużycia podczas opracowywania i przewidywanego zużycia podczas użytkowania. Informacje takie powinny uwzględniać odpowiednie przepisy unijne i krajowe. Te zgłaszane informacje powinny być zrozumiałe, porównywalne i weryfikowalne i w tym celu Komisja powinna opracować wytyczne dotyczące zharmonizowanej metodologii obliczania i przekazywania tych informacji. W celu zapewnienia, aby możliwa była jedna dokumentacja, terminy i definicje związane z wymaganą dokumentacją oraz wszelkie dokumenty wymagane w odpowiednich unijnych przepisach muszą być w jak największym stopniu ze sobą zgodne. |
Poprawka 82
Wniosek dotyczący rozporządzenia
Motyw 46 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(46a) Systemy sztucznej inteligencji powinny uwzględniać nowoczesne metody i odnośne obowiązujące standardy w celu redukcji zużycia energii i zasobów, zmniejszenia ilości odpadów, zwiększenia efektywności energetycznej i ogólnej efektywności systemu. Aspekty środowiskowe systemów sztucznej inteligencji, które są istotne do celów niniejszego rozporządzenia, to zużycie energii przez system sztucznej inteligencji na etapie opracowywania, szkolenia i wdrażania, a także rejestrowanie, zgłaszanie i przechowywanie tych danych. Projektowanie systemów sztucznej inteligencji powinno umożliwiać pomiar i rejestrowanie zużycia energii i zasobów na każdym etapie opracowywania, szkolenia i wdrażania. Monitorowanie i sprawozdawczość w zakresie emisji z systemów sztucznej inteligencji muszą być solidne, przejrzyste, spójne i dokładne. W celu zapewnienia jednolitego stosowania niniejszego rozporządzenia i stabilnego ekosystemu prawnego dla dostawców i operatorów systemów sztucznej inteligencji na jednolitym rynku Komisja powinna opracować wspólne specyfikacje dotyczące metodyki spełnienia wymogów w zakresie sprawozdawczości i dokumentacji dotyczących zużycia energii i zasobów podczas opracowywania, szkolenia i wdrażania. Takie wspólne specyfikacje dotyczące metodyki pomiaru mogą stanowić podstawę, na której Komisja może lepiej decydować, czy potrzebne są przyszłe interwencje regulacyjne po przeprowadzeniu oceny skutków uwzględniającej obowiązujące prawo. |
Poprawka 83
Wniosek dotyczący rozporządzenia
Motyw 46 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(46b) Aby osiągnąć cele niniejszego rozporządzenia i przyczynić się do realizacji celów środowiskowych Unii, przy jednoczesnym zapewnieniu sprawnego funkcjonowania rynku wewnętrznego, konieczne może być opracowanie zaleceń i wytycznych oraz, ostatecznie, celów zrówno- ważoności. Dlatego Komisja jest uprawniona do opracowania metodyki, która pozwoli wnieść wkład w kluczowe wskaźniki skuteczności działania oraz odniesienie dla celów zrównoważonego rozwoju. Celem powinno być przede wszystkim umożliwienie uczciwego porównania wyborów dotyczących wdrażania sztucznej inteligencji, które zachęcają do promowania stosowania bardziej wydajnych technologii sztucznej inteligencji rozwiązujących problemy związane z energią i zasobami. Aby osiągnąć ten cel, niniejsze rozporządzenie powinno zapewnić środki do ustanowienia podstaw gromadzenia danych zgłaszanych na temat emisji pochodzących z opracowywania, szkolenia i wdrażania. |
Poprawka 84
Wniosek dotyczący rozporządzenia
Motyw 47 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(47a) Takie wymogi dotyczące przejrzystości i wytłumaczal- ności procesu decyzyjnego w zakresie sztucznej inteligencji powinny również pomóc w przeciwdziałaniu odstraszającym skutkom asymetrii cyfrowej i tzw. zwodniczych interfejsów ukierunkowanych na osoby fizyczne i ich świadomą zgodę. |
Poprawka 85
Wniosek dotyczący rozporządzenia
Motyw 49
Tekst proponowany przez Komisję |
Poprawka |
(49) Systemy sztucznej inteligencji wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa zgodnie z powszechnie uznawanym stanem wiedzy. O poziomie dokładności i wskaźnikach dokładności należy informować użytkowników. |
(49) Systemy sztucznej inteligencji wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa zgodnie z powszechnie uznawanym stanem wiedzy.Wskaźniki skuteczności i ich spodziewany poziom należy zdefiniować zgodnie z zasadniczym celem ograniczenia zagrożeń i negatywnego wpływu systemu sztucznej inteligencji. O oczekiwanym poziomie wskaźników skuteczności należy informować operatorów systemów sztucznej inteligencji w jasny, przejrzysty, zrozumiały i czytelny sposób. Deklaracji wskaźników skuteczności nie można uznać za dowód przyszłych poziomów, ale należy zastosować odpowiednie metody, aby zapewnić spójność poziomów podczas stosowania. Chociaż istnieją organizacje normalizacyjne, które ustanawiają normy, konieczna jest koordynacja w zakresie analizy porównawczej w celu ustalenia, w jaki sposób należy mierzyć te znormalizowane wymogi i właściwości systemów sztucznej inteligencji. Europejski Urząd ds. Sztucznej Inteligencji powinien skupiać krajowe i międzynarodowe organy ds. metrologii i ustalania wskaźników oraz wydawać niewiążące wytyczne dotyczące technicznych aspektów pomiaru odpowiedniego poziomu skuteczności i solidności. |
Poprawka 86
Wniosek dotyczący rozporządzenia
Motyw 50
Tekst proponowany przez Komisję |
Poprawka |
(50) Kluczowym wymogiem dotyczącym systemów sztucznej inteligencji wysokiego ryzyka jest solidność techniczna. Systemy te powinny być odporne na zagrożenia związane z ograniczeniami systemu (np. błędami, usterkami, niespójnościami, nieprzewidzianymi sytuacjami), jak również na szkodliwe działania, które mogą naruszyć bezpieczeństwo systemu sztucznej inteligencji i prowadzić do szkodliwych lub innych niepożądanych zachowań. Brak ochrony przed tymi zagrożeniami może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji bądź nieprawidłowych lub tendencyjnych wyników działania generowanych przez system sztucznej inteligencji. |
(50) Kluczowym wymogiem dotyczącym systemów sztucznej inteligencji wysokiego ryzyka jest solidność techniczna. Systemy te powinny być odporne na zagrożenia związane z ograniczeniami systemu (np. błędami, usterkami, niespójnościami, nieprzewidzianymi sytuacjami), jak również na szkodliwe działania, które mogą naruszyć bezpieczeństwo systemu sztucznej inteligencji i prowadzić do szkodliwych lub innych niepożądanych zachowań. Brak ochrony przed tymi zagrożeniami może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji bądź nieprawidłowych lub tendencyjnych wyników działania generowanych przez system sztucznej inteligencji. Użytkownicy systemów sztucznej inteligencji powinni dokładać starań, by ewentualny kompromis między solidnością a dokładnością nie prowadził do dyskryminujących lub negatywnych skutków dla podgrup mniejszości. |
Poprawka 87
Wniosek dotyczący rozporządzenia
Motyw 51
Tekst proponowany przez Komisję |
Poprawka |
(51) Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów sztucznej inteligencji na próby modyfikacji ich zastosowania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące podatności systemu. Cyberataki na systemy sztucznej inteligencji mogą polegać na wykorzystaniu konkretnych zasobów, takich jak zbiory danych treningowych (np. "data poisoning") lub trenowane modele (np. ataki polegające na wprowadzeniu do modelu złośliwych danych w celu spowodowania niezamierzonego działania systemu), lub wykorzystaniu podatności w zasobach cyfrowych systemu sztucznej inteligencji lub w infrastrukturze ICT, na której opiera się dany system. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów sztucznej inteligencji wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system. |
(51) Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów sztucznej inteligencji na próby modyfikacji ich zastosowania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące podatności systemu. Cyberataki na systemy sztucznej inteligencji mogą polegać na wykorzystaniu konkretnych zasobów, takich jak zbiory danych treningowych (np. "data poisoning") lub trenowane modele (np. ataki polegające na wprowadzeniu do modelu złośliwych danych w celu spowodowania niezamierzonego działania systemu lub ataki na poufność), lub wykorzystaniu podatności w zasobach cyfrowych systemu sztucznej inteligencji lub w infrastrukturze ICT, na której opiera się dany system. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów sztucznej inteligencji wysokiego ryzyka, jak również jednostki notyfikowane, właściwe organy krajowe i organy nadzoru rynku powinni zatem wdrożyć odpowiednie środki, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system. Systemy sztucznej inteligencji wysokiego ryzyka powinny być wyposażone w rozwiązania w zakresie bezpieczeństwa i w łatki zabezpieczające przewidziane na cały cykl życia konkretnego produktu lub - w przypadku braku zależności od konkretnego produktu - na czas określony przez producenta. |
Poprawka 88
Wniosek dotyczący rozporządzenia
Motyw 53 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(53a) Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnospraw- nościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i stosowanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny, równy i nieograniczony dostęp dla wszystkich osób, których potencjalnie dotyczą technologie sztucznej inteligencji lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą (UE) 2016/2102 i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu sztucznej inteligencji wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki. |
Poprawka 89
Wniosek dotyczący rozporządzenia
Motyw 54
Tekst proponowany przez Komisję |
Poprawka |
(54) Dostawca powinien ustanowić skuteczny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Organy publiczne, które oddają do użytku systemy sztucznej inteligencji wysokiego ryzyka na własny użytek, mogą przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością w ramach systemu zarządzania jakością przyjętego, stosownie do przypadku, na szczeblu krajowym lub regionalnym, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego. |
(54) Dostawca powinien ustanowić skuteczny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. W przypadku dostawców, którzy już posiadają systemy zarządzania jakością oparte na normach takich jak ISO 9001 lub innych odpowiednich normach, nie należy oczekiwać pełnego powielania systemu zarządzania jakością, lecz raczej dostosowania istniejących systemów do pewnych aspektów związanych ze zgodnością ze szczegółowymi wymogami niniejszego rozporządzenia. Powinno to również znaleźć odzwierciedlenie w przyszłej działalności normalizacyjnej lub w wytycznych przyjętych przez Komisję w tym zakresie. Organy publiczne, które oddają do użytku systemy sztucznej inteligencji wysokiego ryzyka na własny użytek, mogą przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością w ramach systemu zarządzania jakością przyjętego, stosownie do przypadku, na szczeblu krajowym lub regionalnym, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego. |
Poprawka 90
Wniosek dotyczący rozporządzenia
Motyw 56
Tekst proponowany przez Komisję |
Poprawka |
(56) W celu umożliwienia egzekwowania niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także biorąc pod uwagę różnorakie formy udostępniania produktów cyfrowych, należy zapewnić, aby osoba mająca siedzibę w Unii zawsze była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności systemu sztucznej inteligencji z przepisami. W związku z tym w przypadku, gdy nie ma możliwości zidentyfikowania importera, dostawcy mający siedzibę poza terytorium Unii są zobowiązani wyznaczyć - na podstawie pisemnego pełnomocnictwa - upoważnionego przedstawiciela mającego siedzibę w Unii przed udostępnieniem swoich systemów sztucznej inteligencji w Unii. |
(56) W celu umożliwienia egzekwowania niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także biorąc pod uwagę różnorakie formy udostępniania produktów cyfrowych, należy zapewnić, aby osoba mająca siedzibę w Unii zawsze była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności systemu sztucznej inteligencji z przepisami. W związku z tym dostawcy mający siedzibę poza terytorium Unii są zobowiązani wyznaczyć - na podstawie pisemnego pełnomocnictwa - upoważnionego przedstawiciela mającego siedzibę w Unii przed udostępnieniem swoich systemów sztucznej inteligencji w Unii. |
Poprawka 91
Wniosek dotyczący rozporządzenia
Motyw 58
Tekst proponowany przez Komisję |
Poprawka |
(58) Ze względu na naturę systemów sztucznej inteligencji oraz zagrożenia dla bezpieczeństwa i praw podstawowych, jakie mogą wiązać się z ich wykorzystywaniem, w tym uwzględniając potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu sztucznej inteligencji w warunkach rzeczywistych, należy określić szczególne obowiązki użytkowników. Użytkownicy powinni w szczególności korzystać z systemów sztucznej inteligencji wysokiego ryzyka zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów sztucznej inteligencji oraz rejestrowania zdarzeń. |
(58) Ze względu na naturę systemów sztucznej inteligencji oraz zagrożenia dla bezpieczeństwa i praw podstawowych, jakie mogą wiązać się z ich wykorzystywaniem, w tym uwzględniając potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu sztucznej inteligencji w warunkach rzeczywistych, należy określić szczególne obowiązki operatorów sztucznej inteligencji. Operatorzy sztucznej inteligencji powinni w szczególności korzystać z systemów sztucznej inteligencji wysokiego ryzyka zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów sztucznej inteligencji oraz rejestrowania zdarzeń. |
Poprawka 92
Wniosek dotyczący rozporządzenia
Motyw 58 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(58a) Ryzyko związane z systemami sztucznej inteligencji może wynikać ze sposobu projektowania takich systemów, jak również ze sposobu korzystania z nich. Operatorzy systemu sztucznej inteligencji wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych jako uzupełnienie obowiązków dostawcy podczas opracowywania systemu sztucznej inteligencji. Operatorzy systemu sztucznej inteligencji najlepiej rozumieją, jak konkretnie stosowany będzie system sztucznej inteligencji wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne poważne ryzyka, które nie zostały przewidziane na etapie opracowywania, dzięki bardziej precyzyjnej wiedzy na temat kontekstu stosowania oraz osób lub grup osób, na które system może wywierać wpływ, w tym grup zmarginalizowanych i szczególnie wrażliwych. Operatorzy powinni określić odpowiednie struktury zarządzania w tym konkretnym kontekście użytkowania, takie jak ustalenia dotyczące nadzoru ze strony człowieka oraz procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ wybory w strukturach zarządzania mogą mieć zasadnicze znaczenie dla ograniczania zagrożeń dla praw podstawowych w konkretnych przypadkach użycia. Aby skutecznie |
|
zapewnić ochronę praw podstawowych, operator systemu sztucznej inteligencji wysokiego ryzyka powinien w związku z tym przeprowadzić ocenę wpływu systemu na prawa podstawowe, zanim odda go do użytku. Ocenie wpływu powinien towarzyszyć szczegółowy plan opisujący środki lub narzędzia, które pomogą ograniczać zidentyfikowane ryzyko dla praw podstawowych najpóźniej z chwilą oddania systemu do użytku. Jeżeli nie można zidentyfikować takiego planu, operator systemu sztucznej inteligencji powinien powstrzymać się od oddania systemu do użytku. Przeprowadzając ocenę skutków, operator systemu sztucznej inteligencji powinien powiadomić krajowy organ nadzoru oraz, w jak największym stopniu, odpowiednie zainteresowane strony, a także przedstawicieli grup osób, na które system sztucznej inteligencji może mieć wpływ, w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków, i zachęca je do podawania podsumowania oceny skutków w zakresie praw podstawowych do wiadomości publicznej na stronie internetowej. Obowiązki te nie powinny mieć zastosowania do MŚP, które ze względu na brak zasobów mogą mieć trudności z przeprowadzeniem takich konsultacji. Nie mniej jednak powinni oni starać się też angażować takich przedstawicieli przy przeprowadzaniu oceny wpływu na prawa podstawowe.Ponadto, biorąc pod uwagę potencjalny wpływ i potrzebę demokratycznego nadzoru i kontroli, od operatorów systemów sztucznej inteligencji wysokiego ryzyka, którzy są organami publicznymi lub instytucjami, organami, urzędami i agencjami Unii, a także od operatorów, którzy są przedsiębiorstwami wyznaczonymi jako strażnicy dostępu na podstawie rozporządzenia (UE) 2022/1925, należy wymagać rejestracji zastosowania każdego systemu sztucznej inteligencji wysokiego ryzyka w publicznej bazie danych. Inni operatorzy mogą zarejestrować się dobrowolnie. |
Poprawka 93
Wniosek dotyczący rozporządzenia
Motyw 59
Tekst proponowany przez Komisję |
Poprawka |
(59) Należy przewidzieć, że za użytkownika systemu sztucznej inteligencji uznaje się osobę fizyczną lub prawną, organ publiczny, agencję lub inny organ, które odpowiadają za eksploatację systemu sztucznej inteligencji, chyba że system jest wykorzystywany w ramach osobistej działalności pozazawodowej. |
(59) Należy przewidzieć, że za operatora systemu sztucznej inteligencji uznaje się osobę fizyczną lub prawną, organ publiczny, agencję lub inny organ, które odpowiadają za eksploatację systemu sztucznej inteligencji, chyba że system jest wykorzystywany w ramach osobistej działalności pozazawodowej. |
Poprawka 94
Wniosek dotyczący rozporządzenia
Motyw 60
Tekst proponowany przez Komisję |
Poprawka |
(60) Ponieważ łańcuch wartości sztucznej inteligencji jest złożony, odpowiednie osoby trzecie - w szczególności zajmujące się sprzedażą i dostarczaniem oprogramowania, narzędzi i elementów oprogramowania, wcześniej wytrenowanych modeli i danych lub dostawcy usług sieciowych - powinny współpracować, w stosownych przypadkach, z dostawcami i użytkownikami, aby umożliwić im wypełnianie obowiązków wynikających z niniejszego rozporządzenia, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia. |
(60) W ramach łańcucha wartości sztucznej inteligencji wiele podmiotów często dostarcza narzędzia i usługi, ale również elementy lub procesy, które są następnie włączane przez dostawcę do systemu sztucznej inteligencji, w tym w odniesieniu do gromadzenia i wstępnego przetwarzania danych, trenowania modelu, przekwalifikowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty zaangażowane mogą udostępniać swoją ofertę komercyjną bezpośrednio lub pośrednio, za pośrednictwem interfejsów, takich jak interfejsy programowania aplikacji, i dystrybuować je na bezpłatnych i otwartych licencjach, ale również coraz częściej przez platformy pracowników AI, odsprzedaż przetrenowanych parametrów, zestawy do własnoręcznego tworzenia modeli lub oferowanie płatnego dostępu do modelu obsługującego architekturę służącą do opracowywania i trenowania modeli. Ponieważ łańcuch wartości sztucznej inteligencji jest złożony, wszystkie odpowiednie osoby trzecie - w szczególności te, które zajmują się opracowywaniem, sprzedażą i komercyjnym dostarczaniem narzędzi oprogramowania, komponentów, wcześniej wytrenowanych modeli lub danych wbudowanych w system sztucznej inteligencji, lub dostawcy usług sieciowych - powinny udostępniać, nie naruszając własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa, wymagane informacje, szkolenia lub wiedzę fachową oraz współpracować, w stosownych przypadkach, z dostawcami, aby umożliwić im kontrolę nad wszystkimi aspektami systemu sztucznej inteligencji, które wchodzą w zakres niniejszego rozporządzenia, istotnymi dla wypełniania obowiązków. Aby umożliwić racjonalne pod względem kosztów zarządzanie łańcuchem wartości sztucznej inteligencji, poziom kontroli jest wyraźnie ujawniany przez każdą osobę trzecią, która dostarcza dostawcy narzędzie, usługę, komponent lub proces, włączane później przez dostawcę do systemu sztucznej inteligencji. |
Poprawka 95
Wniosek dotyczący rozporządzenia
Motyw 60 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60a) Jeżeli jedna ze stron ma silniejszą pozycję negocjacyjną, istnieje ryzyko, że strona ta mogłaby wykorzystać taką pozycję ze szkodą dla drugiej umawiającej się strony podczas negocjowania dostarczania narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub zakończenia powiązanych obowiązków. Takie zaburzenia równowagi umownej szkodzą w szczególności mikroprzedsiębiorstwom oraz małym i średnim przedsiębiorstwom, a także przedsiębiorstwom typu startup, chyba że są one własnością lub podwykonawcą przedsiębiorstwa, które jest w stanie odpowiednio wypłacić podwykonawcom rekompensaty, ponieważ nie mają one istotnej zdolności do negocjowania warunków umowy i mogą nie mieć innego wyboru, jak tylko zaakceptować postanowienia umowne na zasadzie "przyjmij albo zrezygnuj". W związku z tym nieuczciwe postanowienia umowne regulujące dostarczanie narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środki zaradcze w przypadku naruszenia lub wygaśnięcia powiązanych obowiązków, nie powinny być wiążące dla takich mikroprzedsiębiorstw, małych i średnich przedsiębiorstw oraz przedsiębiorstw typu startup, jeżeli zostały na nie jednostronnie nałożone. |
Poprawka 96
Wniosek dotyczący rozporządzenia
Motyw 60 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60b) W przepisach dotyczących postanowień umownych należy uwzględnić zasadę swobody zawierania umów będącą podstawową ideą, jeżeli chodzi o stosunki między przedsiębiorstwami. Dlatego też analizie nieuczciwego charakteru nie powinny podlegać wszystkie postanowienia umowne, a jedynie te, które zostały jednostronnie nałożone na mikroprzedsiębiorstwa oraz małe i średnie przedsiębiorstwa oraz przedsiębiorstwa typu startup. Dotyczy to stosowania zasady "przyjmij albo zrezygnuj" - w takiej sytuacji mikroprzedsiębiorstwo lub małe lub średnie przedsiębiorstwo oraz przedsiębiorstwo typu startup nie jest w stanie wywrzeć wpływu na treść postanowienia umownego zaproponowanego przez drugą stronę pomimo prób negocjacji treści takiego postanowienia. Za postanowienie umowne nałożone jednostronnie nie należy uznać postanowienia umownego, które zostało zwyczajnie przedstawione przez jedną stronę i zaakceptowane przez mikroprzedsiębior- stwo lub małe lub średnie przedsiębiorstwo lub przedsiębiorstwo typu startup ani też postanowienia wynegocjowanego i następnie uzgodnionego na zasadzie zmiany między umawiającymi się stronami. |
Poprawka 97
Wniosek dotyczący rozporządzenia
Motyw 60 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60c) Ponadto przepisy dotyczące nieuczciwych postanowień umownych należy stosować wyłącznie do tych elementów umowy, które dotyczą dostarczania narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub zakończenia powiązanych obowiązków. Analiza nieuczciwego charakteru określona w niniejszym rozporządzeniu nie powinna mieć zastosowania do innych części tej samej umowy, niezwiązanych z tymi elementami. |
Poprawka 98
Wniosek dotyczący rozporządzenia
Motyw 60 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60d) Kryteria służące do identyfikacji nieuczciwych postano- |
|
wień umownych należy stosować wyłącznie wobec nieproporcjonalnych postanowień umownych, w przypadku których dochodzi do nadużycia silniejszej pozycji negocjacyjnej. Zdecydowana większość postanowień umownych, które w kontekście handlowym są korzystniejsze dla jednej ze stron, w tym postanowienia zwykle występujące w umowach między przedsiębiorstwami, zwyczajnie odzwierciedla zasadę swobody zawierania umów i nadal obowiązuje. Jeżeli postanowienie umowne nie figuruje w wykazie warunków zawsze uznawanych za nieuczciwe, zastosowanie ma ogólny przepis dotyczący nieuczciwego charakteru. W tym względzie postanowienia wymienione jako nieuczciwe postanowienia umowne powinny służyć jako kryteria interpretacji ogólnego przepisu dotyczącego nieuczciwego charakteru. |
Poprawka 99
Wniosek dotyczący rozporządzenia
Motyw 60 e (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60e) Modele generatywne to nowe zjawisko, w którym modele sztucznej inteligencji są opracowywane na podstawie algorytmów zaprojektowanych w celu optymalizacji pod kątem ogólnego i wszechstronnego charakteru wyników. Modele te są często trenowane na szerokim wachlarzu źródeł danych i dużej ilości danych w celu realizacji szerokiego zakresu zadań niższego szczebla, w tym niektórych, w odniesieniu do których nie zostały one specjalnie opracowane i przetrenowane. Model generatywny może być jednomodalny lub multimodalny, przetrenowany za pomocą różnych metod, takich jak uczenie nadzorowane lub uczenie przez wzmacnianie. Systemy sztucznej inteligencji o szczególnym przeznaczeniu lub systemy sztucznej inteligencji ogólnego przeznaczenia mogą być wdrożeniem modelu generatywnego, co oznacza, że każdy model generatywny może być ponownie wykorzystany w niezliczonych systemach sztucznej inteligencji niższego szczebla lub systemach sztucznej inteligencji ogólnego przeznaczenia. Modele te mają coraz większe znaczenie dla wielu aplikacji i systemów niższego szczebla. |
Poprawka 100
Wniosek dotyczący rozporządzenia Motyw 60 f (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60f) W przypadku modeli generatywnych świadczonych jako usługa, np. poprzez dostęp do interfejsu programowania aplikacji, współpraca z dostawcami niższego szczebla powinna trwać przez cały okres, w którym usługa ta jest świadczona i obsługiwana, aby umożliwić odpowiednie ograniczenie ryzyka, chyba że dostawca modelu genera- tywnego przekazuje model treningowy, a także obszerne i odpowiednie informacje na temat zbiorów danych i procesu rozwoju systemu lub ogranicza usługę, taką jak dostęp do interfejsu programowania aplikacji, w taki sposób, aby dostawca niższego szczebla był w stanie w pełni przestrzegać niniejszego rozporządzenia bez dalszego wsparcia ze strony pierwotnego dostawcy modelu generatywnego. |
Poprawka 101
Wniosek dotyczący rozporządzenia Motyw 60 g (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60g) W świetle charakteru i złożoności łańcucha wartości systemu sztucznej inteligencji zasadnicze znaczenie ma wyjaśnienie roli podmiotów przyczyniających się do opracowywania systemów sztucznej inteligencji. Istnieje znaczna niepewność co do sposobu rozwoju modeli generatywnych, zarówno pod względem typologii modeli, jak i autonomii. W związku z tym konieczne jest wyjaśnienie sytuacji prawnej dostawców modeli gene- ratywnych. W połączeniu z ich złożonością i nieoczekiwanym wpływem, brakiem kontroli ze strony dostawcy sztucznej inteligencji niższego szczebla nad rozwojem modelu generatywnego i wynikającym z tego brakiem równowagi sił, a także w celu zapewnienia sprawiedliwego podziału odpowiedzialności w całym łańcuchu wartości sztucznej inteligencji, modele takie powinny podlegać proporcjonalnym i bardziej szczegółowym wymogom i obowiązkom na mocy niniejszego rozporządzenia, a mianowicie modele generatywne powinny oceniać i ograniczać ewentualne ryzyko i szkody poprzez odpowiednie projektowanie, testowanie i analizę, powinny wdrażać środki zarządzania danymi, w tym ocenę tendencyjności, oraz powinny być zgodne z wymogami projektu technicznego, aby zapewnić odpowiednie poziomy efektywności, przewidywalności, interpretowal- ności, poprawialności, bezpieczeństwa i cyberbezpieczeń- stwa oraz powinny być zgodne z normami środowiskowymi. Obowiązkom tym powinny towarzyszyć normy. Ponadto modele generatywne powinny zawierać obowiązki informacyjne i przygotowywać całą niezbędną dokumentację techniczną, aby potencjalni dostawcy niższego szczebla mogli wypełniać swoje obowiązki wynikające z niniejszego rozporządzenia. Modele generatywne powinny zapewniać przejrzystość w odniesieniu do faktu, że treści są generowane przez system sztucznej inteligencji, a nie przez człowieka. Te szczególne wymogi i obowiązki nie sprowadzają się do uznania modeli generatywnych za systemy sztucznej inteligencji wysokiego ryzyka, ale powinny gwarantować osiągnięcie celów niniejszego rozporządzenia polegających na zapewnieniu wysokiego poziomu ochrony praw podstawowych, zdrowia i bezpieczeństwa, środowiska, demokracji i praworządności. Wstępnie przetrenowanych modeli opracowanych dla węższego, mniej ogólnego, bardziej ograniczonego zestawu zastosowań, których nie można dostosować do szerokiego zakresu zadań, takich jak proste, wielofunkcyjne systemy sztucznej inteligencji, nie należy uznawać za modele generatywne do celów niniejszego rozporządzenia ze względu na ich większą interpretowalność, co sprawia, że ich zachowanie jest mniej nieprzewidywalne. |
Poprawka 102
Wniosek dotyczący rozporządzenia Motyw 60 h (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(60h) Biorąc pod uwagę charakter modeli generatywnych, brakuje wiedzy fachowej w zakresie oceny zgodności, a metody audytu prowadzonego przez osoby trzecie są nadal w fazie opracowywania. W związku z tym sam sektor opracowuje nowe sposoby oceny modeli generatywnych, które częściowo spełniają cel audytu (takie jak ocena modelu, red teaming lub techniki weryfikacji i walidacji uczenia się maszyn). Te wewnętrzne oceny modeli generatywnych powinny mieć szerokie zastosowanie (np. niezależnie od kanałów dystrybucji, trybu, metod rozwoju), aby uwzględnić ryzyko specyficzne dla takich modeli, z uwzględnieniem najnowocześniejszych praktyk w branży, oraz koncentrować się na rozwijaniu wystarczającego poziomu wiedzy technicznej i kontroli nad modelem, zarządzaniu racjonalnie przewidywalnym ryzykiem oraz szeroko zakrojonej analizie i testowaniu modelu za pomocą odpowiednich środków, takich jak zaangażowanie niezależnych oceniających. Ponieważ modele generatywne są nowym i szybko zmieniającym się zjawiskiem w dziedzinie sztucznej inteligencji, Komisja i Urząd ds. Sztucznej Inteligencji powinny monitorować i okresowo oceniać ramy legislacyjne i ramy zarządzania takimi modelami, a w szczególności generatywne systemy sztucznej inteligencji oparte na takich modelach, które budzą poważne wątpliwości związane z generowaniem treści z naruszeniem prawa Unii, przepisów dotyczących praw autorskich i potencjalnym niewłaściwym wykorzystaniem. Należy wyjaśnić, że niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla prawa Unii dotyczącego prawa autorskiego i praw pokrewnych, w tym dla dyrektyw Parlamentu Europejskiego i Rady 2001/29/WE, 2004/48/WE i (UE) 2019/790. |
Poprawka 103
Wniosek dotyczący rozporządzenia
Motyw 61
Tekst proponowany przez Komisję |
Poprawka |
(61) Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja. Zgodność z normami zharmonizowanymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 1025/ (54) powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Komisja może jednak przyjąć wspólne specyfikacje techniczne w obszarach, w których nie istnieją normy zharmonizowane lub w których są one niewystarczające. |
(61) Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja. Zgodność z normami zharmonizowanymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (54) powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Aby zapewnić skuteczność norm jako narzędzi polityki Unii, a także mając na uwadze znaczenie norm dla zapewnienia zgodności z wymogami niniejszego rozporządzenia oraz dla konkurencyjności przedsiębiorstw, konieczne jest zapewnienie zrównoważonej reprezentacji interesów poprzez zaangażowanie wszystkich odpowiednich zainteresowanych stron w opracowywanie norm. Proces normalizacji powinien być przejrzysty w odniesieniu do osób prawnych i fizycznych, które uczestniczą w działaniach normalizacyjnych. |
(54) Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 1025/2012 z dnia 25 października 2012 r. w sprawie normalizacji europejskiej, zmieniające dyrektywy Rady 89/686/EWG i 93/15/EWG oraz dyrektywy Parlamentu Europejskiego i Rady 94/9/WE, 94/25/WE, 95/16/WE, 97/23/WE, 98/34/WE, 2004/22/WE, 2007/23/WE, 2009/23/WE
i 2009/105/WE oraz uchylające decyzję Rady 87/95/EWG i decyzję Parlamentu Europejskiego i Rady nr 1673/2006/WE (Dz.U. L 316 z 14.11.2012, s. 12).
|
(54) Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 1025/2012 z dnia 25 października 2012 r. w sprawie normalizacji europejskiej, zmieniające dyrektywy Rady 89/686/EWG i 93/15/EWG oraz dyrektywy Parlamentu Europejskiego i Rady 94/9/WE, 94/25/WE, 95/16/WE, 97/23/WE, 98/34/WE, 2004/22/WE, 2007/23/WE, 2009/23/WE
i 2009/105/WE oraz uchylające decyzję Rady 87/95/EWG i decyzję Parlamentu Europejskiego i Rady nr 1673/2006/WE (Dz.U. L 316 z 14.11.2012, s. 12).
|
Poprawka 104
Wniosek dotyczący rozporządzenia Motyw 61 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(61a) Aby ułatwić przestrzeganie przepisów, pierwsze wnioski o normalizację powinny zostać wydane przez Komisję najpóźniej dwa miesiące po wejściu w życie niniejszego rozporządzenia. Powinno to służyć zwiększeniu pewności prawa, a tym samym promowaniu inwestycji i innowacji w dziedzinie sztucznej inteligencji, a także konkurencyjności i wzrostu rynku unijnego, przy jednoczesnym wzmocnieniu wielostronnego zarządzania reprezentującego wszystkie odpowiednie europejskie zainteresowane strony, takie jak Urząd ds. Sztucznej Inteligencji, europejskie organizacje i organy normalizacyjne lub grupy ekspertów ustanowione na mocy odpowiedniego prawa sektorowego Unii, a także przemysł, MŚP, przedsiębiorstwa typu startup, społeczeństwo obywatelskie, badaczy i partnerów społecznych, a także powinno ostatecznie ułatwić globalną współpracę w dziedzinie normalizacji w dziedzinie sztucznej inteligencji w sposób zgodny z wartościami Unii. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z Urzędem ds. Sztucznej Inteligencji i forum doradczym ds. sztucznej inteligencji, aby zebrać odpowiednią wiedzę fachową. |
Poprawka 105
Wniosek dotyczący rozporządzenia Motyw 61 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(61b) W przypadku gdy systemy sztucznej inteligencji są przeznaczone do wykorzystywania w miejscu pracy, normy zharmonizowane powinny być ograniczone do specyfikacji i procedur technicznych. |
Poprawka 106
Wniosek dotyczący rozporządzenia Motyw 61 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(61c) Komisja powinna mieć możliwość przyjęcia wspólnych specyfikacji pod pewnymi warunkami, jeżeli nie istnieje odpowiednia norma zharmonizowana, lub w celu rozwiązania konkretnych problemów związanych z prawami podstawowymi. W ramach całego procesu opracowywania projektu Komisja powinna regularnie konsultować się z Urzędem ds. Sztucznej Inteligencji i jego forum doradczym, europejskimi organizacjami i organami normalizacyjnymi lub grupami ekspertów ustanowionymi na mocy odpowiednich przepisów sektorowych Unii, a także z odpowiednimi zainteresowanymi stronami, takimi jak przemysł, MŚP, przedsiębiorstwa typu startup, społeczeństwo obywatelskie, badacze i partnerzy społeczni. |
Poprawka 107
Wniosek dotyczący rozporządzenia Motyw 61 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(61d) Podczas przyjmowania wspólnych specyfikacji Komisja powinna dążyć do dostosowania regulacyjnego sztucznej inteligencji do globalnych partnerów o podobnych poglądach, co ma kluczowe znaczenie dla wspierania innowacji i partnerstw transgranicznych w dziedzinie sztucznej inteligencji, ponieważ koordynacja z partnerami o podobnych poglądach w międzynarodowych organach normalizacyjnych ma ogromne znaczenie. |
Poprawka 108
Wniosek dotyczący rozporządzenia
Motyw 62
Tekst proponowany przez Komisję |
Poprawka |
(62) Aby zapewnić wysoki poziom wiarygodności systemów sztucznej inteligencji wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku. |
(62) Aby zapewnić wysoki poziom wiarygodności systemów sztucznej inteligencji wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku. Aby zwiększyć zaufanie do łańcucha wartości i dać przedsiębiorstwom pewność co do działania ich systemów, osoby trzecie, które dostarczają komponenty sztucznej inteligencji, mogą dobrowolnie ubiegać się o ocenę zgodności przeprowadzoną przez osobę trzecią. |
Poprawka 109
Wniosek dotyczący rozporządzenia
Motyw 64
Tekst proponowany przez Komisję |
Poprawka |
(64) Biorąc pod uwagę większe doświadczenie zawodowych podmiotów, które zajmują się certyfikacją przed wprowadzeniem do obrotu w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez osobę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami. Dlatego też ocenę zgodności takich systemów powinien zasadniczo przeprowadzać dostawca na swoją własną odpowiedzialność, przy czym jedynym wyjątkiem są systemy sztucznej inteligencji przeznaczone do zdalnej identyfikacji biometrycznej osób, w przypadku których to systemów w ocenie zgodności należy przewidzieć zaangażowanie jednostki notyfikowanej w zakresie, w jakim nie jest to zabronione. |
(64) Biorąc pod uwagę złożoność systemów sztucznej inteligencji wysokiego ryzyka i związane z nimi ryzyko, konieczne jest opracowanie bardziej odpowiednich zdolności do stosowania oceny zgodności przeprowadzanej przez osoby trzecie w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka. Jednak z uwagi na obecne doświadczenie zawodowych podmiotów, które zajmują się certyfikacją przed wprowadzeniem do obrotu w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez osobę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami. Dlatego też ocenę zgodności takich systemów powinien zasadniczo przeprowadzać dostawca na swoją własną odpowiedzialność, przy czym jedynym wyjątkiem są systemy sztucznej inteligencji przeznaczone do zdalnej identyfikacji biometrycznej osób lub systemy sztucznej inteligencji przeznaczone do stosowania w celu wyciągania wniosków na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji, w przypadku których to systemów w ocenie zgodności należy przewidzieć zaangażowanie jednostki notyfikowanej w zakresie, w jakim nie jest to zabronione. |
Poprawka 110
Wniosek dotyczący rozporządzenia
Motyw 65
Tekst proponowany przez Komisję |
Poprawka |
(65) Do celów oceny zgodności systemów sztucznej inteligencji przeznaczonych do zdalnej identyfikacji biometrycznej osób przeprowadzanej przez osobę trzecią właściwe organy krajowe powinny wyznaczyć na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że spełniają one szereg wymogów, w szczególności dotyczących niezależności, kompetencji i braku konfliktu interesów. |
(65) Do celów oceny zgodności przeprowadzanej przez osobę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny wyznaczyć na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że spełniają one szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i minimalnych wymogów dotyczących cyber- bezpieczeństwa. Państwa członkowskie powinny zachęcać do wyznaczenia wystarczającej liczby jednostek oceniających zgodność, aby zagwarantować terminową certyfikację. Procedury oceny, wyznaczania, notyfikacji i monitorowania jednostek oceniających zgodność należy wdrażać w sposób możliwie jak najbardziej jednakowy w poszczególnych państwach członkowskich, co służy zniesieniu administracyjnych barier wyznaczonych granicami i zapewnieniu realizacji potencjału rynku wewnętrznego. |
Poprawka 111
Wniosek dotyczący rozporządzenia
Motyw 65 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(65a) Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu należy zwiększyć akceptację wyników testów opracowanych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym są one ustanowione, jeżeli jest to konieczne do wykazania zgodności z mającymi zastosowanie wymogami rozporządzenia. Komisja powinna aktywnie badać ewentualne instrumenty międzynarodowe służące temu celowi, a w szczególności dążyć do ewentualnego ustanowienia umów o wzajemnym uznawaniu z państwami o porównywalnym poziomie rozwoju technicznego i stosującymi kompatybilne podejście do sztucznej inteligencji i oceny zgodności. |
Poprawka 112
Wniosek dotyczący rozporządzenia
Motyw 66
Tekst proponowany przez Komisję Poprawka |
(66) Zgodnie z powszechnie przyjętym pojęciem istotnej zmiany w odniesieniu do produktów objętych unijnym prawodawstwem harmonizacyjnym system sztucznej inteligencji należy poddawać nowej ocenie zgodności w przypadku każdej zmiany, która może mieć wpływ na zgodność systemu z niniejszym rozporządzeniem, lub w przypadku zmiany przeznaczenia systemu. Ponadto w przypadku systemów sztucznej inteligencji, które nadal "uczą się" po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku (tj. automatycznie dostosowują sposób, w jaki wykonują swoje funkcje), należy ustanowić przepisy, zgodnie z którymi zmiany algorytmu i jego funkcjonowania, które zostały z góry zaplanowane przez dostawcę i które oceniono w chwili przeprowadzania oceny zgodności, nie powinny być uznawane za istotne zmiany. |
(66) Zgodnie z powszechnie przyjętym pojęciem istotnej zmiany w odniesieniu do produktów objętych unijnym prawodawstwem harmonizacyjnym system sztucznej inteligencji wysokiego ryzyka należy poddawać nowej ocenie zgodności w przypadku każdej nieplanowanej zmiany, która wykracza poza kontrolowane bądź z góry zaplanowane przez dostawcę zmiany, w tym stałe uczenie się, i która może tworzyć nowe niemożliwe do zaakceptowania ryzyko i mieć istotny wpływ na zgodność systemu sztucznej inteligencji wysokiego ryzyka z niniejszym rozporządzeniem, lub w przypadku zmiany przeznaczenia systemu. Ponadto w przypadku systemów sztucznej inteligencji, które nadal "uczą się" po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku (tj. automatycznie dostosowują sposób, w jaki wykonują swoje funkcje), należy ustanowić przepisy, zgodnie z którymi zmiany algorytmu i jego funkcjonowania, które zostały z góry zaplanowane przez dostawcę i które oceniono w chwili przeprowadzania oceny zgodności, nie powinny być uznawane za istotne zmiany. To samo powinno mieć zastosowanie do aktualizacji systemu sztucznej inteligencji ogólnie ze względów bezpieczeństwa oraz do ochrony przed zmieniającymi się zagrożeniami związanymi z manipulacją systemem, pod warunkiem że nie stanowią one istotnej zmiany. |
Poprawka 113
Wniosek dotyczący rozporządzenia
Motyw 67
Tekst proponowany przez Komisję Poprawka |
(67) Systemy sztucznej inteligencji wysokiego ryzyka powinny posiadać oznakowanie CE świadczące o ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów sztucznej inteligencji wysokiego ryzyka zgodnych z wymogami określonymi w niniejszym rozporządzeniu i posiadających oznakowanie CE. |
(67) Systemy sztucznej inteligencji wysokiego ryzyka powinny posiadać oznakowanie CE świadczące o ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku fizycznych systemów sztucznej inteligencji wysokiego ryzyka należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku wyłącznie cyfrowych systemów sztucznej inteligencji wysokiego ryzyka należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów sztucznej inteligencji wysokiego ryzyka zgodnych z wymogami określonymi w niniejszym rozporządzeniu i posiadających oznakowanie CE. |
Poprawka 114
Wniosek dotyczący rozporządzenia
Motyw 68
Tekst proponowany przez Komisję |
Poprawka |
(68) W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych oraz ochrony własności przemysłowej i handlowej państwa członkowskie mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów sztucznej inteligencji, których nie poddano ocenie zgodności. |
(68) W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony krytycznej infrastruktury państwa członkowskie mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów sztucznej inteligencji, których nie poddano ocenie zgodności. |
Poprawka 115
Wniosek dotyczący rozporządzenia
Motyw 69
Tekst proponowany przez Komisję |
Poprawka |
(69) Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie sztucznej inteligencji, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami objętymi zakresem odpowiedniego istniejącego unijnego prawodawstwa harmonizacyjnego należy zobowiązać do rejestracji swoich systemów sztucznej inteligencji wysokiego ryzyka w unijnej bazie danych, którą utworzy i którą zarządzać będzie Komisja. Komisja powinna być administratorem tej bazy danych zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2018/1725 (55). W celu zapewnienia pełnej funkcjonalności tej bazy danych po jej wdrożeniu procedura ustanawiania bazy danych powinna obejmować opracowanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. |
(69) Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie sztucznej inteligencji, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami objętymi zakresem odpowiedniego istniejącego unijnego prawodawstwa harmonizacyjnego należy zobowiązać do rejestracji swoich systemów sztucznej inteligencji wysokiego ryzyka i modeli generatywnych w unijnej bazie danych, którą utworzy i którą zarządzać będzie Komisja. Baza ta powinna być swobodnie i publicznie dostępna, łatwo zrozumiała i nadawać się do odczytu maszynowego. Baza danych powinna być również przyjazna dla użytkownika i łatwa do przeszukiwania, z funkcjami wyszukiwania co najmniej umożliwiającymi ogółowi społeczeństwa przeszukiwanie bazy danych pod kątem konkretnych systemów wysokiego ryzyka, lokalizacji, kategorii ryzyka określonych w załączniku IV i słów |
(55) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
|
kluczowych. Operatorzy sztucznej inteligencji będący władzami publicznymi lub unijnymi instytucjami, organami i jednostkami organizacyjnymi lub operatorzy sztucznej inteligencji działający w ich imieniu oraz operatorzy sztucznej inteligencji, którzy są przedsiębiorstwami wyznaczonymi jako strażnik dostępu na podstawie rozporządzenia (UE) 2022/1925 powinni również zarejestrować się w unijnej bazie danych przed uruchomieniem lub użyciem systemu sztucznej inteligencji wysokiego ryzyka po raz pierwszy i w następstwie każdej istotnej zmiany. Inni operatorzy sztucznej inteligencji powinni być uprawnieni do zrobienia tego dobrowolnie. W unijnej bazie danych rejestruje się również wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. Komisja powinna być administratorem tej bazy danych zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2018/1725 (55). W celu zapewnienia pełnej funkcjonalności tej bazy danych po jej wdrożeniu procedura ustanawiania bazy danych powinna obejmować opracowanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych unijnej bazy danych, Komisja powinna wziąć pod uwagę cyberbezpieczeństwo i ryzyko związane z zagrożeniami. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych przez społeczeństwo, baza danych, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie 2019/882. |
(55) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
|
Poprawka 116
Wniosek dotyczący rozporządzenia
Motyw 71
Tekst proponowany przez Komisję |
Poprawka |
(71) Sztuczna inteligencja jest szybko rozwijającą się grupą technologii, wymagającą nowatorskich form nadzoru regulacyjnego oraz bezpiecznej przestrzeni do eksperymentów, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków zmniejszających ryzyko. Aby zapewnić ramy prawne przyjazne innowacjom, nieulega- jące dezaktualizacji i odporne na zakłócenia, należy zachęcić właściwe organy krajowe z co najmniej jednego państwa członkowskiego do ustanowienia piaskownic regulacyjnych w zakresie sztucznej inteligencji, aby ułatwić rozwijanie i testowanie innowacyjnych systemów sztucznej inteligencji pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Piaskownice regulacyjne powinny mieć na celu: |
(71) Sztuczna inteligencja jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do eksperymentów, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń etycznych i środków zmniejszających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulega- jące dezaktualizacji i odporne na zakłócenia, państwa członkowskie powinny ustanowić co najmniej jedną piaskownicę regulacyjną w zakresie sztucznej inteligencji, aby ułatwić rozwijanie i testowanie innowacyjnych systemów sztucznej inteligencji pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. W istocie pożądane jest ustanowienie piaskownic regulacyjnych, których ustanawianie pozostaje obecnie w gestii państw członkowskich, jako kolejny krok, który powinien stać się obowiązkowy w oparciu o ustalone kryteria. Tę obowiązkową piaskownicę można również ustanowić wspólnie z jednym lub kilkoma innymi państwami członkowskimi, o ile piaskownica ta obejmowałaby odpowiedni poziom krajowy zaangażowanych państw członkowskich. Aby ułatwić współpracę transgraniczną i synergię, można również ustanowić dodatkowe piaskownice na różnych szczeblach, w tym między państwami członkowskimi. Z wyjątkiem obowiązkowej piaskownicy na szczeblu krajowym państwa członkowskie powinny mieć również możliwość tworzenia piaskownic wirtualnych lub hybrydowych. Wszystkie piaskownice regulacyjne powinny być w stanie pomieścić zarówno produkty fizyczne, jak i wirtualne. Organy ustanawiające powinny również zapewnić, by piaskownice regulacyjne dysponowały odpowiednimi zasobami finansowymi i ludzkimi na potrzeby ich funkcjonowania. |
Poprawka 117
Wniosek dotyczący rozporządzenia
Motyw 72
Tekst proponowany przez Komisję |
Poprawka |
(72) Piaskownice regulacyjne powinny mieć na celu: wspieranie innowacji w zakresie sztucznej inteligencji poprzez ustanowienie kontrolowanego środowiska do eksperymentów i testów na etapie rozwoju i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów sztucznej inteligencji z niniejszym rozporządzeniem oraz z innymi odnośnymi przepisami Unii i państw członkowskich; zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych z wykorzystywaniem sztucznej inteligencji, a także przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu startup. Aby zapewnić wdrożenie w całej Unii oraz korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Niniejsze rozporządzenie powinno zapewnić podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do opracowywania, w ramach piaskownicy regulacyjnej w zakresie sztucznej inteligencji, określonych systemów sztucznej inteligencji w interesie publicznym zgodnie z art. 6 ust. 4 rozporządzenia (UE) 2016/679 i art. 6 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 dyrektywy (UE) 2016/680. Uczestnicy korzystający z piaskownicy regulacyjnej powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu ograniczenia wszelkiego rodzaju wysokiego ryzyka dla bezpieczeństwa i praw podstawowych, jakie może powstać w trakcie opracowywania produktów oraz prowadzenia eksperymentów w ramach piaskownicy regulacyjnej. Przy podejmowaniu przez właściwe organy decyzji o ewentualnym nałożeniu administracyjnej kary pieniężnej na podstawie art. 83 ust. 2 rozporządzenia 2016/679 oraz art. 57 dyrektywy 2016/680 należy uwzględnić postępowanie uczestników korzystających z piaskownicy regulacyjnej. |
(72) Piaskownice regulacyjne powinny mieć na celu: w przypadku organów ustanawiających - lepsze zrozumienie rozwoju technicznego, poprawę metod nadzoru i zapewnienie wytycznych dla twórców i dostawców systemów sztucznej inteligencji, aby osiągnąć zgodność regulacyjną z niniejszym rozporządzeniem lub, w stosownych przypadkach, z innymi mającymi zastosowanie przepisami Unii i państw członkowskich, a także z Kartą praw podstawowych; w przypadku potencjalnych dostawców - umożliwienie i ułatwienie testowania i opracowywania innowacyjnych rozwiązań związanych z systemami sztucznej inteligencji na etapie poprzedzającym wprowadzenie do obrotu, aby zwiększyć pewność prawa, umożliwić szersze uczenie się przepisów przez ustanowienie organów w kontrolowanym środowisku w celu opracowania lepszych wytycznych i określenia ewentualnych przyszłych ulepszeń ram prawnych w drodze zwykłej procedury ustawodawczej. Wykrycie jakichkolwiek istotnych zagrożeń na etapie opracowywania i testowania takich systemów powinno powodować konieczność natychmiastowego zaradzenia tym zagrożeniom, a w przypadku ich nieusunięcia - skutkować zawieszeniem procesu opracowywania i testowania systemu, dopóki wspomniane zagrożenia nie zostaną wyeliminowane. Aby zapewnić wdrożenie w całej Unii oraz korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Państwa członkowskie powinny zapewnić, aby piaskownice regulacyjne były szeroko dostępne w całej Unii, przy czym uczestnictwo powinno pozostać dobrowolne. Szczególnie ważne jest zapewnienie MŚP i przedsiębiorstwom typu startup łatwego dostępu do tych piaskownic, a także zapewnienie ich aktywnego zaangażowania w opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji i udziału w tych procesach, aby mogły wnieść w nie swój wkład w postaci wiedzy fachowej i doświadczenia. |
Poprawka 118
Wniosek dotyczący rozporządzenia Motyw 72 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(72a) Niniejsze rozporządzenie powinno zapewnić podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do opracowywania, w ramach piaskownicy regulacyjnej w zakresie sztucznej inteligencji, określonych systemów sztucznej inteligencji w interesie publicznym i wyłącznie na określonych warunkach zgodnie z art. 6 ust. 4 rozporządzenia (UE) 2016/679 i art. 6 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 dyrektywy (UE) 2016/680. Potencjalni dostawcy korzystający z piaskownicy regulacyjnej powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu ograniczenia wszelkiego rodzaju wysokiego ryzyka dla bezpieczeństwa, zdrowia, środowiska i praw podstawowych, jakie może powstać w trakcie opracowywania produktów oraz prowadzenia eksperymentów w ramach piaskownicy regulacyjnej. Przy podejmowaniu przez właściwe organy decyzji o tymczasowym lub stałym zawieszeniu uczestnictwa w piaskownicy regulacyjnej lub nałożeniu administracyjnej kary pieniężnej na podstawie art. 83 ust. 2 rozporządzenia 2016/679 oraz art. 57 dyrektywy 2016/680 należy uwzględnić postępowanie potencjalnych dostawców korzystających z piaskownicy regulacyjnej. |
Poprawka 119
Wniosek dotyczący rozporządzenia Motyw 72 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(72b) W celu zapewnienia, by sztuczna inteligencja prowadziła do wyników korzystnych pod względem społecznym i środowiskowym, państwa członkowskie powinny wspierać i promować badania i rozwój w obszarze sztucznej inteligencji w celu wzmacniania wyników korzystnych pod względem społecznym i środowiskowym w drodze przydzielenia wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz nadania priorytetowego dostępu do piaskownic regulacyjnych projektom prowadzonym przez społeczeństwo obywatelskie. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami sztucznej inteligencji, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz środowiska akademickiego. |
Poprawka 120
Wniosek dotyczący rozporządzenia
Motyw 73
Tekst proponowany przez Komisję |
Poprawka |
(73) W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów drobnych dostawców i użytkowników systemów sztucznej inteligencji. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby drobnych dostawców. Koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, zwłaszcza tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i zaakceptowanych przez nie do celów dokumentacji sporządzanej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę użytkowników transgranicznych. |
(73) W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów drobnych dostawców i użytkowników systemów sztucznej inteligencji. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu kompetencji w zakresie sztucznej inteligencji oraz kampanie uświadamiające i służące przekazywaniu informacji. Państwa członkowskie korzystają z istniejących kanałów komunikacji, a w stosownych przypadkach tworzą nowy specjalny kanał komunikacji z MŚP, przedsiębiorstwami typu startup, użytkownikami i innymi innowacyjnymi podmiotami, aby udzielać im wskazówek i odpowiadać na ich pytania dotyczące wdrażania niniejszego rozporządzenia. Takimi istniejącymi już kanałami mogą być m.in. zespoły reagowania na incydenty bezpieczeństwa komputerowego ENISA, krajowe agencje ochrony danych, platforma "Sztuczna inteligencja na żądanie", europejskie ośrodki innowacji cyfrowych oraz ośrodki testowo-doświadczalne stworzone przez Komisję i państwa członkowskie na szczeblu krajowym lub unijnym. W stosownych przypadkach kanały te współpracują ze sobą, by uzyskać synergię i czuwać nad jednolitością wskazówek dla przedsiębiorstw typu startup, MŚP i użytkowników. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby drobnych dostawców. Komisja regularnie ocenia koszty certyfikacji i przestrzegania przepisów ponoszone przez MŚP i przedsiębiorstwa typu startup, w tym w drodze przejrzystych konsultacji z MŚP, przedsiębiorstwami typu startup i użytkownikami, oraz współpracuje z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, zwłaszcza tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i zaakceptowanych przez nie do celów dokumentacji sporządzanej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę użytkowników transgranicznych. Średnie przedsiębiorstwa, które niedawno przeszły z kategorii małych przedsiębiorstw do średnich w rozumieniu załącznika do zalecenia 2003/361/WE (art. 16), przez okres uznany za odpowiedni przez państwa członkowskie mają dostęp do tych inicjatyw i wskazówek, ponieważ te nowo zaklasyfikowane średnie przedsiębiorstwa mogą czasami nie dysponować zasobami prawnymi i szkoleniami niezbędnymi do zapewnienia właściwego zrozumienia i przestrzegania przepisów. |
Poprawka 121
Wniosek dotyczący rozporządzenia
Motyw 74
Tekst proponowany przez Komisję |
Poprawka |
(74) Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom i jednostkom notyfikowanym wykonywanie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma "Sztuczna inteligencja na żądanie", europejskie ośrodki innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na szczeblu krajowym lub unijnym powinny w miarę możliwości przyczynić się do wdrożenia niniejszego rozporządzenia. W ramach przypisanych zadań i obszarów kompetencji mogą one w szczególności zapewniać wsparcie techniczne i naukowe dostawcom oraz jednostkom notyfikowanym. |
(74) Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom i jednostkom notyfikowanym wykonywanie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma "Sztuczna inteligencja na żądanie", europejskie ośrodki innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na szczeblu krajowym lub unijnym powinny przyczynić się do wdrożenia niniejszego rozporządzenia. W ramach przypisanych zadań i obszarów kompetencji mogą one w szczególności zapewniać wsparcie techniczne i naukowe dostawcom oraz jednostkom notyfikowanym. |
Poprawka 122
Wniosek dotyczący rozporządzenia
Motyw 76
Tekst proponowany przez Komisję |
Poprawka |
(76) Aby ułatwić sprawne, skuteczne i zharmonizowane wdrożenie niniejszego rozporządzenia, należy ustanowić Europejską Radę ds. Sztucznej Inteligencji. Rada powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub wskazówek w dziedzinach związanych z wdrażaniem niniejszego rozporządzenia, także w sprawie specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad i wsparcia Komisji w konkretnych kwestiach związanych ze sztuczną inteligencją. |
(76) Aby uniknąć fragmentacji, zapewnić optymalne funkcjonowanie jednolitego rynku, zapewnić skuteczne i zharmonizowane wdrożenie niniejszego rozporządzenia, osiągnąć wysoki poziom wiarygodności oraz ochrony zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i rządów prawa w całej Unii w odniesieniu do systemów sztucznej inteligencji, aktywnie wspierać krajowe organy nadzorcze oraz unijne instytucje, organy i jednostki organizacyjne w sprawach odnoszących się do niniejszego rozporządzenia, a także zwiększyć zastosowanie sztucznej inteligencji w całej Unii, należy ustanowić Urząd Unii Europejskiej ds. Sztucznej Inteligencji. Urząd ds. Sztucznej Inteligencji powinien mieć osobowość prawną, działać w pełnej niezależności, odpowiadać za szereg zadań doradczych i koordynacyjnych, w tym za wydawanie opinii, zaleceń oraz udzielanie porad lub wskazówek w dziedzinach związanych z wdrażaniem niniejszego rozporządzenia, oraz powinien być odpowiednio finansowany i wyposażony w personel. Państwa członkowskie powinny zapewniać strategiczne wytyczne dla Urzędu ds. Sztucznej Inteligencji i sprawować nad nim kontrolę za pośrednictwem zarządu Urzędu ds. Sztucznej Inteligencji, u boku Komisji, EIOD, FRA i ENISA. Dyrektor wykonawczy powinien odpowiadać za zarządzanie działaniami sekretariatu Urzędu ds. Sztucznej Inteligencji oraz za reprezentowanie Urzędu ds. Sztucznej Inteligencji. Zainteresowane strony powinny formalnie uczestniczyć w pracach Urzędu ds. Sztucznej Inteligencji w ramach forum doradczego, które powinno zapewniać wyważoną reprezentację różnorodnych zainteresowanych stron i doradzać Urzędowi ds. Sztucznej Inteligencji w kwestiach odnoszących się do niniejszego rozporządzenia. W przypadku gdy ustanowienie Urzędu ds. Sztucznej Inteligencji okaże się niewystarczające do zapewnienia w pełni spójnego stosowania niniejszego rozporządzenia na szczeblu Unii, a także skutecznych transgranicznych środków egzekwowania prawa, należy rozważyć utworzenie agencji ds. sztucznej inteligencji. |
Poprawka 123
Wniosek dotyczący rozporządzenia
Motyw 77
Tekst proponowany przez Komisję |
Poprawka |
(77) Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jeden właściwy organ krajowy do celów sprawowania nadzoru nad stosowaniem i wdrażaniem niniejszego rozporządzenia. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić oficjalny punkt kontaktowy dla społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym, w każdym państwie członkowskim należy wyznaczyć jeden organ krajowy jako krajowy organ nadzorczy. |
(77) Każde państwo członkowskie powinno wyznaczyć krajowy organ nadzorczy do celów sprawowania nadzoru nad stosowaniem i wdrażaniem niniejszego rozporządzenia. Powinien on także reprezentować swoje państwo członkowskie w zarządzie Urzędu ds. Sztucznej Inteligencji. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić oficjalny punkt kontaktowy dla społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym. Każdy krajowy organ nadzorczy podczas wypełniania swoich zadań i wykonywania swoich uprawnień zgodnie z niniejszym rozporządzeniem powinien działać w sposób w pełni niezależny. |
Poprawka 124
Wniosek dotyczący rozporządzenia Motyw 77 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(77a) Krajowe organy nadzorcze powinny monitorować stosowanie przepisów zgodnie z niniejszym rozporządzeniem oraz powinny przyczyniać się do ich spójnego stosowania w całej Unii. W tym celu krajowe organy nadzorcze powinny współpracować ze sobą, z odpowiednimi właściwymi organami krajowymi, Komisją oraz z Urzędem ds. Sztucznej Inteligencji. |
Poprawka 125
Wniosek dotyczący rozporządzenia Motyw 77 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(77b) Członek lub personel każdego z krajowych organów nadzorczych powinni podlegać, zgodnie z prawem Unii lub prawem krajowym, obowiązkowi zachowania tajemnicy służbowej - w trakcie kadencji oraz po jej zakończeniu - w odniesieniu do wszelkich poufnych informacji, które uzyskali w toku wypełniania zadań lub wykonywania swoich uprawnień. Obowiązek zachowania tajemnicy służbowej w trakcie ich kadencji powinien dotyczyć w szczególności tajemnicy handlowej i sytuacji, w których osoby fizyczne zgłaszają naruszenia niniejszego rozporządzenia. |
Poprawka 126
Wniosek dotyczący rozporządzenia
Motyw 78
Tekst proponowany przez Komisję |
Poprawka |
(78) W celu zapewnienia, aby dostawcy systemów sztucznej inteligencji wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów sztucznej inteligencji wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym zagrożeniom związanym z systemami sztucznej inteligencji, które nadal "uczą się" po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do posiadania systemu zgłaszania właściwym organom wszelkich poważnych incydentów lub wszelkich naruszeń prawa krajowego i prawa Unii chroniącego prawa podstawowe, zaistniałych w związku ze stosowaniem ich systemów sztucznej inteligencji. |
(78) W celu zapewnienia, aby dostawcy systemów sztucznej inteligencji wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów sztucznej inteligencji wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym zagrożeniom związanym z systemami sztucznej inteligencji, które nadal "uczą się" lub rozwijają po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do posiadania systemu zgłaszania właściwym organom wszelkich poważnych incydentów lub wszelkich naruszeń prawa krajowego i prawa Unii, w tym chroniącego prawa podstawowe i prawa konsumenta, zaistniałych w związku ze stosowaniem ich systemów sztucznej inteligencji, oraz do podejmowania odpowiednich działań naprawczych. Operatorzy sztucznej inteligencji powinni również zgłaszać odpowiednim organom wszelkie poważne incydenty lub naruszenia prawa krajowego i unijnego, wynikające z korzystania z ich systemów sztucznej inteligencji, gdy dowiedzą się o takich poważnych incydentach lub naruszeniach. |
Poprawka 127
Wniosek dotyczący rozporządzenia
Motyw 79
Tekst proponowany przez Komisję |
Poprawka |
(79) Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020 powinien mieć zastosowanie w całości. Jeżeli jest to niezbędne do wykonywania ich uprawnień, krajowe organy publiczne lub podmioty prawa publicznego, które nadzorują stosowanie prawa Unii chroniącego prawa podstawowe, w tym organy ds. równości, powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. |
(79) Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020 powinien mieć zastosowanie w całości. Do celów niniejszego rozporządzenia krajowe organy nadzorcze powinny działać jako organy nadzoru rynku w odniesieniu do systemów sztucznej inteligencji objętych niniejszym rozporządzeniem, z wyjątkiem systemów sztucznej inteligencji objętych załącznikiem II do niniejszego rozporządzenia. W przypadku systemów sztucznej inteligencji objętych aktami prawnymi wymienionymi w załączniku II właściwe organy na mocy tych aktów prawnych powinny pozostać organem wiodącym. Krajowe organy nadzorcze i właściwe organy na mocy aktów prawnych wymienionych w załączniku II powinny w razie potrzeby współpracować. W stosownych przypadkach właściwe organy na mocy aktów prawnych wymienionych w załączniku II powinny wysłać właściwy personel do krajowego organu nadzorczego, aby pomóc mu w wykonywaniu jego zadań. Do celów niniejszego rozporządzenia krajowe organy nadzorcze powinny mieć takie same uprawnienia i obowiązki jak organy nadzoru rynku na mocy rozporządzenia (UE) 2019/1020. Jeżeli jest to niezbędne do wykonywania ich uprawnień, krajowe organy publiczne lub podmioty prawa publicznego, które nadzorują stosowanie prawa Unii chroniącego prawa podstawowe, w tym organy ds. równości, powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Po wyczerpaniu wszystkich innych racjonalnych sposobów oceny / weryfikacji zgodności i na uzasadniony wniosek krajowy organ nadzorczy powinien uzyskać dostęp do zbiorów danych treningowych, walidacyjnych i testowych, przeszkolonego i treningowego modelu systemu sztucznej inteligencji wysokiego ryzyka, w tym jego odpowiednich parametrów modelu oraz ich środowiska wykonania / działania. W przypadku prostszych systemów oprogramowania objętych niniejszym rozporządzeniem, które nie opierają się na przetrenowanych modelach, oraz w przypadku gdy wszystkie inne sposoby weryfikacji zgodności zostały wyczerpane, krajowy organ nadzorczy może wyjątkowo uzyskać dostęp do kodu źródłowego na uzasadniony wniosek. W przypadku gdy krajowemu organowi nadzorczemu przyznano dostęp do zbiorów danych treningowych, walidacyjnych i testowych zgodnie z niniejszym rozporządzeniem, taki dostęp należy osiągnąć za pomocą odpowiednich środków i narzędzi |
|
technicznych, w tym dostępu na miejscu, a w wyjątkowych okolicznościach zdalnego dostępu. Krajowy organ nadzorczy powinien traktować wszelkie uzyskane informacje, w tym kod źródłowy, oprogramowanie i dane, stosownie do przypadku, jako informacje poufne i przestrzegać odpowiednich przepisów Unii dotyczących ochrony własności intelektualnej i tajemnic przedsiębiorstwa. Krajowy organ nadzorczy powinien usunąć wszelkie informacje uzyskane po zakończeniu dochodzenia. |
Poprawka 128
Wniosek dotyczący rozporządzenia
Motyw 80
Tekst proponowany przez Komisję |
Poprawka |
(80) Przepisy Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do objętych regulacją instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów sztucznej inteligencji. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w przepisach Unii dotyczących usług finansowych, organy odpowiedzialne za nadzór nad przepisami dotyczącymi usług finansowych i ich egzekwowanie, w tym w stosownych przypadkach Europejski Bank Centralny, należy wyznaczyć jako właściwe organy do celów nadzoru nad wdrażaniem niniejszego rozporządzenia, w tym do celów działań związanych z nadzorem rynku, w odniesieniu do systemów sztucznej inteligencji dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy Parlamentu Europejskiego i Rady 2013/36/UE (56), procedurę oceny zgodności oraz niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po |
(80) Prawo Unii dotyczące usług finansowych obejmuje zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do objętych regulacją instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów sztucznej inteligencji. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w prawie Unii dotyczącym usług finansowych, właściwe organy odpowiedzialne za nadzór nad prawem dotyczącym usług finansowych i jego egzekwowanie, w tym w stosownych przypadkach Europejski Bank Centralny, należy wyznaczyć jako właściwe organy do celów nadzoru nad wdrażaniem niniejszego rozporządzenia, w tym do celów działań związanych z nadzorem rynku, w odniesieniu do systemów sztucznej inteligencji dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy Parlamentu Europejskiego i Rady 2013/36/UE (56), procedurę oceny zgodności oraz niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po |
wprowadzeniu do obrotu oraz dokumentowaniem należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością dostawców oraz obowiązku monitorowania nałożonego na użytkowników systemów sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy 2013/36/UE. |
wprowadzeniu do obrotu oraz dokumentowaniem należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością dostawców oraz obowiązku monitorowania nałożonego na operatorów systemów sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy 2013/36/UE. |
(56) Dyrektywa Parlamentu Europejskiego i Rady 2013/36/UE z dnia 26 czerwca 2013 r. w sprawie warunków dopuszczenia instytucji kredytowych do działalności oraz nadzoru ostrożnościowego nad instytucjami kredytowymi i firmami inwestycyjnymi, zmieniająca dyrektywę 2002/87/WE i uchylająca dyrektywy 2006/48/WE oraz 2006/49/WE (Dz.U. L 176 z 27.6.2013, s. 338).
|
(56) Dyrektywa Parlamentu Europejskiego i Rady 2013/36/UE z dnia 26 czerwca 2013 r. w sprawie warunków dopuszczenia instytucji kredytowych do działalności oraz nadzoru ostrożnościowego nad instytucjami kredytowymi i firmami inwestycyjnymi, zmieniająca dyrektywę 2002/87/WE i uchylająca dyrektywy 2006/48/WE oraz 2006/49/WE (Dz.U. L 176 z 27.6.2013, s. 338).
|
Poprawka 129
Wniosek dotyczący rozporządzenia Motyw 80 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(80a) Biorąc pod uwagę cele niniejszego rozporządzenia, a mianowicie zapewnienie równoważnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych osób fizycznych, zapewnienie ochrony praworządności i demokracji, oraz biorąc pod uwagę fakt, że ograniczanie ryzyka związanego z systemami sztucznej inteligencji w odniesieniu do tych praw może nie zostać w wystarczającym stopniu osiągnięte na poziomie krajowym lub może podlegać rozbieżnym interpretacjom, co mogłoby ostatecznie doprowadzić do nierównego poziomu ochrony osób fizycznych i spowodować rozdrobnienie rynku, krajowe organy nadzorcze powinny być uprawnione do wszczynania wspólnych postępowań lub polegać na unijnej procedurze ochronnej przewidzianej w rozporządzeniu w sprawie skutecznego egzekwowania. Wspólne postępowanie należy wszcząć, jeżeli krajowy organ nadzorczy ma wystarczające powody, by sądzić, że naruszenie niniejszego rozporządzenia stanowi naruszenie powszechne lub naruszenie powszechne o wymiarze unijnym, lub gdy system sztucznej inteligencji lub model generatywny stwarza zagrożenie, które dotyczy lub może dotyczyć co najmniej 45 milionów osób w co najmniej dwóch państwach członkowskich. |
Poprawka 130
Wniosek dotyczący rozporządzenia
Motyw 82
Tekst proponowany przez Komisję |
Poprawka |
(82) Istotne jest, aby systemy sztucznej inteligencji związane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą spełniać ustanowionych w nim wymogów, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady (57) miałaby zastosowanie jako "bezpiecznik". |
(82) Istotne jest, aby systemy sztucznej inteligencji związane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą spełniać wymogów dla systemów sztucznej inteligencji wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady (57) miałaby zastosowanie jako "bezpiecznik". |
(57) Dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów (Dz.U. L 11 z 15.1.2002, s. 4).
|
(57) Dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów (Dz.U. L 11 z 15.1.2002, s. 4).
|
Poprawka 131
Wniosek dotyczący rozporządzenia
Motyw 83
Tekst proponowany przez Komisję |
Poprawka |
(83) W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na szczeblu unijnym i krajowym wszystkie strony zaangażowane w stosowanie niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań. |
(83) Aby zapewnić opartą na zaufaniu i konstruktywną współpracę właściwych organów na szczeblu unijnym i krajowym, wszystkie strony zaangażowane w stosowanie niniejszego rozporządzenia powinny dążyć do przejrzystości i otwartości, przy jednoczesnym poszanowaniu poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, poprzez wprowadzenie środków technicznych i organizacyjnych służących ochronie bezpieczeństwa i poufności informacji uzyskanych w ramach prowadzonych przez nie działań, w tym w odniesieniu do praw własności intelektualnej oraz interesów bezpieczeństwa publicznego i narodowego. Jeżeli działania Komisji, właściwych organów krajowych i jednostek notyfikowanych zgodnie z przepisami niniejszego artykułu naruszają prawa własności intelektualnej, państwa członkowskie powinny wprowadzić niezbędne działania, procedury i środki ochrony prawne, aby zapewnić egzekwowanie praw własności intelektualnej zgodnie z dyrektywą 2004/48/WE. |
Poprawka 132
Wniosek dotyczący rozporządzenia
Motyw 84
Tekst proponowany przez Komisję Poprawka |
(84) Państwa członkowskie powinny wprowadzić wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie. W przypadku niektórych szczególnych naruszeń państwa członkowskie powinny uwzględnić marginesy i kryteria określone w niniejszym rozporządzeniu. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania grzywien na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia. |
(84) Zgodność z niniejszym rozporządzeniem powinna być egzekwowana poprzez nakładanie grzywien przez krajowy organ nadzorczy w trakcie prowadzenia postępowania zgodnie z procedurą określoną w niniejszym rozporządzeniu. Państwa członkowskie powinny wprowadzić wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania grzywien administracyjnych za niektóre konkretne naruszenia. Przy ocenie wysokości grzywien, właściwe organy krajowe powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności jeżeli dostawca jest MŚP lub przedsiębiorstwem typu startup. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania grzywien na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia. Kary i koszty postępowania sądowego na mocy niniejszego rozporządzenia nie powinny podlegać klauzulom umownym ani innym ustaleniom. |
Poprawka 133
Wniosek dotyczący rozporządzenia Motyw 84 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(84a) Ponieważ prawa i wolności osób fizycznych i prawnych oraz grup osób fizycznych mogą zostać poważnie naruszone przez systemy sztucznej inteligencji, istotne jest, aby osoby fizyczne i prawne lub grupy osób fizycznych miały znaczący dostęp do mechanizmów zgłaszania i dochodzenia roszczeń oraz były uprawnione do dostępu do proporcjonalnych i skutecznych środków ochrony prawnej. Powinny one mieć możliwość zgłaszania naruszeń niniejszego rozporządzenia krajowym organom nadzorczym, a także mieć prawo do złożenia skargi przeciwko operatorom systemów sztucznej inteligencji. W stosownych przypadkach operatorzy sztucznej inteligencji powinni zapewnić wewnętrzne mechanizmy składania skarg, które mają być wykorzystywane przez osoby fizyczne i prawne lub grupy osób fizycznych. Z zastrzeżeniem wszelkich innych administracyjnych lub pozasądowych środków odwoławczych osoby fizyczne i prawne oraz grupy osób fizycznych i prawnych powinny mieć również prawo do skutecznego sądowego środka odwoławczego w odniesieniu do prawnie wiążącej decyzji krajowego organu nadzorczego, która ich dotyczy, lub w przypadku gdy krajowy organ nadzorczy nie rozpatruje skargi, nie informuje skarżącego o postępach lub wstępnym wyniku rozpatrzenia złożonej skargi lub nie wywiązuje się z obowiązku podjęcia ostatecznej decyzji w odniesieniu do skargi. |
Poprawka 134
Wniosek dotyczący rozporządzenia Motyw 84 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(84b) Zainteresowane osoby powinny być zawsze informowane, że dotyczy ich zastosowanie systemu sztucznej inteligencji wysokiego ryzyka, gdy operatorzy sztucznej inteligencji korzystają z systemu sztucznej inteligencji wysokiego ryzyka, aby pomóc im w podejmowaniu decyzji lub podejmowaniu decyzji dotyczących osób fizycznych. Informacje te mogą stanowić podstawę dla osób, których to dotyczy, do korzystania z przysługującego im prawa do wyjaśnienia na mocy niniejszego rozporządzenia. Przy udzielaniu wyjaśnień osobom, których to dotyczy, na mocy niniejszego rozporządzenia, operatorzy sztucznej inteligencji powinni uwzględniać poziom wiedzy fachowej i wiedzy przeciętnego konsumenta lub osoby fizycznej. |
Poprawka 135
Wniosek dotyczący rozporządzenia Motyw 84 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(84c) Unijne prawo w sprawie ochrony sygnalistów (dyrektywa (UE) 2019/1937) ma pełne zastosowanie do naukowców, projektantów, twórców, uczestników projektów, kontrolerów, kierowników ds. produktu, inżynierów i podmiotów gospodarczych uzyskujących informacje na temat naruszeń unijnych przepisów przez dostawcę systemu sztucznej inteligencji lub jego system sztucznej inteligencji. |
Poprawka 136
Wniosek dotyczący rozporządzenia
Motyw 85
Tekst proponowany przez Komisję |
Poprawka |
(85) Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy powierzyć Komisji uprawnienia do przyjmowania aktów na podstawie art. 290 TFUE w celu zmiany technik i podejść, o których mowa w załączniku I, do definiowania systemów sztucznej inteligencji, zmiany unijnego prawodawstwa harmoni- zacyjnego wymienionego w załączniku II, systemów sztucznej inteligencji wysokiego ryzyka wymienionych w załączniku III, przepisów dotyczących dokumentacji technicznej wymienionych w załączniku IV, treści deklaracji zgodności UE zawartej w załączniku V, przepisów dotyczących procedur oceny zgodności zawartych w załącznikach VI i VII oraz przepisów określających systemy sztucznej inteligencji wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu mię- dzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (58). W szczególności, aby zapewnić udział na równych zasadach Parlamentu Europejskiego i Rady w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych. |
(85) Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy powierzyć Komisji uprawnienia do przyjmowania aktów na podstawie art. 290 TFUE w celu zmiany unijnego prawodawstwa harmonizacyj- nego wymienionego w załączniku II, systemów sztucznej inteligencji wysokiego ryzyka wymienionych w załączniku III, przepisów dotyczących dokumentacji technicznej wymienionych w załączniku IV, treści deklaracji zgodności UE zawartej w załączniku V, przepisów dotyczących procedur oceny zgodności zawartych w załącznikach VI i VII oraz przepisów określających systemy sztucznej inteligencji wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu mię- dzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (58). Konsultacje te powinny wiązać się z udziałem zainteresowanych stron, dobranych na zasadzie zrównoważonej reprezentacji, w tym organizacji konsumenckich, społeczeństwa obywatelskiego, stowarzyszeń reprezentujących zainteresowane osoby, przedstawicieli przedsiębiorstw z różnych sektorów i różnej wielkości, a także badaczy i naukowców. W szczególności, aby zapewnić udział na równych zasadach Parlamentu Europejskiego i Rady w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych. |
(58) Dz.U. L 123 z 12.5.2016, s. 1. |
(58) Dz.U. L 123 z 12.5.2016, s. 1. |
Poprawka 137
Wniosek dotyczący rozporządzenia Motyw 85 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(85a) Biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę techniczną przy przeprowadzaniu oceny systemów sztucznej inteligencji wysokiego ryzyka, Komisja powinna dokonywać regularnego przeglądu wdrażania niniejszego rozporządzenia, w szczególności zakazanych systemów sztucznej inteligencji, obowiązków w zakresie przejrzystości oraz wykazu obszarów wysokiego ryzyka i przypadków użycia, co najmniej raz w roku, konsultując się z Urzędem ds. Sztucznej Inteligencji i odpowiednimi zainteresowanymi stronami. |
Poprawka 138
Wniosek dotyczący rozporządzenia Motyw 87 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
(87a) Ponieważ ograniczone są wiarygodne informacje na temat wykorzystania zasobów i energii, wytwarzania odpadów i innego wpływu na środowisko systemów sztucznej inteligencji i związanych z nimi technologii ICT, w tym oprogramowania, sprzętu komputerowego, a w szczególności centrów danych, Komisja powinna wprowadzić odpowiednią metodykę, aby mierzyć wpływ na środowisko i skuteczność niniejszego rozporządzenia w świetle celów UE w dziedzinie środowiska i klimatu. |
Poprawka 139
Wniosek dotyczący rozporządzenia
Motyw 89
Tekst proponowany przez Komisję |
Poprawka |
(89) Zgodnie z art. 42 ust. 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i z Europejską Radą Ochrony Danych, które zakończyły się wydaniem opinii w dniu [...] r., |
(89) Zgodnie z art. 42 ust. 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i z Europejską Radą Ochrony Danych, które zakończyły się wydaniem opinii w dniu 18 czerwca 2021 r., |
Poprawka 140
Wniosek dotyczący rozporządzenia
Artykuł 1 - ustęp 1 (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
1. Celem niniejszego rozporządzenia jest promowanie upowszechniania ukierunkowanej na człowieka i godnej zaufania sztucznej inteligencji oraz zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych, demokracji i praworządności oraz środowiska przed szkodliwymi skutkami systemów sztucznej inteligencji w Unii, przy jednoczesnym wspieraniu innowacji. |
Poprawka 141
Wniosek dotyczący rozporządzenia
Artykuł 1 - akapit 1 - litera d
Tekst proponowany przez Komisję |
Poprawka |
d) szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów; |
d) zharmonizowane przepisy dotyczące przejrzystości w przypadku niektórych systemów sztucznej inteligencji; |
Poprawka 142
Wniosek dotyczący rozporządzenia
Artykuł 1 - akapit 1 - litera e
Tekst proponowany przez Komisję |
Poprawka |
e) przepisy dotyczące monitorowania po wprowadzeniu do obrotu i nadzoru rynku. |
e) przepisy dotyczące monitorowania po wprowadzeniu do obrotu, zarządzania i egzekwowania nadzoru rynku; |
Poprawka 143
Wniosek dotyczący rozporządzenia
Artykuł 1 - akapit 1 - litera e a (nowa)
Tekst proponowany przez Komisję |
Poprawka |
|
ea) środki wspierania innowacji skierowane w szczególności do MŚP i przedsiębiorstw typu startup, w tym piaskownice regulacyjne oraz ukierunkowane środki, które mają zmniejszyć obciążenia regulacyjne MŚP i przedsiębiorstw typu startup; |
Poprawka 144
Wniosek dotyczący rozporządzenia
Artykuł 1 - akapit 1 - litera e b (nowa)
Tekst proponowany przez Komisję |
Poprawka |
|
eb) przepisy regulujące utworzenie i funkcjonowanie Urzędu Unii ds. Sztucznej Inteligencji; |
Poprawka 145
Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera b
Tekst proponowany przez Komisję |
Poprawka |
b) użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii; |
b) operatorów systemów sztucznej inteligencji, którzy mają siedzibę lub znajdują się w Unii; |
Poprawka 146
Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera c
Tekst proponowany przez Komisję |
Poprawka |
c) dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w Unii. |
c) dostawców i operatorów systemów sztucznej inteligencji, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy prawo państwa członkowskiego ma zastosowanie na mocy międzynarodowego prawa publicznego lub gdy wyniki działania systemu mają być wykorzystywane w Unii; |
Poprawka 147
Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera c a (nowa)
Tekst proponowany przez Komisję |
Poprawka |
|
ca) dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji, o których mowa w art. 5, poza Unią, w przypadku gdy dostawca lub dystrybutor takich systemów znajduje się w Unii; |
Poprawka 148
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 1 - litera c b (nowa)
Tekst proponowany przez Komisję |
Poprawka |
|
cb) importerów i dystrybutorów systemów sztucznej inteligencji, a także upoważnionych przedstawicieli dostawców systemów sztucznej inteligencji, w przypadku gdy tacy importerzy, dystrybutorzy lub upoważnieni przedstawiciele mają siedzibę lub znajdują się w Unii; |
Poprawka 149
Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera c c (nowa)
Tekst proponowany przez Komisję |
Poprawka |
|
cc) zainteresowanych osób zdefiniowanych w art. 3 pkt 8a, które znajdują się w Unii i na których zdrowie, bezpieczeństwo lub prawa podstawowe negatywnie wpływa stosowanie systemu sztucznej inteligencji wprowadzanego do obrotu lub oddawanego do użytku w Unii. |
Poprawka 150
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - wprowadzenie
Tekst proponowany przez Komisję |
Poprawka |
2. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów lub systemów objętych zakresem stosowania poniższych aktów lub które same są takimi produktami lub systemami, zastosowanie ma wyłącznie art. 84 niniejszego rozporządzenia: |
2. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów lub systemów objętych zakresem stosowania prawodawstwa harmonizacyjnego wymienionego w sekcji B złącz- nika II lub które same są takimi produktami lub systemami, zastosowanie ma wyłącznie art. 84 niniejszego rozporządzenia: |
Poprawka 151
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera a
Tekst proponowany przez Komisję |
Poprawka |
a) rozporządzenie (WE) 300/2008; |
skreśla się |
Poprawka 152
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera b
Tekst proponowany przez Komisję |
Poprawka |
b) rozporządzenie (UE) nr 167/2013; |
skreśla się |
Poprawka 153
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera c
Tekst proponowany przez Komisję |
Poprawka |
c) rozporządzenie (UE) nr 168/2013; |
skreśla się |
Poprawka 154
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera d
Tekst proponowany przez Komisję |
Poprawka |
d) dyrektywa 2014/90/UE; |
skreśla się |
Poprawka 155
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera e
Tekst proponowany przez Komisję |
Poprawka |
e) dyrektywa (UE) 2016/797; |
skreśla się |
Poprawka 156
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera f
Tekst proponowany przez Komisję Poprawka |
f) rozporządzenie (UE) 2018/858; |
skreśla się |
Poprawka 157
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera g
Tekst proponowany przez Komisję |
Poprawka |
g) rozporządzenie (UE) 2018/1139; |
skreśla się |
Poprawka 158
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 2 - litera h
Tekst proponowany przez Komisję |
Poprawka |
h) rozporządzenie (UE) 2019/2144. |
skreśla się |
Poprawka 159
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 4
Tekst proponowany przez Komisję |
Poprawka |
4. Niniejsze rozporządzenie nie ma zastosowania do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy sztucznej inteligencji w ramach umów międzynarodowych w sprawie egzekwowania prawa i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą. |
4. Niniejsze rozporządzenie nie ma zastosowania do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia zgodnie z ust. 1, jeżeli te organy lub organizacje wykorzystują systemy sztucznej inteligencji w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie egzekwowania prawa i współpracy sądowej zwartych z Unią lub z co najmniej jednym państwem członkowskim i są przedmiotem decyzji Komisji przyjętej zgodnie z art. 36 dyrektywy (UE) 2016/680 lub art. 45 rozporządzenia 2016/679 ("decyzja stwierdzająca odpowiedni stopień ochrony") lub są częścią umowy międzynarodowej zawartej między Unią a tym państwem trzecim lub organizacją międzynarodową na podstawie art. 218 TFUE, w której przewidziano odpowiednie zabezpieczenia w odniesieniu do ochrony prywatności oraz podstawowych praw i wolności osób fizycznych. |
Poprawka 160
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 5 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
5a. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji ma zastosowanie do danych osobowych przetwarzanych w związku z prawami i obowiązkami określonymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 i (UE) 2018/1725 ani na dyrektywy 2002/58/WE i (UE) 2016/680, z zastrzeżeniem ustaleń przewidzianych w art. 10 ust. 5 i art. 54 niniejszego rozporządzenia. |
Poprawka 161
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 5 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
5b. Niniejsze rozporządzenie nie narusza przepisów określonych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów. |
Poprawka 162
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 5 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
5c. Niniejsze rozporządzenie nie uniemożliwia państwom członkowskim ani Unii utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów sztucznej inteligencji przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie. |
Poprawka 163
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 5 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
5d. Niniejsze rozporządzenie nie ma zastosowania do działań w zakresie badań, testowania i rozwoju dotyczących systemu sztucznej inteligencji przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku, pod warunkiem że działania te są prowadzone z poszanowaniem praw podstawowych i mającego zastosowanie prawa Unii. Testowanie w warunkach rzeczywistych nie jest objęte tym wyłączeniem. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73, które precyzują stosowanie niniejszego ustępu w celu określenia tego wyłączenia, aby zapobiec jego istniejącym i potencjalnym nadużyciom. Urząd ds. Sztucznej Inteligencji przedstawia wytyczne dotyczące zarządzania badaniami i rozwojem zgodnie z art. 56, mające również na celu koordynację sposobu jego stosowania przez krajowe organy nadzorcze. |
Poprawka 164
Wniosek dotyczący rozporządzenia
Artykuł 2 - ustęp 5 e (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
5e. Niniejsze rozporządzenie nie stosuje się do elementów sztucznej inteligencji dostarczonych na podstawie wolnej i otwartej licencji, chyba że są one wprowadzane do obrotu lub oddawane do użytku przez dostawcę jako część systemu sztucznej inteligencji wysokiego ryzyka lub systemu sztucznej inteligencji objętego tytułem II lub IV. Wyłączenie to nie ma zastosowania do modeli generatywnych określonych w art. 3. |
Poprawka 165
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 1
Tekst proponowany przez Komisję |
Poprawka |
1) "system sztucznej inteligencji" oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może - dla danego zestawu celów określonych przez człowieka - generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję; |
1) "system sztucznej inteligencji" oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może - do wyraźnych lub dorozumianych celów - generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne; |
Poprawka 166
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
1a) "ryzyko" oznacza połączenie prawdopodobieństwa wystąpienia szkody oraz stopnia jej powagi; |
Poprawka 167
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
1b) "znaczące ryzyko" oznacza ryzyko, które jest znaczące w wyniku połączenia jego powagi, intensywności, prawdopodobieństwa wystąpienia i czasu trwania jego skutków oraz zdolności do oddziaływania na osobę fizyczną, na wiele osób lub do oddziaływania na określoną grupę osób; |
Poprawka 168
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 1 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
1c) "model generatywny" oznacza model systemu sztucznej inteligencji, który jest trenowany na szerokiej skali danych, jest zaprojektowany z myślą o ogólnym charakterze wyników i może być dostosowany do szerokiego zakresu odrębnych zadań; |
Poprawka 169
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
1d) "system sztucznej inteligencji ogólnego przeznaczenia" oznacza system sztucznej inteligencji, który może być wykorzystywany i dostosowany do szerokiego zakresu zastosowań, do których nie został celowo i specjalnie zaprojektowany; |
Poprawka 170
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 e (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
1e) "duże cykle treningowe" oznaczają proces produkcji modelu sztucznej inteligencji o dużych zdolnościach, który wymaga zasobów obliczeniowych powyżej bardzo wysokiego progu; |
Poprawka 171
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 3
Tekst proponowany przez Komisję |
Poprawka |
3) "drobny dostawca" oznacza dostawcę będącego mikro- przedsiębiorstwem lub małym przedsiębiorstwem w rozumieniu zalecenia Komisji 2003/361/WE (61); (61) Zalecenie Komisji z dnia 6 maja 2003 r. dotyczące definicji
mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw (Dz.U. L 124 z 20.5.2003, s. 36).
|
skreśla się |
Poprawka 172
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 4
Tekst proponowany przez Komisję |
Poprawka |
4) "użytkownik" oznacza osobą fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawo- dowej; |
4) "operator sztucznej inteligencji" oznacza osobą fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawodowej; |
Poprawka 173
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 8
Tekst proponowany przez Komisję |
Poprawka |
8) "operator" oznacza dostawcę, użytkownika, upoważnionego przedstawiciela, importera i dystrybutora; |
8) "operator" oznacza dostawcę, operatora sztucznej inteligencji, upoważnionego przedstawiciela, importera i dystrybutora; |
Poprawka 174
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 8 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
8a) "zainteresowana osoba" oznacza każdą osobę fizyczną lub grupę osób, które są objęte systemem sztucznej inteligencji lub na które system sztucznej inteligencji ma wpływ w inny sposób; |
Poprawka 175
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 11
Tekst proponowany przez Komisję |
Poprawka |
11) "oddanie do użytku" oznacza dostarczenie systemu sztucznej inteligencji do pierwszego użycia bezpośrednio użytkownikowi lub do użytku własnego na rynku unijnym zgodnie z jego przeznaczeniem; |
11) "oddanie do użytku" oznacza dostarczenie systemu sztucznej inteligencji do pierwszego użycia bezpośrednio operatorowi sztucznej inteligencji lub do użytku własnego na rynku unijnym zgodnie z jego przeznaczeniem; |
Poprawka 176
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 13
Tekst proponowany przez Komisję |
Poprawka |
13) "dające się racjonalnie przewidzieć niewłaściwe wykorzystanie" oznacza wykorzystanie systemu sztucznej inteligencji w sposób niezgodny z jego przeznaczeniem, które może wynikać z dającego się racjonalnie przewidzieć zachowania człowieka lub interakcji z innymi systemami; |
13) "dające się racjonalnie przewidzieć niewłaściwe wykorzystanie" oznacza wykorzystanie systemu sztucznej inteligencji w sposób niezgodny z jego przeznaczeniem wskazanym w instrukcji obsługi sporządzonej przez dostawcę, które to wykorzystanie może wynikać z dającego się racjonalnie przewidzieć zachowania człowieka lub interakcji z innymi systemami, w tym innymi systemami sztucznej inteligencji; |
Poprawka 177
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 14
Tekst proponowany przez Komisję |
Poprawka |
14) "związany z bezpieczeństwem element produktu lub systemu" oznacza element produktu lub systemu, który spełnia funkcję bezpieczeństwa w przypadku tego produktu lub systemu lub którego awaria bądź nieprawidłowe działanie zagrażają zdrowiu i bezpieczeństwu osób lub mienia; |
14) "związany z bezpieczeństwem element produktu lub systemu" oznacza - zgodnie z unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II - element produktu lub systemu, który spełnia funkcję bezpieczeństwa w przypadku tego produktu lub systemu lub którego awaria bądź nieprawidłowe działanie zagrażają zdrowiu i bezpieczeństwu osób; |
Poprawka 178
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 15
Tekst proponowany przez Komisję |
Poprawka |
15) "instrukcja obsługi" oznacza informacje podane przez dostawcę w celu poinformowania użytkownika w szczególności o przeznaczeniu i właściwym użytkowaniu systemu sztucznej inteligencji, w tym informacje o szczególnym kontekście geograficznym, behawioralnym lub funkcjonalnym, w którym ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka; |
15) "instrukcja obsługi" oznacza informacje podane przez dostawcę w celu poinformowania operatora sztucznej inteligencji w szczególności o przeznaczeniu i właściwym użytkowaniu systemu sztucznej inteligencji, a także informacje o wszelkich środkach ostrożności, jakie należy podjąć, w tym informacje o szczególnym kontekście geograficznym, behawioralnym lub funkcjonalnym, w którym ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka;; |
Poprawka 179
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 16
Tekst proponowany przez Komisję |
Poprawka |
16) "wycofanie systemu sztucznej inteligencji od użytkowników" oznacza dowolny środek mający na celu doprowadzenie do zwrotu dostawcy systemu sztucznej inteligencji udostępnionego użytkownikom; |
16) "wycofanie systemu sztucznej inteligencji od użytkowników" oznacza dowolny środek mający na celu doprowadzenie do zwrotu dostawcy systemu sztucznej inteligencji, który został udostępniony operatorom sztucznej inteligencji; |
Poprawka 180
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 20
Tekst proponowany przez Komisję |
Poprawka |
20) "ocena zgodności" oznacza proces weryfikacji, czy spełniono wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia w odniesieniu do systemu sztucznej inteligencji; |
20) "ocena zgodności" oznacza proces wykazania, czy spełniono wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia w odniesieniu do systemu sztucznej inteligencji; |
Poprawka 181
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 22
Tekst proponowany przez Komisję |
Poprawka |
22) "jednostka notyfikowana" oznacza jednostkę oceniającą zgodność wyznaczoną zgodnie z niniejszym rozporządzeniem i innym stosownym unijnym prawodawstwem harmonizacyjnym; |
22) "jednostka notyfikowana" oznacza jednostkę oceniającą zgodność notyfikowaną zgodnie z niniejszym rozporządzeniem i innym stosownym unijnym prawodawstwem harmonizacyjnym; |
Poprawka 182
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 23
Tekst proponowany przez Komisję |
Poprawka |
23) "istotna zmiana" oznacza zmianę w systemie sztucznej inteligencji po jego wprowadzeniu do obrotu lub oddaniu do użytku, która wpływa na zgodność systemu sztucznej inteligencji z wymogami określonymi w tytule III rozdział 2 niniejszego rozporządzenia lub powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system sztucznej inteligencji; |
23) "istotna zmiana" oznacza modyfikację lub serię modyfikacji w systemie sztucznej inteligencji po jego wprowadzeniu do obrotu lub oddaniu do użytku, która nie została przewidziana lub zaplanowana w początkowej ocenie ryzyka przez dostawcę i w wyniku której naruszona zostaje zgodność systemu sztucznej inteligencji z wymogami określonymi w tytule III rozdział 2 niniejszego rozporządzenia, lub która powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system sztucznej inteligencji; |
Poprawka 183
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 24
Tekst proponowany przez Komisję |
Poprawka |
24) "oznakowanie zgodności CE" (oznakowanie CE) oznacza oznakowanie, za pomocą którego dostawca wskazuje, że system sztucznej inteligencji spełnia wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia i innych mających zastosowanie przepisach Unii harmonizujących warunki wprowadzania produktów do obrotu ("unijne prawodawstwo harmonizacyjne"), przewidujących umieszczanie takiego oznakowania; |
24) "oznakowanie zgodności CE" (oznakowanie CE) oznacza oznakowanie fizyczne lub cyfrowe, za pomocą którego dostawca wskazuje, że system sztucznej inteligencji lub produkt z wbudowanym systemem sztucznej inteligencji spełnia wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia i innych mających zastosowanie przepisach Unii harmonizujących warunki wprowadzania produktów do obrotu ("unijne prawodawstwo harmonizacyjne"), przewidujących umieszczanie takiego oznakowania; |
Poprawka 184
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 29
Tekst proponowany przez Komisję |
Poprawka |
29) "dane treningowe" oznaczają dane wykorzystywane do trenowania systemu sztucznej inteligencji poprzez dopasowanie jego parametrów podlegających uczeniu, w tym wag sieci neuronowej; |
29) "dane treningowe" oznaczają dane wykorzystywane do trenowania systemu sztucznej inteligencji poprzez dopasowanie jego parametrów podlegających uczeniu; |
Poprawka 185
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 30
Tekst proponowany przez Komisję |
Poprawka |
30) "dane walidacyjne" oznaczają dane służące do oceny trenowanego systemu sztucznej inteligencji oraz do dostrajania jego parametrów niepodlegających uczeniu oraz procesu uczenia, między innymi w celu zapobiegania przetrenowaniu; przy czym zbiór danych walidacyjnych może stanowić oddzielny zbiór danych lub też może stanowić część zbioru danych treningowych, w którym to przypadku udział tego podzbioru w zbiorze danych treningowych może być stały lub zmienny; |
30) "dane walidacyjne" oznaczają dane służące do oceny trenowanego systemu sztucznej inteligencji oraz do dostrajania jego parametrów niepodlegających uczeniu oraz procesu uczenia, między innymi w celu zapobiegania niedostatecznemu wytrenowaniu lub przetrenowaniu, przy czym zbiór danych walidacyjnych stanowi oddzielny zbiór danych lub też może stanowić część zbioru danych treningowych, w którym to przypadku udział tego podzbioru w zbiorze danych treningowych może być stały lub zmienny; |
Poprawka 186
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 33
Tekst proponowany przez Komisję |
Poprawka |
33) "dane biometryczne" oznaczają dane osobowe będące wynikiem specjalnego przetwarzania technicznego, które dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej oraz umożliwiają lub potwierdzają jednoznaczną identyfikację tej osoby, takie jak wizerunek twarzy lub dane daktyloskopijne; |
33) "dane biometryczne" oznaczają dane biometryczne zdefiniowane w art. 4 pkt 14 rozporządzenia (UE) 2016/679; |
Poprawka 187
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 33 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
33a) "dane oparte na biometrii" oznaczają dane wynikające z określonego przetwarzania technicznego, odnoszące się do fizycznych, fizjologicznych lub behawioralnych sygnałów osoby fizycznej; |
Poprawka 188
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 33 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
33b) "identyfikacja biometryczna" oznacza automatyczne rozpoznawanie fizycznych, fizjologicznych, behawioralnych i psychologicznych cech ludzkich w celu ustalenia tożsamości danej osoby przez porównanie danych biometrycznych tej osoby z danymi biometrycznymi osób przechowywanymi w bazie danych (identyfikacja jedno do wielu); |
Poprawka 189
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 33 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
33c) "weryfikacja biometryczna" oznacza zautomatyzowaną weryfikację tożsamości osób fizycznych przez porównanie danych biometrycznych osoby fizycznej z wcześniej przekazanymi danymi biometrycznymi (weryfikacja one-to-one, w tym uwierzytelnianie); |
Poprawka 190
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 33 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
33d) "szczególne kategorie danych osobowych" oznaczają kategorie danych osobowych, o których mowa w art. 9 ust. 1 rozporządzenia (UE)2016/679; |
Poprawka 191
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 34
Tekst proponowany przez Komisję |
Poprawka |
34) "system rozpoznawania emocji" oznacza system sztucznej inteligencji służący do rozpoznawania lub odgadywania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób; |
34) "system rozpoznawania emocji" oznacza system sztucznej inteligencji służący do rozpoznawania lub odgadywania emocji, myśli, stanów umysłu lub zamiarów poszczególnych osób lub grup osób na podstawie ich danych biometrycznych i danych opartych na biometrii; |
Poprawka 192
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 35
Tekst proponowany przez Komisję |
Poprawka |
35) "system kategoryzacji biometrycznej" oznacza system sztucznej inteligencji służący do przypisywania osób fizycznych do określonych kategorii, takich jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, pochodzenie etniczne lub orientacja seksualna bądź polityczna, na podstawie ich danych biometrycznych; |
35) "kategoryzacja biometryczna" oznacza przypisanie osób fizycznych do określonych kategorii lub wywnioskowanie ich cech i atrybutów na podstawie ich danych biometrycznych lub opartych na biometrii, lub które można wywnioskować z takich danych; |
Poprawka 193
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 36
Tekst proponowany przez Komisję |
Poprawka |
36) "system zdalnej identyfikacji biometrycznej" oznacza system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez uprzedniej wiedzy użytkownika systemu sztucznej inteligencji, czy dana osoba będzie w nim figurować i czy może zostać zidentyfikowana; |
36) "system zdalnej identyfikacji biometrycznej" oznacza system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez uprzedniej wiedzy operatora systemu sztucznej inteligencji, czy dana osoba będzie w nim figurować i czy może zostać zidentyfikowana, z wyłączeniem systemów weryfikacji; |
Poprawka 194
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 37
Tekst proponowany przez Komisję |
Poprawka |
37) "system zdalnej identyfikacji biometrycznej »w czasie rze- czywistym«" oznacza system zdalnej identyfikacji biometrycznej, w którym zbieranie danych biometrycznych, ich porównywanie i identyfikacja odbywają się bez znacznego opóźnienia. W celu uniknięcia obchodzenia przepisów za taki system uznaje się system, w którym identyfikacja następuje natychmiast, ale również z niewielkim opóźnie- |
37) "system zdalnej identyfikacji biometrycznej »w czasie rze- czywistym«" oznacza system zdalnej identyfikacji biometrycznej, w którym zbieranie danych biometrycznych, ich porównywanie i identyfikacja odbywają się bez znacznego opóźnienia. Aby uniknąć obchodzenia przepisów, obejmuje to nie tylko natychmiastową identyfikację, ale również identyfikację z niewielkim opóźnieniem; |
Poprawka 195
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 39
Tekst proponowany przez Komisję |
Poprawka |
39) "przestrzeń publiczna" oznacza każde fizyczne miejsce dostępne publicznie, niezależnie od tego, czy mają zastosowanie określone warunki dostępu; |
39) "przestrzeń publiczna" oznacza każde miejsce będące własnością publiczną lub prywatną dostępne publicznie, niezależnie od tego, czy mają zastosowanie określone warunki dostępu, i niezależnie od ewentualnych ograniczeń pojemności; |
Poprawka 196
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 41
Tekst proponowany przez Komisję |
Poprawka |
41) "egzekwowanie prawa" oznacza działania prowadzone przez organy ścigania w celu zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub egzekwowania sankcji karnych, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom; |
41) "egzekwowanie prawa" oznacza działania prowadzone przez organy ścigania lub w imieniu tych organów w celu zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub egzekwowania sankcji karnych, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom; |
Poprawka 197
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 42
Tekst proponowany przez Komisję |
Poprawka |
42) "krajowy organ nadzorczy" oznacza organ, któremu państwo członkowskie powierza odpowiedzialność za wdrożenie i stosowanie niniejszego rozporządzenia, za koordynację działań powierzonych danemu państwu członkowskiemu, za działanie w charakterze pojedynczego punktu kontaktowego w kontaktach z Komisją oraz za reprezentowanie państwa członkowskiego w Europejskiej Radzie ds. Sztucznej Inteligencji; |
42) "krajowy organ nadzorczy" oznacza organ publiczny (AM 69), któremu państwo członkowskie powierza odpowiedzialność za wdrożenie i stosowanie niniejszego rozporządzenia, za koordynację działań powierzonych danemu państwu członkowskiemu, za działanie w charakterze pojedynczego punktu kontaktowego w kontaktach z Komisją oraz za reprezentowanie państwa członkowskiego w zarządzie Urzędu ds. Sztucznej Inteligencji; |
Poprawka 198
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 43
Tekst proponowany przez Komisję |
Poprawka |
43) "właściwy organ krajowy" oznacza krajowy organ nadzorczy, organ notyfikujący i organ nadzoru rynku; |
43) "właściwy organ krajowy" oznacza każdy krajowy organ, który jest odpowiedzialny za egzekwowanie niniejszego rozporządzenia; |
Poprawka 199
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 44 - wprowadzenie
Tekst proponowany przez Komisję |
Poprawka |
44) "poważny incydent" oznacza każdy incydent, który bezpośrednio lub pośrednio prowadzi, mógł prowadzić lub może prowadzić do któregokolwiek z poniższych zdarzeń: |
44) "poważny incydent" oznacza każdy incydent lub nieprawidłowe działanie systemu sztucznej inteligencji, który bezpośrednio lub pośrednio prowadzi, mógł prowadzić lub może prowadzić do któregokolwiek z poniższych zdarzeń: |
a) śmierci osoby lub poważnego uszczerbku na zdrowiu osoby, uszkodzenia mienia lub szkody dla środowiska, b) poważnego zakłócenia w zarządzaniu infrastrukturą krytyczną i jej funkcjonowaniu.
|
a) śmierci osoby lub poważnego uszczerbku na zdrowiu osoby, b) poważnego zakłócenia w zarządzaniu infrastrukturą krytyczną i jej funkcjonowaniu,
ba) naruszenia praw podstawowych chronionych na mocy prawa Unii,
bb) poważnego uszkodzenia mienia lub poważnej szkody dla środowiska;
|
Poprawka 200
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 44 a (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44a) "dane osobowe" oznaczają dane osobowe zdefiniowane w art. 4 pkt 1 rozporządzenia (UE) 2016/679; |
Poprawka 201
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 b (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44b) "dane nieosobowe" oznaczają dane inne niż dane osobowe; |
Poprawka 202
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 c (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44c) "profilowanie" oznacza wszelkie formy zautomatyzowanego przetwarzania danych osobowych, jak zdefiniowano w art. 4 pkt 4 rozporządzenia (Ue) 2016/679 lub - w przypadku organów ścigania - w art. 3 pkt 4 dyrektywy (UE) 2016/680 lub - w przypadku instytucji, organów lub jednostek organizacyjnych Unii - w art. 3 pkt 5 rozporządzenia (UE) 2018/1725; |
Poprawka 203
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 44 d (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44d) "deepfake" oznacza zmanipulowane lub syntetyczne treści dźwiękowe, obrazy lub treści wideo, które mylnie wydają się autentyczne lub zgodne z prawdą, i przedstawiają osoby, które wydają się mówić lub robić coś, czego nie powiedziały ani nie zrobiły, wyprodukowane z wykorzystaniem technik sztucznej inteligencji, w tym uczenia maszynowego i uczenia głębokiego; |
Poprawka 204
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 e (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44e) "powszechne naruszenie" oznacza każdy czyn lub każde zaniechanie sprzeczne z prawem Unii chroniącym interesy jednostek: a) które szkodzi lub może zaszkodzić zbiorowym interesom jednostek zamieszkałych w co najmniej dwóch państwach członkowskich innych niż państwo członkowskie, w którym:
(i) czyn lub zaniechanie miały swoje źródło lub miejsce;
(ii) siedzibę ma dany dostawca lub, w stosownych przypadkach, jego upoważniony przedstawiciel; lub
(iii) siedzibę ma operator sztucznej inteligencji, jeżeli naruszenie zostało popełnione przez operatora sztucznej inteligencji;
b) które chroni interesy jednostek, które zaszkodziły, szkodzą lub mogą zaszkodzić zbiorowym interesom jednostek i ma cechy wspólne, w tym dotyczy tej samej bezprawnej praktyki, narusza ten sam interes oraz zachodzi jednocześnie, dopuszcza się ich ten sam operator, w co najmniej trzech państwach członkowskich;
|
Poprawka 205
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 f (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44f) "powszechne naruszenie o wymiarze unijnym" oznacza powszechnie występujące naruszenie, które szkodzi lub może zaszkodzić zbiorowym interesom jednostek w co najmniej dwóch trzecich państw członkowskich zamieszkałych łącznie przez co najmniej dwie trzecie ludności Unii; |
Poprawka 206
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 44 g (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44g) "piaskownica regulacyjna" oznacza ustanowione przez organ publiczny kontrolowane środowisko, które ułatwia bezpieczne opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem do użytku zgodnie z określonym planem pod nadzorem regulacyjnym; |
Poprawka 207
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 h (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44h) "infrastruktura krytyczna" oznacza mienie, obiekt, urządzenie, sieć lub system lub część mienia, obiektu, urządzenia, sieci lub systemu, które są niezbędne do świadczenia usługi kluczowej w rozumieniu art. 2 pkt 4 dyrektywy (UE) 2022/2557; |
Poprawka 208
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 k (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44k) "scoring obywateli" oznacza ocenianie lub klasyfikowanie osób fizycznych na podstawie ich zachowań społecznych, statusu społecznoekonomicznego lub na podstawie znanych lub przewidywanych cech osobistych lub cech osobowości; |
Poprawka 209
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 l (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44l) "zachowanie społeczne" oznacza sposób, w jaki osoba fizyczna wchodzi w interakcje z innymi osobami fizycznymi lub społeczeństwem i wywiera na nie wpływ; |
Poprawka 210
Wniosek dotyczący rozporządzenia
Artykuł 3 - akapit 1 - punkt 44 m (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44m) "stan techniki" oznacza rozwinięty stan zdolności technicznych w danym momencie w odniesieniu do produktów, procesów i usług, oparty na odpowiednich skonsolidowanych ustaleniach naukowych, technologicznych i doświadczeniu; |
Poprawka 211
Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 n (nowy)
Tekst proponowany przez Komisję |
Poprawka |
|
44n) "testowanie w warunkach rzeczywistych" oznacza tymczasowe testowanie systemu sztucznej inteligencji zgodnie z jego przeznaczeniem w warunkach rzeczywistych poza środowiskiem laboratoryjnym lub w inny sposób symulowanym; |
Poprawka 212
Wniosek dotyczący rozporządzenia