Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
(2021/C 404/04)
(Dz.U.UE C z dnia 6 października 2021 r.)
Parlament Europejski,
- uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
- uwzględniając art. 114 Traktatu o funkcjonowaniu Unii Europejskiej,
- uwzględniając Kartę praw podstawowych Unii Europejskiej,
- uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali 1 ,
- uwzględniając dyrektywę Rady 2000/43/WE z dnia 29 czerwca 2000 r. wprowadzającą w życie zasadę równego traktowania osób bez względu na pochodzenie rasowe lub etniczne 2 (dyrektywę w sprawie równości rasowej),
- uwzględniając dyrektywę Rady 2000/78/WE z dnia 27 listopada 2000 r. ustanawiającą ogólne warunki ramowe równego traktowania w zakresie zatrudnienia i pracy 3 (dyrektywę o równym traktowaniu w zakresie zatrudnienia),
- uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) 4 (RODO) i dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylającą decyzję ramową Rady 2008/977/WSiSW 5 ,
- uwzględniając Porozumienie międzyinstytucjonalne z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa 6 ,
- uwzględniając wniosek z dnia 6 czerwca 2018 r. dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego program "Cyfrowa Europa" na lata 2021-2027 (CoM(2018)0434),
- uwzględniając komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 11 grudnia 2019 r. dotyczący Europejskiego Zielonego Ładu (COM(2019)0640),
- uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie sztucznej inteligencji - Europejskie podejście do doskonałości i zaufania (COM(2020)0065),
- uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie europejskiej strategii w zakresie danych (COM(2020)0066),
- uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie kształtowania cyfrowej przyszłości Europy (COM(2020)0067),
- uwzględniając konkluzje Rady Unii Europejskiej z czerwca 2020 r. w sprawie kształtowania cyfrowej przyszłości Europy,
- uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki 7 ,
- uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu 8 ,
- uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia 9 ,
- uwzględniając swoją rezolucję z dnia 11 września 2018 r. w sprawie równości językowej w erze cyfrowej 10 ,
- uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki 11 ,
- uwzględniając sprawozdanie z dnia 8 kwietnia 2019 r., które opracowała powołana przez Komisję grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, zatytułowane "Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji",
- uwzględniając studium na temat oceny europejskiej wartości dodanej wykonane przez Biuro Analiz Parlamentu Europejskiego pt. "European framework on ethical aspects of artificial intelligence, robotics and related technologies: European added value assessment" (Europejskie ramy dotyczące etycznych aspektów sztucznej inteligencji, robotyki i powiązanych z nimi technologii: ocena europejskiej wartości dodanej) 12 ,
- uwzględniając dokumenty informacyjne i opracowania przygotowane na wniosek Panelu ds. Przyszłości Nauki i Technologii (STOA) pod kierownictwem Działu Prognoz Naukowych w ramach Dyrekcji Generalnej ds. Analiz Parlamentarnych Parlamentu Europejskiego, zatytułowane "What if algorithms could abide by ethical principles?" [Co by było, gdyby algorytmy mogły przestrzegać zasad etycznych?], "Artificial Intelligence ante portas: Legal & ethical reflections" [Sztuczna inteligencja u bram: rozważania prawne i etyczne], "A governance framework for algorithmic accountability and transparency" [Ramy zarządzania na rzecz rozliczalności i przejrzystości w dziedzinie algorytmów], "Should we fear artificial intelligence?" [Czy powinniśmy obawiać się sztucznej inteligencji?] oraz "The ethics of artificial intelligence: Issues and initiatives" [Etyka w zakresie sztucznej inteligencji: problemy i inicjatywy],
- uwzględniając dokumenty przyjęte przez Radę Europy, jakimi są Konwencja ramowa o ochronie mniejszości narodowych, Protokół nr 12 do Konwencji o ochronie praw człowieka i podstawowych wolności oraz Europejska karta języków regionalnych lub mniejszościowych,
- uwzględniając zalecenie Rady OECD w sprawie sztucznej inteligencji przyjęte w dniu 22 maja 2019 r.,
- uwzględniając art. 47 i 54 Regulaminu,
- uwzględniając opinie przedstawione przez Komisję Spraw Zagranicznych, Komisję Rynku Wewnętrznego i Ochrony Konsumentów, Komisję Transportu i Turystyki, Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych, Komisję Zatrudnienia i Spraw Socjalnych, Komisję Ochrony Środowiska Naturalnego, Zdrowia Publicznego i Bezpieczeństwa Żywności oraz Komisję Kultury i Edukacji,
- uwzględniając sprawozdanie Komisji Prawnej (A9-0186/2020),
Wprowadzenie
A. mając na uwadze, że rozwijaniem, wdrażaniem i wykorzystaniem sztucznej inteligencji (zwanej także AI), robotyki i powiązanych z nimi technologii zajmują się ludzie, a dokonywane przez nich wybory decydują o potencjalnych korzyściach, jakie te technologie mogą przynieść społeczeństwu;
B. mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie, mające potencjał tworzenia możliwości dla przedsiębiorstw i korzyści dla obywateli i mogące bezpośrednio wpływać na wszystkie aspekty naszych społeczeństw, w tym na prawa podstawowe oraz zasady i wartości społeczne i gospodarcze, a także wywierać trwały wpływ na wszystkie obszary działalności, są promowane i szybko opracowywane;
C. mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie przyniosą znaczne zmiany na rynku pracy i w miejscu pracy; mając na uwadze, że potencjalnie mogą one zastąpić pracowników wykonujących powtarzalne czynności, usprawnić systemy współpracy między człowiekiem a maszyną, zwiększyć konkurencyjność i dobrobyt oraz stworzyć nowe możliwości zatrudnienia dla wykwalifikowanych pracowników, a jednocześnie stanowią poważne wyzwanie jeśli chodzi o reorganizację siły roboczej;
D. mając na uwadze, że rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii może również przyczynić się do osiągnięcia w wielu różnych sektorach celów zrównoważonego rozwoju w ramach Europejskiego Zielonego Ładu; mając na uwadze, że technologie cyfrowe mogą zwiększyć wpływ polityki w dziedzinie ochrony środowiska; mając na uwadze, że mogą one również przyczynić się do zmniejszenia zagęszczenia ruchu oraz emisji gazów cieplarnianych i zanieczyszczeń powietrza;
E. mając na uwadze, że w takich sektorach jak transport publiczny opierające się na AI inteligentne systemy transportowe mogą być wykorzystywane do tego, by skrócić do minimum oczekiwanie w kolejkach, zoptymalizować trasy, umożliwić osobom z niepełnosprawnościami większą niezależność, zwiększyć efektywność energetyczną i tym samym nasilić działania na rzecz dekarbonizacji oraz zredukować ślad środowiskowy;
F. mając na uwadze, że technologie te stwarzają nowe możliwości biznesowe, które mogą przyczynić się do odbudowy przemysłu unijnego po obecnym kryzysie zdrowotnym i gospodarczym, jeśli zwiększy się ich wykorzystanie, na przykład w sektorze transportu; mając na uwadze, że dzięki takim możliwościom mogą powstawać nowe miejsca pracy, ponieważ wykorzystanie tych technologii może zwiększyć produktywność przedsiębiorstw i przyczynić się do przyrostu wydajności; mając na uwadze, że programy innowacji w tej dziedzinie mogą umożliwić rozwój regionalnych klastrów;
G. mając na uwadze, że na Unii i jej państwach członkowskich spoczywa szczególna odpowiedzialność za wykorzystywanie, promowanie i zwiększanie wartości dodanej sztucznej inteligencji oraz zapewnienie, aby technologie AI były bezpieczne, przyczyniały się do dobrostanu obywateli UE i leżały w ich ogólnym interesie, ponieważ mogą one w ogromnym stopniu przyczynić się do osiągnięcia wspólnego celu, jakim jest poprawa jakości życia obywateli i wspieranie dobrobytu w Unii poprzez udział w rozwoju lepszych strategii i innowacji w wielu obszarach i sektorach; mając na uwadze, że aby wykorzystać pełen potencjał sztucznej inteligencji i by użytkownicy zrozumieli korzyści i wyzwania związane z technologiami AI, trzeba uwzględnić AI lub umiejętności cyfrowe w procesie edukacji i szkolenia, m.in. jeśli chodzi o propagowanie włączenia cyfrowego, oraz prowadzić na szczeblu unijnym kampanie informacyjne rzetelnie przedstawiające wszystkie aspekty rozwoju AI;
H. mając na uwadze, że wspólne unijne ramy regulacyjne obejmujące opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii (ramy regulacyjne dla AI) powinny pozwolić obywatelom uczestniczyć w korzyściach płynących z potencjału tych technologii, a jednocześnie chronić ich przed potencjalnymi zagrożeniami, jakie niosą te technologie i promować ich wiarygodność w Unii i poza nią; mając na uwadze, że ramy te powinny opierać się na prawie i wartościach Unii oraz na zasadach przejrzystości, wytłumaczalności, uczciwości, rozliczalności i odpowiedzialności;
I. mając na uwadze, że takie ramy regulacyjne mają kluczowe znaczenie dla uniknięcia rozdrobnienia rynku wewnętrznego wynikającego z różniących się przepisów krajowych i przyspieszą niezwykle potrzebne inwestycje, rozwój infrastruktury danych i wsparcie dla badań naukowych; mając na uwadze, że powinny one obejmować wspólne zobowiązania prawne i zasady etyczne określone we wniosku dotyczącym rozporządzenia, o którym mowa w załączniku do niniejszej rezolucji; mając na uwadze, że należy je ustanowić zgodnie z wytycznymi dotyczącymi lepszego stanowienia prawa;
J. mając na uwadze, że w Unii obowiązują ścisłe ramy prawne, aby zapewnić, między innymi, ochronę danych osobowych i prywatności, zwalczać dyskryminację oraz promować równość płci, ochronę środowiska i prawa konsumentów; mając na uwadze, że ramy te w postaci szeroko zakrojonego korpusu prawodawstwa horyzontalnego i sektorowego, w tym istniejących zasad dotyczących bezpieczeństwa produktów i odpowiedzialności, będą mieć nadal zastosowanie w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, choć mogą być konieczne pewne korekty poszczególnych instrumentów prawnych, by odzwierciedlić transformację cyfrową i odnieść się do nowych wyzwań stawianych przez zastosowania sztucznej inteligencji;
K. mając na uwadze, że istnieją obawy, iż obecne ramy prawne Unii, w tym dorobek dotyczący praw konsumentów, dorobek prawny w dziedzinie zatrudnienia i spraw społecznych, prawodawstwo dotyczące ochrony danych, bezpieczeństwa produktów i nadzoru rynku, a także prawodawstwo antydyskryminacyjne, mogą nie być już w stanie skutecznie przeciwdziałać zagrożeniom związanym ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami;
L. mając na uwadze, że oprócz dostosowań obowiązującego prawodawstwa kwestie prawne i etyczne związane z technologiami AI należy uregulować za pomocą skutecznych, kompleksowych i zachowujących aktualność ram prawa Unii odzwierciedlających zasady i wartości Unii zapisane w Traktatach i w Karcie praw podstawowych Unii Europejskiej ("Karta"), unikając nadmiernej regulacji dzięki ograniczeniu się do wypełnienia tylko istniejących luk w prawie i zwiększając pewność prawa zarówno dla przedsiębiorstw, jak i obywateli, w szczególności poprzez uwzględnienie obowiązkowych środków przeciwdziałania praktykom, które bez wątpienia podważałyby podstawowe prawa;
M. mając na uwadze, że wszelkie nowe ramy regulacyjne muszą uwzględniać interesy wszystkich stron; mając na uwadze, że warunkiem wstępnym dla dalszych kroków ustawodawczych powinno być szczegółowe zbadanie, w formie oceny skutków, jakie konsekwencje dla wszystkich podmiotów będą miały nowe ramy regulacyjne; mając na uwadze, że kluczowa rola małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu startup, szczególnie w unijnej gospodarce, wymaga ściśle proporcjonalnego podejścia, by umożliwić im rozwój i innowacje;
N. mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mogą mieć poważny wpływ na integralność materialną i niematerialną osób fizycznych, grup i społeczeństwa jako całości oraz że potencjalne szkody indywidualne i zbiorowe muszą znaleźć odzwierciedlenie w reakcjach legislacyjnych;
O. mając na uwadze, że w celu przestrzegania unijnych ram regulacyjnych dotyczących AI konieczne może być przyjęcie szczegółowych przepisów dotyczących unijnego sektora transportu;
P. mając na uwadze, że technologie AI mają strategiczne znaczenie dla sektora transportu, również dlatego, że zwiększają bezpieczeństwo i dostępność wszystkich rodzajów transportu oraz tworzą nowe możliwości zatrudnienia i bardziej zrównoważone modele biznesowe; mając na uwadze, że unijne podejście do rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii w transporcie może zwiększyć globalną konkurencyjność i strategiczną niezależność gospodarki unijnej;
Q. mając na uwadze, że błąd ludzki nadal jest przyczyną około 95 % wszystkich wypadków drogowych w Unii; mając na uwadze, że celem Unii było zmniejszenie do 2020 r. liczby śmiertelnych wypadków drogowych na jej terenie o 50 % rocznie w porównaniu z 2010 r., ale w związku ze stagnacją postępów wznowiła ona wysiłki w ramach unijnej polityki bezpieczeństwa ruchu drogowego na lata 2021-2030 - Kolejne kroki w kierunku "wizji zero"; mając na uwadze, że w tym względzie AI, automatyzacja i inne nowe technologie mają ogromny potencjał i żywotne znaczenie dla zwiększenia bezpieczeństwa drogowego dzięki ograniczeniu możliwości popełnienia błędu przez człowieka;
R. mając na uwadze, że unijne ramy regulacyjne dotyczące AI powinny również odzwierciedlać konieczność zapewnienia poszanowania praw pracowniczych; mając na uwadze, że należy uwzględnić umowę ramową partnerów społecznych w sprawie digitalizacji z czerwca 2020 r.;
S. mając na uwadze, że zakres unijnych ram regulacyjnych dotyczących AI powinien być odpowiedni, proporcjonalny i szczegółowo oceniony; mając na uwadze, że choć należy uwzględnić w nich szeroką gamę technologii i ich komponentów, w tym algorytmów, oprogramowania oraz wykorzystywanych lub generowanych przez nie danych, konieczne jest ukierunkowane i oparte na ryzyku podejście, aby uniknąć przeszkód dla przyszłych innowacji i tworzenia zbędnych obciążeń, w szczególności dla MŚP; mając na uwadze, że różnorodność aplikacji wykorzystujących sztuczną inteligencję, robotykę i powiązane z nimi technologie utrudnia znalezienie pojedynczego rozwiązania odpowiedniego dla całego spektrum zagrożeń;
T. mając na uwadze, że analiza danych i AI w coraz większym stopniu wpływają na informacje udostępniane obywatelom; mając na uwadze, że takie technologie, jeśli zostaną niewłaściwie wykorzystane, mogą zagrozić podstawowym prawom do wolności wypowiedzi i informacji, a także wolności i pluralizmowi mediów;
U. mając na uwadze, że zakres geograficzny unijnych ram regulacyjnych dotyczących AI powinien obejmować wszystkie komponenty sztucznej inteligencji, robotyki i powiązanych z nimi technologii opracowywanych, wdrażanych lub wykorzystywanych w Unii, w tym przypadki, w których elementy tych technologii mogą być zlokalizowane poza Unią lub mogą nie mieć konkretnej lokalizacji;
V. mając na uwadze, że unijne ramy regulacyjne dotyczące AI powinny obejmować wszystkie odpowiednie etapy, a mianowicie opracowywanie, wdrażanie i wykorzystywanie odpowiednich technologii i ich komponentów, przy należytym uwzględnieniu odpowiednich zobowiązań prawnych i zasad etycznych, a także powinny określać warunki zapewniające, że wszystkie podmioty opracowujące, wdrażające oraz wykorzystujące w pełni wypełniają te zobowiązania i przestrzegają powyższych zasad;
W. mając na uwadze, że zharmonizowane podejście do zasad etycznych dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii wymaga jednolitej interpretacji w Unii pojęć leżących u podstaw technologii takich jak algorytmy, oprogramowanie, dane czy biometria;
X. mając na uwadze, że działania na szczeblu Unii są uzasadnione potrzebą uniknięcia fragmentacji regulacyjnej lub serii krajowych przepisów regulacyjnych pozbawionych wspólnego mianownika, a także zagwarantowania jednolitego stosowania wspólnych zasad etycznych zapisanych w prawie podczas opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka; mając na uwadze, że potrzebne są jasne zasady w przypadkach występowania znacznego ryzyka;
Y. mając na uwadze, że wspólne zasady etyczne są skuteczne tylko wtedy, gdy są również zapisane w prawie i wskaże się podmioty odpowiedzialne za zapewnienie, ocenę i monitorowanie ich przestrzegania;
Z. mając na uwadze, że wytyczne etyczne, takie jak zasady przyjęte przez grupę ekspertów wysokiego szczebla ds. AI, stanowią dobry punkt wyjścia, ale nie są w stanie zagwarantować uczciwego zachowania podmiotów opracowujących, wdrażających i wykorzystujących ani skutecznej ochrony osób fizycznych; mając na uwadze, że takie wytyczne są tym bardziej istotne w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka;
AA. mając na uwadze, że każde państwo członkowskie powinno wyznaczyć krajowy organ nadzoru odpowiedzialny za zapewnianie, ocenę i monitorowanie zgodności opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka z unijnymi ramami regulacyjnymi dotyczącymi AI a także za umożliwianie dyskusji i wymiany poglądów w ścisłej współpracy z odpowiednimi zainteresowanymi stronami i społeczeństwem obywatelskim; mając na uwadze, że krajowe organy nadzoru powinny ze sobą współpracować;
AB. mając na uwadze, że w celu zapewnienia zharmonizowanego podejścia w całej Unii i optymalnego funkcjonowania jednolitego rynku cyfrowego należy poddać ocenie koordynację na szczeblu unijnym, za którą odpowiedzialna jest Komisja i wszelkie odpowiednie instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, w odniesieniu do nowych możliwości i wyzwań, w szczególności o charakterze transgranicznym, związanych z trwającym rozwojem technologicznym; mając na uwadze, że w tym celu Komisji należy powierzyć zadanie znalezienia odpowiedniego rozwiązania dla ustrukturyzowania takiej koordynacji na szczeblu Unii;
Sztuczna inteligencja ukierunkowana na człowieka i stworzona przez człowieka
1. uważa, że z zastrzeżeniem prawodawstwa sektorowego konieczne są skuteczne i zharmonizowane ramy regulacyjne oparte na prawie Unii, Karcie oraz prawie międzynarodowym dotyczącym praw człowieka, mające zastosowanie w szczególności do technologii wysokiego ryzyka, w celu ustanowienia jednakowych norm w całej Unii i skutecznej ochrony wartości Unii;
2. uważa, że wszelkie nowe ramy regulacyjne dotyczące AI w postaci zobowiązań prawnych i zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinny być w pełni zgodne z Kartą, a tym samym respektować godność ludzką, autonomię i samostanowienie jednostki, zapobiegać szkodom, promować sprawiedliwość, włączenie i przejrzystość, eliminować nierówne traktowanie i dyskryminację, również mniejszości, a także szanować i przestrzegać zasad ograniczania negatywnych efektów zewnętrznych wykorzystywanej technologii, zapewniania wyjaśnialności technologii, a także zagwarantowania, że technologie te będą służyć ludziom, a nie ich zastępować, czy decydować za nich, przy czym ostatecznym celem jest zwiększenie dobrostanu każdego człowieka;
3. podkreśla asymetrię między podmiotami stosującymi technologie sztucznej inteligencji a podmiotami wchodzącymi w interakcje z tymi technologiami i podlegającymi ich działaniu; w tym kontekście podkreśla, że zaufanie obywateli do AI można zbudować jedynie w oparciu o ramy prawne uwzględniające aspekty etyczne "domyślnie i już w fazie projektowania", które zapewnią, aby każda oddana do użytku AI była w pełni zgodna z traktatami, Kartą i prawem wtórnym Unii; uważa, że działania w oparciu o takie podejście powinny być zgodne z zasadą ostrożności, która przyświeca prawodawstwu UE i powinna być centralnym elementem wszelkich ram dotyczących AI; apeluje w związku z tym o jasny i spójny model zarządzania, który umożliwi przedsiębiorstwom i innowatorom dalsze rozwijanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
4. uważa, że wszelkie działania ustawodawcze w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinny być zgodne z zasadami konieczności i proporcjonalności;
5. uważa, że takie podejście pozwoli przedsiębiorstwom wprowadzać na rynek innowacyjne produkty i stworzy nowe możliwości, a jednocześnie zapewni ochronę unijnych wartości, prowadząc do opracowywania systemów AI, które będą uwzględniać unijne zasady etyczne już na etapie projektowania; uważa, że takie oparte na wartościach ramy regulacyjne stanowiłyby wartość dodaną, zapewniając Unii wyjątkową przewagę konkurencyjną, i w znacznym stopniu przyczyniłyby się do dobrostanu i dobrobytu obywateli Unii i unijnych przedsiębiorstw dzięki pobudzaniu rynku wewnętrznego; podkreśla, że takie ramy regulacyjne dotyczące AI stanowiłyby również wartość dodaną w odniesieniu do promowania innowacji na rynku wewnętrznym; uważa, że na przykład w sektorze transportu podejście to daje unijnym przedsiębiorstwom możliwość stania się światowymi liderami w tej dziedzinie;
6. zauważa, że unijne ramy prawne powinny mieć zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów i danych wykorzystywanych lub generowanych przez te technologie;
7. zauważa, że rozwiązania oparte na sztucznej inteligencji, robotyce i powiązanych z nimi technologiach bazują na dużych zbiorach danych, co wiąże się z potrzebą uzyskania masy krytycznej danych, aby wytrenować algorytmy i udoskonalić wyniki; w związku z tym z zadowoleniem przyjmuje wniosek Komisji dotyczący utworzenia wspólnej przestrzeni danych w Unii z myślą o lepszej wymianie danych i o wspieraniu badań naukowych z pełnym poszanowaniem europejskich przepisów o ochronie danych;
8. uważa, że obecne unijne ramy prawne, w szczególności dotyczące ochrony, prywatności i danych osobowych, będą musiały mieć w pełni zastosowanie do AI, robotyki i powiązanych z nimi technologii oraz podlegać regularnemu przeglądowi, nadzorowi i, w razie potrzeby, aktualizacji w celu skutecznego przeciwdziałania zagrożeniom stwarzanym przez te technologie, i w związku z tym korzystne byłoby uzupełnienie ich solidnymi przewodnimi zasadami etycznymi; zwraca uwagę, że w przypadkach, w których przyjęcie aktów prawnych byłoby przedwczesne, należy stosować ramy prawa miękkiego;
9. oczekuje od Komisji włączenia do wniosku ustawodawczego przygotowywanego w następstwie białej księgi w sprawie sztucznej inteligencji, o którym mowa w załączniku do niniejszej rezolucji, solidnego podejścia etycznego, w tym w zakresie bezpieczeństwa, odpowiedzialności i praw podstawowych, dzięki czemu zmaksymalizowane zostaną możliwości oferowane przez technologie AI i zminimalizuje się związane z nimi zagrożenia; oczekuje, że wymagany wniosek ustawodawczy będzie obejmować rozwiązania polityczne odnoszące się do głównych rozpoznanych zagrożeń związanych ze sztuczną inteligencją, w tym m.in. w zakresie etycznego gromadzenia i wykorzystywania dużych zbiorów danych oraz kwestii przejrzystości i stronniczości algorytmów; wzywa Komisję do opracowania kryteriów i wskaźników służących do oznaczania technologii AI w celu stymulowania przejrzystości, wyjaśnialności i odpowiedzialności oraz zachęcania podmiotów opracowujących do podejmowania dodatkowych środków ostrożności; podkreśla potrzebę inwestowania we włączanie dyscyplin nietechnicznych do studiów i badań nad sztuczną inteligencją, uwzględniając kontekst społeczny;
10. uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie muszą być dostosowane do ludzkich potrzeb w oparciu o zasadę, że ich opracowywanie, wdrażanie i wykorzystywanie powinno zawsze służyć ludziom, a nigdy odwrotnie, oraz powinny dążyć do zwiększenia dobrostanu i wolności jednostki, a także do zachowania pokoju, zapobiegania konfliktom i wzmocnienia bezpieczeństwa międzynarodowego, przy maksymalizacji oferowanych korzyści oraz zapobieganiu związanym z nimi zagrożeniom lub zmniejszaniu tych zagrożeń;
11. oświadcza, że opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym m.in. przez człowieka, musi zawsze odbywać się z poszanowaniem zasad etyki i uwzględnieniem przewodniej roli człowieka i demokratycznego nadzoru, a także umożliwiać w razie potrzeby odzyskanie kontroli przez człowieka dzięki wdrożeniu odpowiednich środków kontroli;
Ocena ryzyka
12. podkreśla, że wszelkie przyszłe uregulowania powinny opierać się na zróżnicowanym i zorientowanym na przyszłość podejściu do regulowania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym neutralnych pod względem technologicznym normach we wszystkich sektorach, a w stosownych przypadkach również na normach sektorowych; zauważa, że w celu zapewnienia jednolitego wdrażania systemu oceny ryzyka oraz zgodności z powiązanymi zobowiązaniami prawnymi, aby zapewnić równe warunki działania wśród państw członkowskich i zapobiec rozdrobnieniu rynku wewnętrznego, potrzebny jest wyczerpujący i łączny wykaz sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka; podkreśla, że taki wykaz musi regularnie podlegać ponownej ocenie i zauważa, że z uwagi na ewoluujący charakter tych technologii, sposób przeprowadzania ich oceny ryzyka może zostać poddany ponownej ocenie w przyszłości;
13. uważa, że ustalenie, czy sztuczna inteligencja, robotyka i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, a tym samym podlegające obowiązkowej zgodności ze zobowiązaniami prawnymi i zasadami etycznymi określonymi w ramach regulacyjnych dotyczących AI, powinno zawsze wynikać z bezstronnej, regulowanej i zewnętrznej oceny ex ante opartej na konkretnych i określonych kryteriach;
14. uważa w tym względzie, że sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, jeżeli ich rozwój, wdrażanie i wykorzystywanie wiąże się ze znacznym ryzykiem spowodowania obrażeń ciała lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii; uważa, że do celów oceny, czy technologie AI wiążą się z takim ryzykiem, należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać; pierwsze i drugie kryterium, tj. sektor i konkretne zastosowanie lub cel, należy rozpatrywać łącznie;
15. podkreśla, że oceny ryzyka tych technologii należy dokonywać na podstawie wyczerpującego i skumulowanego wykazu sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka; jest głęboko przekonany, że w Unii powinna istnieć spójność w zakresie oceny ryzyka związanego z tymi technologiami, zwłaszcza gdy są one oceniane zarówno pod kątem ich zgodności z ramami regulacyjnymi dotyczącymi AI, jak i zgodnie z wszelkimi innymi mającymi zastosowanie przepisami sektorowymi;
16. uważa, że podejście oparte na ryzyku powinno być opracowane w sposób jak najbardziej ograniczający obciążenia administracyjne dla przedsiębiorstw, w szczególności MŚP, dzięki zastosowaniu istniejących narzędzi; narzędzia te obejmują m.in. wykaz ocen skutków dla ochrony danych przewidziany w rozporządzeniu (UE) 2016/679;
Zabezpieczenia, przejrzystość i rozliczalność
17. przypomina, że prawo konsumentów do informacji jest zapisane jako kluczowa zasada w prawie UE; podkreśla, że w związku z tym prawo to należy w pełni wdrożyć w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii; uważa, że powinno ono w szczególności obejmować przejrzystość interakcji z systemami sztucznej inteligencji, w tym procesów automatyzacji, oraz sposobu ich funkcjonowania, zdolności, na przykład sposobu filtrowania i przedstawiania informacji, dokładności i ograniczeń; uważa, że takie informacje powinny być przekazywane krajowym organom nadzoru i krajowym organom ochrony konsumentów;
18. podkreśla, że zaufanie konsumentów ma zasadnicze znaczenie dla rozwoju i wdrażania technologii, które mogą nieść ze sobą nieodłączne ryzyko, jeżeli opierają się na nieprzejrzystych algorytmach i tendencyjnych zbiorach danych; uważa, że konsumenci powinni mieć prawo do bycia odpowiednio poinformowanymi w zrozumiały, terminowy, znormalizowany, dokładny i przystępny sposób o istnieniu systemów algorytmicznych, stosowanym w nich rozumowaniu, możliwych skutkach ich działania i konsekwencjach dla konsumentów, a także o tym, jak dotrzeć do osób mających uprawnienia decyzyjne oraz jak można kontrolować, skutecznie podważać i korygować decyzje systemu; podkreśla w związku z tym potrzebę rozważenia i poszanowania zasad informowania i ujawniania, na których opiera się dorobek prawny w dziedzinie ochrony konsumentów; uważa, że użytkowników końcowych należy szczegółowo informować o funkcjonowaniu systemów transportu i pojazdów wykorzystujących AI;
19. uważa za bardzo ważne, by algorytmy i zbiory danych wykorzystywane lub tworzone przez sztuczną inteligencję, robotykę i powiązane z nimi technologie były wytłumaczalne i, jeżeli jest to absolutnie konieczne i z pełnym poszanowaniem przepisów Unii dotyczących ochrony danych, prywatności i praw własności intelektualnej oraz tajemnic przedsiębiorstwa, dostępne dla organów publicznych, takich jak krajowe organy nadzoru i organy nadzoru rynku; zauważa ponadto, że zgodnie z najwyższymi obowiązującymi normami branżowymi taka dokumentacja powinna być przechowywana przez podmioty uczestniczące w poszczególnych etapach opracowywania technologii wysokiego ryzyka; zauważa, że organy nadzoru rynku mogą mieć dodatkowe uprawnienia w tym zakresie; podkreśla w związku z tym rolę zgodnej z prawem inżynierii odwrotnej; uważa, że konieczne może okazać się przeprowadzenie analizy obecnych przepisów dotyczących nadzoru rynku, aby zapewnić etyczną reakcję na pojawienie się sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
20. wzywa do nałożenia na podmioty opracowujące i wdrażające technologie wysokiego ryzyka wymogu dostarczania organom publicznym - w przypadku gdy wskaże na to ocena ryzyka - odpowiedniej dokumentacji dotyczącej użytkowania, projektowania i instrukcji bezpieczeństwa, w tym, gdy jest to absolutnie konieczne i z pełnym poszanowaniem przepisów Unii dotyczących ochrony danych, prywatności, praw własności intelektualnej i tajemnic przedsiębiorstwa, kodu źródłowego, narzędzi rozwoju i danych wykorzystywanych przez system; zauważa, że taki obowiązek umożliwiłby ocenę ich zgodności z prawem Unii i zasadami etycznymi, i odnotowuje w tym względzie przykład ustanowionego prawnie przekazywania publikacji do biblioteki narodowej; odnotowuje istotne rozróżnienie między przejrzystością algorytmów i przejrzystością korzystania z algorytmów;
21. zwraca ponadto uwagę, że w celu poszanowania godności, autonomii i bezpieczeństwa ludzi należy zwrócić należytą uwagę na kluczowe i zaawansowane przyrządy medyczne oraz potrzebę utrzymania przez niezależne, wiarygodne organy środków niezbędnych do świadczenia usług osobom korzystającym z tych przyrządów w przypadku gdy oryginalny wykonawca lub podmiot wdrażający nie świadczy już tych usług; na przykład: usługi takie obejmowałyby konserwację, naprawy i ulepszenia, w tym aktualizacje oprogramowania, które eliminują wady działania i niedociągnięcia;
22. utrzymuje, że sztuczna inteligencja, robotyka i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, bez względu na dziedzinę, w której są opracowywane, wdrażane i wykorzystywane, już na etapie projektowania powinny być opracowywane w sposób bezpieczny, identyfikowalny, technicznie niezawodny, niezawodny, etyczny i prawnie wiążący oraz powinno się je objąć niezależną kontrolą i nadzorem; uważa w szczególności, że wszystkie podmioty w łańcuchu opracowywania i dostaw produktów i usług wykorzystujących sztuczną inteligencję powinny ponosić odpowiedzialność prawną oraz zwraca uwagę na potrzebę mechanizmów zapewniających odpowiedzialność i rozliczalność;
23. podkreśla, że regulacje i wytyczne dotyczące wyjaśnialności, możliwości kontroli, identyfikowalności i przejrzystości, a także dotyczące dostępu organów publicznych do technologii, danych i systemów obliczeniowych leżących u podstaw takich technologii - gdy wymaga tego ocena ryzyka, jest to absolutnie konieczne i przy pełnym poszanowaniu prawa Unii, m.in. prawa dotyczącego ochrony danych, prywatności, praw własności intelektualnej i tajemnic przedsiębiorstwa - mają zasadnicze znaczenie dla zapewnienia zaufania obywateli do tych technologii, nawet jeżeli stopień wyjaśnialności jest powiązany ze złożonością technologii; zwraca uwagę, że nie zawsze możliwe jest wyjaśnienie, dlaczego model doprowadził do konkretnego wyniku czy decyzji, a przykładem tego są algorytmy typu "czarna skrzynka"; uważa zatem, że poszanowanie tych zasad stanowi warunek wstępny dla zagwarantowania rozliczalności;
24. uważa, że obywatele, w tym konsumenci, gdy wchodzą w interakcję z systemem korzystającym ze sztucznej inteligencji, w szczególności wykorzystywanym w celu personalizacji produktu czy usługi dla użytkowników, powinni być informowani, czy mogą wyłączyć lub ograniczyć personalizację i jak to zrobić;
25. w związku z tym zauważa, że aby można było zaufać sztucznej inteligencji, robotyce i powiązanym z nimi technologiom, należy zadbać o tu, by były precyzyjne i technicznie niezawodne;
26. podkreśla, że ważna jest ochrona sieci obejmujących połączenie AI i robotyki, że należy podejmować stanowcze kroki, by zapobiegać naruszeniom bezpieczeństwa, wyciekaniu i "zatruwaniu" danych, cyberatakom i niewłaściwemu wykorzystywaniu danych osobowych oraz że będzie to wymagać od odpowiednich agencji, organów i instytucji na szczeblu zarówno Unii, jak i krajowym, współpracy z użytkownikami końcowymi tych technologii; wzywa Komisję i państwa członkowskie, aby dopilnowały stałego przestrzegania unijnych wartości i praw podstawowych podczas opracowywania i wdrażania technologii AI w celu zapewnienia bezpieczeństwa i odporności infrastruktury cyfrowej UE;
Brak nierównego traktowania i niedyskryminacja
27. przypomina, że sztuczna inteligencja, w zależności od sposobu jej opracowania i wykorzystywania, ma potencjał tworzenia i wzmacniania nierównego traktowania, w tym poprzez nieodłączną tendencyjność w podstawowych zbiorach danych, a tym samym tworzenia różnych form zautomatyzowanej dyskryminacji, w tym dyskryminacji pośredniej, w szczególności w odniesieniu do grup osób o podobnych cechach; wzywa Komisję i państwa członkowskie, aby podjęły wszelkie możliwe środki w celu unikania takiego nierównego traktowania i zapewnienia pełnej ochrony praw podstawowych;
28. wyraża zaniepokojenie ryzykiem nierównego traktowania i dyskryminacji podczas opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie; przypomina, że bez względu na okoliczności należy zapewnić przestrzeganie prawa Unii oraz poszanowanie praw i godności człowieka, autonomii i prawa do samostanowienia jednostki, a także równe traktowanie i niedyskryminację w odniesieniu do wszystkich;
29. podkreśla, że technologie AI należy projektować tak, by funkcjonowały z poszanowaniem unijnych zasad oraz integralności cielesnej i psychicznej, a także respektowały różnorodność kulturową i językową UE oraz pomagały realizować podstawowe potrzeby; podkreśla, że należy unikać wszelkich zastosowań, które mogłyby prowadzić do niedopuszczalnego przymusu bezpośredniego lub pośredniego, groziłyby naruszeniem autonomii psychicznej i zdrowia psychicznego lub prowadziłyby do nieuzasadnionej inwigilacji, oszustwa lub niedopuszczalnej manipulacji;
30. zdecydowanie uważa, że podstawowe prawa człowieka zapisane w Karcie powinny być ściśle przestrzegane, aby zagwarantować, że nowe technologie nie stworzą luk w zakresie ochrony;
31. stwierdza, że problem ewentualnego nierównego traktowania i dyskryminacji ze strony programów komputerowych, algorytmów oraz danych może spowodować realne szkody dla jednostek i społeczeństwa, a zatem należy go rozwiązać przez zachęcanie do opracowywania i wzajemnej wymiany strategii przeciwdziałania tym zjawiskom, na przykład przez eliminację tendencyjności zbiorów danych wykorzystywanych w badaniach i rozwoju oraz przez opracowanie zasad regulujących przetwarzanie danych; uważa, że dzięki takiemu podejściu programy komputerowe, algorytmy i dane mogłyby stać się wartościowym narzędziem przeciwdziałania nierównemu traktowaniu i dyskryminacji w pewnych sytuacjach oraz siłą napędową równych praw i pozytywnych przemian społecznych;
32. utrzymuje, że wartości etyczne takie jak sprawiedliwość, dokładność, poufność i przejrzystość powinny stanowić podstawę tych technologii, co w tym kontekście oznacza, że ich działania nie mogą generować tendencyjnych wyników;
33. podkreśla znaczenie jakości zbiorów danych wykorzystywanych w systemach sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w zależności od ich kontekstu, zwłaszcza pod względem reprezentatywności danych szkoleniowych, eliminacji tendencyjności zbiorów danych, zastosowanych algorytmów oraz norm dotyczących danych i agregacji; podkreśla, że te zbiory danych powinny podlegać kontroli przez krajowe organy nadzoru i być udostępniane za każdym razem, gdy wystosowane zostanie wezwanie do zapewnienia zgodności tych zbiorów danych z uprzednio określonymi zasadami;
34. podkreśla, że w obliczu szeroko zakrojonej wojny dezinformacyjnej, napędzanej przede wszystkim przez podmioty pozaeuropejskie, technologie AI mogą mieć niepożądane z etycznego punktu widzenia skutki w związku z wykorzystywaniem tendencyjności w danych i algorytmach lub celowym zmienianiem przez kraj trzeci danych szkoleniowych, oraz może być poddana innym formom niebezpiecznej, złośliwej manipulacji w nieprzewidziany sposób i z niemożliwymi do oszacowania skutkami; w związku z tym niezbędne jest, by Unia nadal inwestowała w badania, analizę, innowacje oraz transgraniczny i międzysektorowy transfer wiedzy, by rozwijać technologie AI, które będą całkowicie wolne od wszelkiego rodzaju profilowania, nierównego traktowania i dyskryminacji i które mogłyby skutecznie przyczyniać się do zwalczania fałszywych informacji i dezinformacji, z jednoczesnym poszanowaniem prywatności danych i unijnych ram prawnych;
35. przypomina o znaczeniu zapewnienia obywatelom skutecznych środków odwoławczych oraz wzywa państwa członkowskie do zapewnienia dostępności przystępnych cenowo, niezależnych i skutecznych procedur i mechanizmów przeglądu gwarantujących bezstronną weryfikację przez człowieka wszystkich roszczeń dotyczących naruszeń praw obywateli, m.in. praw konsumenta i praw obywatelskich, w wyniku stosowania systemów algorytmicznych, niezależnie od tego, czy pochodzą od podmiotów sektora publicznego czy prywatnego; podkreśla znaczenie projektu dyrektywy Parlamentu Europejskiego i Rady w sprawie powództw przedstawicielskich w celu ochrony zbiorowych interesów konsumentów i uchylającej dyrektywę 2009/22/WE, co do której w dniu 22 czerwca 2020 r. osiągnięto porozumienie polityczne, w odniesieniu do przyszłych przypadków kwestionowania wprowadzenia lub stałego wykorzystywania systemu AI, jeżeli może to prowadzić do naruszenia praw konsumentów, lub zaskarżenia naruszenia tych praw; zwraca się do Komisji i państw członkowskich o dopilnowanie, by krajowe i unijne organizacje konsumenckie dysponowały wystarczającymi środkami finansowymi, aby pomóc konsumentom w korzystaniu z prawa do środków odwoławczych w przypadkach, w których zostały naruszone ich prawa;
36. uważa zatem, że każda osoba fizyczna bądź prawna powinna mieć prawo do dochodzenia roszczeń w związku z decyzją podjętą przez system AI, robotyki lub powiązanych technologii, która to decyzja narusza prawo unijne lub krajowe;
37. uważa, że w przypadkach podejrzenia naruszenia ram regulacyjnych Unii w tym kontekście pierwszym punktem kontaktowym dla konsumentów mogłyby być również krajowe organy nadzoru, do których zwracaliby się oni z wnioskami o rekompensatę w celu zapewnienia skutecznego egzekwowania wyżej wspomnianych ram;
Odpowiedzialność społeczna i równowaga płci
38. uważa, że społecznie odpowiedzialne systemy AI, robotyki i powiązanych z nimi technologii mają do odegrania rolę w znajdowaniu rozwiązań, które chronią i promują podstawowe prawa i wartości naszego społeczeństwa, takie jak demokracja, praworządność, pluralistyczne i niezależne media oraz obiektywne i łatwo dostępne informacje, zdrowie i dobrobyt gospodarczy, równość szans, prawa pracowników i prawa socjalne, edukacja wysokiej jakości, ochrona dzieci, różnorodność kulturowa i językowa, równość płci, umiejętności cyfrowe, innowacje i kreatywność; przypomina o potrzebie zapewnienia, by interesy wszystkich obywateli, w tym marginalizowanych lub znajdujących się w niekorzystnej sytuacji, takich jak osoby niepełnosprawne, były odpowiednio uwzględniane i reprezentowane;
39. podkreśla, że istotne znaczenie ma osiągnięcie wysokiego poziomu ogólnych umiejętności cyfrowych i kształcenie wysoko wykwalifikowanych specjalistów w tej dziedzinie oraz zapewnienie wzajemnego uznawania takich kwalifikacji w całej Unii; podkreśla potrzebę zróżnicowanych zespołów programistów i inżynierów współpracujących z głównymi podmiotami społecznymi w celu zapobiegania nieumyślnemu włączaniu nierównego traktowania ze względu na płeć i uprzedzeń kulturowych do algorytmów, systemów i zastosowań opartych na sztucznej inteligencji; wspiera tworzenie programów nauczania i podejmowanie działań na rzecz podnoszenia świadomości społecznej w zakresie społecznego, prawnego i etycznego wpływu sztucznej inteligencji;
40. podkreśla kluczowe znaczenie zagwarantowania wolności myśli i wypowiedzi, zapewniając, by technologie te nie promowały mowy nienawiści ani przemocy; w związku z tym, uważa, że utrudnianie lub ograniczanie wolności wypowiedzi realizowanej przy pomocy środków cyfrowych jest niezgodne z prawem w świetle podstawowych zasad Unii, chyba że korzystanie z tego podstawowego prawa wiąże się z czynami niezgodnymi z prawem;
41. podkreśla, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mogą przyczynić się do zmniejszenia nierówności społecznych i stwierdza, że europejski model ich rozwoju musi opierać się na zaufaniu obywateli i większej spójności społecznej;
42. podkreśla, że wdrożenie jakiegokolwiek systemu sztucznej inteligencji nie powinno nadmiernie ograniczać użytkownikom dostępu do usług publicznych, takich jak zabezpieczenie społeczne; w związku z tym wzywa Komisję do oceny, w jaki sposób można osiągnąć ten cel;
43. podkreśla znaczenie odpowiedzialnych badań i rozwoju mających na celu maksymalizację pełnego potencjału sztucznej inteligencji, robotyki i powiązanych z nimi technologii dla obywateli i dobra publicznego; wzywa do mobilizacji zasobów Unii oraz państw członkowskich w celu opracowania i wsparcia odpowiedzialnej innowacyjności;
44. podkreśla, że wraz z rosnącym znaczeniem umiejętności technologicznych konieczna będzie stała aktualizacja oferty edukacyjnej, zwłaszcza skierowanej do przyszłych pokoleń, i promowanie zmiany kwalifikacji osób, które są już na rynku pracy; uważa, że należy w związku z tym promować innowacje i szkolenie nie tylko w sektorze prywatnym, ale również publicznym;
45. podkreśla, że opracowywanie, wdrażanie i wykorzystywanie tych technologii nie powinno powodować obrażeń ciała lub szkód dla osób fizycznych, społeczeństwa lub środowiska oraz że w związku z tym podmioty opracowujące, wdrażające i wykorzystujące te technologie powinno się pociągać do odpowiedzialności za takie obrażenia lub szkody zgodnie z odpowiednimi unijnymi i krajowymi przepisami dotyczącymi odpowiedzialności;
46. wzywa państwa członkowskie do oceny, czy utrata miejsc pracy w wyniku zastosowania tych technologii powinna prowadzić do opracowania odpowiednich strategii polityki publicznej, takich jak skrócenie czasu pracy;
47. utrzymuje, że projektowanie oparte na wartościach i zasadach etycznych Unii jest bardzo potrzebnym podejściem, aby stworzyć warunki dla powszechnej akceptacji społecznej sztucznej inteligencji, robotyki i powiązanych z nimi technologii; uważa, że podejście to mające na celu rozwój godnej zaufania, etycznie odpowiedzialnej i technicznie niezawodnej sztucznej inteligencji jest istotnym czynnikiem wspomagającym zrównoważoną, inteligentną, bezpieczną i dostępną mobilność;
48. zwraca uwagę na dużą wartość dodaną pojazdów autonomicznych dla osób o ograniczonej możliwości poruszania się, ponieważ takie pojazdy umożliwiają tym osobom większy udział w indywidualnym transporcie drogowym, a tym samym ułatwiają im życie codzienne; podkreśla znaczenie dostępności, szczególnie przy projektowaniu systemów MaaS (mobilność jako usługa);
49. wzywa Komisję, aby nadal wspierała rozwój godnych zaufania systemów AI w celu zwiększenia bezpieczeństwa, efektywności, dostępności, przystępności cenowej i inkluzywności transportu, w tym dla osób o ograniczonej możliwości poruszania się, zwłaszcza osób z niepełnosprawnościami, z uwzględnieniem dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 13 oraz przepisów unijnych dotyczących praw pasażerów;
50. uważa, że AI może pomóc w lepszym korzystaniu z umiejętności i kompetencji osób z niepełnosprawnościami oraz że stosowanie AI w miejscu pracy może sprzyjać inkluzywnym rynkom pracy oraz wzrostowi wskaźników zatrudnienia osób z niepełnosprawnościami;
Środowisko i zrównoważony rozwój
51. stwierdza, że rządy i przedsiębiorstwa powinny wykorzystywać sztuczną inteligencję, robotykę i powiązane z nimi technologie, aby przynosić korzyści ludziom i planecie, przyczyniać się do osiągnięcia zrównoważonego rozwoju, ochrony środowiska, neutralności klimatycznej i celów gospodarki o obiegu zamkniętym; opracowywanie, wdrażanie i wykorzystywanie tych technologii powinno przyczyniać się do transformacji ekologicznej, chronić środowisko oraz minimalizować i naprawiać wszelkie szkody dla środowiska w ciągu cyklu życia tych technologii i w całym związanym z nimi łańcuchu wartości zgodnie z prawem Unii;
52. ze względu na ich znaczący wpływ na środowisko, do celów poprzedniego ustępu wpływ na środowisko naturalne związany z rozwojem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii mógłby być, w stosownych przypadkach i w razie potrzeby, oceniany przez organy sektorowe w całym cyklu życia tych technologii; ocena ta powinna mogłaby obejmować oszacowanie wpływu wydobycia niezbędnych surowców, zużycia energii i emisji gazów cieplarnianych wynikających z ich opracowywania, wdrażania i stosowania;
53. proponuje, aby w celu opracowywania najnowocześniejszych odpowiedzialnych rozwiązań sztucznej inteligencji eksplorować, stymulować i maksymalnie zwiększać potencjał sztucznej inteligencji, robotyki i powiązanych z nimi technologii w drodze odpowiedzialnych badań i rozwoju, które wymagają mobilizacji zasobów Unii oraz państw członkowskich;
54. podkreśla, że z opracowywaniem, wdrażaniem i wykorzystywaniem tych technologii wiążą się możliwości, jeśli chodzi o promowanie celów zrównoważonego rozwoju wyznaczonych przez Organizację Narodów Zjednoczonych, globalnej transformacji energetyki i dekarbonizacji;
55. uważa, że cele odpowiedzialności społecznej, równouprawnienia płci, ochrony środowiska i zrównoważonego rozwoju należy realizować bez uszczerbku dla istniejących obowiązków ogólnych i sektorowych w tych dziedzinach; uważa, że należy ustanowić niewiążące wytyczne dotyczące wdrażania dla podmiotów opracowujących, wdrażających i użytkowników, zwłaszcza technologii wysokiego ryzyka, dotyczące metodologii oceny ich zgodności z niniejszym rozporządzeniem oraz osiągnięcia tych celów;
56. apeluje do Unii, by w drodze stosowania podatków, udzielania zamówień lub innych zachęt promowała i finansowała opracowywanie ukierunkowanych na człowieka zastosowań sztucznej inteligencji, robotyki i powiązanych z nimi technologii, które odpowiadają na wyzwania związane ze środowiskiem i klimatem oraz zapewniają poszanowanie praw podstawowych;
57. podkreśla, że pomimo obecnego silnego śladu węglowego opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym zautomatyzowanych decyzji i uczenia się maszyn, technologie te mogą przyczynić się do zmniejszenia obecnego śladu środowiskowego sektora ICT; podkreśla, że te i inne odpowiednio regulowane pokrewne technologie powinny być kluczowymi czynnikami umożliwiającymi osiągnięcie celów Zielonego Ładu, celów zrównoważonego rozwoju ONZ i porozumienia paryskiego w wielu różnych sektorach oraz powinny zwiększyć wpływ polityki zapewniającej ochronę środowiska, np. w zakresie strategii politycznych dotyczących ograniczania ilości odpadów i degradacji środowiska;
58. wzywa Komisję do przeprowadzenia badania na temat wpływu śladu węglowego AI oraz pozytywnych i negatywnych skutków przejścia na stosowanie technologii AI przez konsumentów;
59. zauważa, że biorąc pod uwagę coraz bardziej intensywny rozwój zastosowań AI, które wymagają zasobów obliczeniowych, środków gromadzenia i zasobów energetycznych, wpływ systemów AI na środowisko powinien być brany pod uwagę w całym ich cyklu życia;
60. uważa, że w dziedzinach takich jak zdrowie, odpowiedzialność musi ostatecznie spoczywać na osobie fizycznej lub prawnej; podkreśla potrzebę identyfikowalnych i publicznie dostępnych danych treningowych dla algorytmów;
61. zdecydowanie popiera utworzenie europejskiej przestrzeni danych dotyczących zdrowia zaproponowanej przez Komisję w jej komunikacie w sprawie europejskiej strategii w zakresie danych, która ma na celu promowanie wymiany danych dotyczących zdrowia oraz wspieranie badań z pełnym poszanowaniem ochrony danych, w tym przetwarzania danych za pomocą technologii AI, a także wzmocnienie i rozszerzenie wykorzystania i ponownego wykorzystania danych dotyczących zdrowia; zachęca do zwiększenia skali transgranicznej wymiany danych dotyczących zdrowia, powiązania i wykorzystywania takich danych poprzez bezpieczne, skoordynowane repozytoria szczególnego rodzaju informacji dotyczących zdrowia, takich jak europejskie rejestry zdrowia (EHR), dane genomowe i cyfrowe obrazy medyczne, aby ułatwić funkcjonowanie ogólnoeuropejskich interoperacyjnych rejestrów lub baz danych w dziedzinach takich jak badania, nauka i sektory zdrowia;
62. podkreśla korzyści, jakie przynosi AI w dziedzinie zapobiegania chorobom, ich leczenia i kontroli, czego przykładem może być fakt, iż AI przewidziała epidemię COVID-19 przed WHO; wzywa Komisję, aby zapewniła ECDC odpowiednie ramy regulacyjne i zasoby umożliwiające niezależne gromadzenie niezbędnych zanonimizowanych i globalnych danych w czasie rzeczywistym, we współpracy z państwami członkowskimi, między innymi w celu rozwiązania problemów ujawnionych w związku z pandemią COVID-19;
Prywatność i biometria
63. zauważa dynamiczny wzrost generowania i wykorzystywania danych, w tym danych osobowych, takich jak dane biometryczne, w następstwie opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, a w związku z tym podkreśla potrzebę poszanowania praw obywateli do prywatności i ochrony danych osobowych zgodnie z prawem Unii;
64. zwraca uwagę, że możliwości oferowane przez te technologie w zakresie wykorzystywania danych osobowych i nieosobowych do kategoryzacji i mikrotargetowania osób, określania słabych stron poszczególnych osób lub wykorzystywania precyzyjnej wiedzy predykcyjnej należy równoważyć skutecznie egzekwowanymi zasadami ochrony danych i prywatności, takimi jak zasada minimalizacji danych, prawa do sprzeciwu względem profilowania i kontroli nad własnymi danymi, prawa do uzyskania wyjaśnienia decyzji opartej na zautomatyzowanym przetwarzaniu oraz uwzględnienia ochrony prywatności już w fazie projektowania, a także zasadami proporcjonalności, konieczności i jasno określonej celowości zgodnie z RODO;
65. podkreśla, że gdy technologie zdalnego rozpoznawania, takie jak rozpoznawanie identyfikatorów biometrycznych, w szczególności rozpoznawanie twarzy, są wykorzystywane przez organy publiczne do celów istotnego interesu publicznego, ich wykorzystywanie powinno zawsze być ujawniane, proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, ograniczone w czasie i przeprowadzane zgodnie z prawem Unii, z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie praw podstawowych; kryteria i ograniczenia ich wykorzystywania powinny podlegać kontroli sądowej i nadzorowi demokratycznemu, a także powinny uwzględniać ich oddziaływanie psychologiczne i społecznokulturowe;
66. zwraca uwagę, że choć z wdrażania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w ramach decyzji władz publicznych płyną korzyści, możliwe są także poważne nadużycia, takie jak masowa inwigilacja, prewencja policyjna i naruszenia praw procesowych;
67. uważa, że technologie zdolne do podejmowania zautomatyzowanych decyzji, a tym samym mogące zastąpić podejmowanie decyzji przez organy publiczne, należy traktować z największą ostrożnością, szczególnie w dziedzinie sprawiedliwości i egzekwowania prawa;
68. uważa, że państwa członkowskie powinny decydować się na stosowanie tych technologii tylko wówczas, gdy istnieją solidne dowody na ich wiarygodność oraz gdy możliwa jest istotna interwencja lub weryfikacja ze strony człowieka lub przeprowadza się je systematycznie w przypadkach zagrożenia dla praw podstawowych; podkreśla znaczenie przeprowadzania przez organy krajowe skrupulatnych ocen skutków dla praw podstawowych w odniesieniu do systemów sztucznej inteligencji wdrażanych w takich przypadkach, zwłaszcza gdy technologie te uznane zostały za obarczone wysokim ryzykiem;
69. jest zdania, że każda decyzja podjęta przez technologię sztucznej inteligencji, robotyki i powiązanych z nimi technologii w ramach uprawnień władzy publicznej powinna podlegać istotnej interwencji ze strony człowieka i rzetelnym procedurom, zwłaszcza gdy technologie te uznane zostały za obarczone wysokim ryzykiem;
70. uważa, że postęp technologiczny nie powinien prowadzić do wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii do samodzielnego podejmowania decyzji w sektorze publicznym, które mają bezpośredni i znaczący wpływ na prawa i obowiązki obywateli;
71. zauważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie w obszarze egzekwowania prawa i kontroli granic mogą zwiększyć bezpieczeństwo publiczne, ale również wymagają szerokiej i rygorystycznej kontroli publicznej oraz najwyższego możliwego poziomu przejrzystości zarówno w odniesieniu do oceny ryzyka poszczególnych zastosowań, jak i ogólnego przeglądu wykorzystania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w obszarze egzekwowania prawa i kontroli granic; uważa, że takie technologie wiążą się ze znacznym ryzykiem etycznym, z którym należy sobie odpowiednio poradzić, biorąc pod uwagę możliwe niekorzystne skutki dla obywateli, w szczególności ich prawa do prywatności, ochrony danych i niedyskryminacji; podkreśla, że nadużywanie tych technologii może stać się bezpośrednim zagrożeniem dla demokracji, a ich wdrażanie i stosowanie musi odbywać się z poszanowaniem zasad proporcjonalności i konieczności, Karty praw podstawowych i odpowiedniego prawa wtórnego Unii, takiego jak unijne przepisy o ochronie danych; podkreśla, że sztuczna inteligencja nigdy nie powinna zastępować człowieka przy wydawaniu wyroków; uważa, że decyzje takie jak zwolnienie za kaucją, zawieszenie wyroku, umożliwienie wysłuchania przed sądem czy decyzje oparte wyłącznie na automatycznym przetwarzaniu danych, wywołujące skutek prawny w odniesieniu do osoby lub mające na nią istotny wpływ, muszą zawsze obejmować wnikliwą ocenę i osąd ze strony człowieka;
Dobre zarządzanie
72. podkreśla, że odpowiednie zarządzanie opracowywaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, zwłaszcza technologii wysokiego ryzyka, przez wdrożenie środków ukierunkowanych na rozliczalność i wyeliminowanie potencjalnego ryzyka nierównego traktowania i dyskryminacji, może zwiększyć bezpieczeństwo obywateli oraz ich zaufanie do tych technologii;
73. uważa, że wspólne ramy zarządzania tymi technologiami, koordynowane przez Komisję i/lub wszelkie właściwe instytucje, organy, urzędy lub agencje Unii, które mogą być wyznaczone do tego zadania w tym kontekście, wdrażane przez krajowe organy nadzoru w każdym państwie członkowskim, zapewniłyby spójne unijne podejście i zapobiegłyby rozdrobnieniu jednolitego rynku;
74. zauważa, że w rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii wykorzystywane są duże ilości danych oraz że przetwarzanie, wymianę i korzystanie z takich danych oraz dostęp do nich należy uregulować zgodnie z przepisami prawa oraz określonymi w nich wymogami dotyczącymi jakości, integralności, interoperacyjności, przejrzystości, bezpieczeństwa, prywatności i kontroli;
75. przypomina, że dostęp do danych stanowi niezbędny element rozwoju gospodarki cyfrowej; zwraca w związku z tym uwagę, że interoperacyjność danych, dzięki ograniczaniu efektu blokady technologicznej, odgrywa kluczową rolę w zapewnianiu sprawiedliwych warunków rynkowych i promowaniu równości szans na jednolitym rynku cyfrowym;
76. podkreśla potrzebę zapewnienia odpowiedniej ochrony danych osobowych, w szczególności danych należących do słabszych grup społecznych lub ich dotyczących, takich jak osoby niepełnosprawne, pacjenci, dzieci, osoby starsze, mniejszości, migranci i inne grupy zagrożone wykluczeniem;
77. zauważa, że opracowywanie, wdrażanie i wykorzystywanie przez organy publiczne sztucznej inteligencji, robotyki i powiązanych z nimi technologii bywa często zlecane podmiotom prywatnym w ramach outsourcingu; wyraża przekonanie, że nie powinno to w żaden sposób narażać na szwank ochrony wartości publicznych i praw podstawowych; uważa, że warunki udzielania zamówień publicznych powinny w stosownych przypadkach odzwierciedlać normy etyczne obowiązujące organy publiczne;
Konsumenci i rynek wewnętrzny
78. podkreśla, że istotne jest, by ramy regulacyjne dotyczące sztucznej inteligencji miały zastosowanie, gdy konsumenci w Unii są użytkownikami systemu algorytmicznego, są objęci systemem algorytmicznym, taki system jest na nich ukierunkowany lub są kierowani do systemu algorytmicznego, niezależnie od miejsca prowadzenia działalności przez podmioty opracowujące, sprzedające lub wykorzystujące ten system; uważa ponadto, że w trosce o pewność prawa ustalone zasady powinny być stosowane w odniesieniu do wszystkich podmiotów opracowujących i w całym łańcuchu wartości, a mianowicie na etapach opracowywania, wdrażania i wykorzystywania odpowiednich technologii i ich elementów, a także powinny gwarantować najwyższy poziom ochrony konsumentów;
79. zauważa nieodłączny związek między sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, w tym oprogramowaniem, algorytmami oraz danymi wykorzystywanymi lub generowanymi przez te technologie, a dziedzinami takimi jak internet rzeczy, uczenie się maszyn, systemy oparte na zasadach lub zautomatyzowane i wspomagane procesy decyzyjne; zauważa ponadto, że można opracować standardowe znaki graficzne, aby pomagać w wyjaśnianiu konsumentom tych systemów, gdy są one skomplikowane lub podejmują decyzje mające znaczący wpływ na ich życie;
80. przypomina, że Komisja powinna przeanalizować istniejące ramy prawne i ich stosowanie, w tym dorobek w zakresie prawa ochrony konsumentów, przepisy dotyczące odpowiedzialności za produkt, przepisy dotyczące bezpieczeństwa produktów oraz przepisy dotyczące nadzoru rynku, w celu zidentyfikowania luk prawnych, a także istniejących obowiązków regulacyjnych; uważa, że jest to konieczne w celu stwierdzenia, czy są one w stanie reagować na nowe wyzwania związane z pojawieniem się sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz czy są one w stanie zapewnić wysoki poziom ochrony konsumentów;
81. podkreśla potrzebę skutecznego sprostania wyzwaniom, jakie stwarzają sztuczna inteligencja, robotyka i powiązane z nimi technologie, oraz zapewnienia konsumentom mocnej pozycji i odpowiedniej ochrony; podkreśla potrzebę wyjścia poza tradycyjne zasady informowania i ujawniania informacji, na których opiera się dorobek prawny w dziedzinie ochrony konsumentów, ponieważ silniejsze prawa konsumentów oraz wyraźne ograniczenia dotyczące opracowywania, wdrażania i stosowania sztucznej inteligencji będą konieczne, aby zagwarantować, że technologia ta przyczyni się do poprawy życia konsumentów i będzie ewoluować w sposób respektujący prawa podstawowe i prawa konsumentów oraz wartości unijne;
82. zwraca uwagę, że ramy prawne wprowadzone decyzją nr 768/2008/WE 14 zawierają zharmonizowany wykaz obowiązków ciążących na producentach, importerach i dystrybutorach, zachęcają do stosowania norm i przewidują kilka poziomów kontroli w zależności od rodzaju zagrożenia stwarzanego przez dany produkt; uważa, że ramy te powinny mieć zastosowanie również do produktów z wbudowaną sztuczną inteligencją;
83. zauważa, że w celu przeanalizowania wpływu sztucznej inteligencji, robotyki i powiązanych z nimi technologii na konsumentów dostęp do danych mógłby zostać rozszerzony na właściwe organy krajowe, przy pełnym poszanowaniu prawa Unii, takiego jak prawo dotyczące ochrony danych, prywatności i tajemnic handlowych; przypomina o znaczeniu edukowania konsumentów, aby byli lepiej poinformowani i posiadali większe umiejętności, kiedy posługują się sztuczną inteligencją, w celu chronienia ich przed potencjalnymi zagrożeniami i zapewnienia poszanowania ich praw;
84. wzywa Komisję do zaproponowania środków umożliwiających identyfikowalność danych, mając na uwadze zarówno legalność pozyskiwania danych, jak i ochronę praw konsumentów i praw podstawowych, przy pełnym poszanowaniu prawa Unii, takiego jak prawo dotyczące ochrony danych, prywatności, praw własności intelektualnej i tajemnic handlowych;
85. zauważa, że technologie te powinny być ukierunkowane na użytkownika i zaprojektowane w sposób umożliwiający wszystkim korzystanie z produktów lub usług opartych na sztucznej inteligencji, niezależnie od wieku, płci, umiejętności czy cech charakterystycznych; zauważa, że szczególne znaczenie ma ich dostępność dla osób z niepełnosprawnościami; zauważa, że nie powinno się stosować ujednolicającego podejścia, lecz że należy uwzględnić zasady projektowania dla wszystkich skierowane do możliwie najszerszego kręgu użytkowników, zgodnie z odpowiednimi normami dostępności; podkreśla, że umożliwi to ludziom sprawiedliwy dostęp do istniejącej i nowo powstającej działalności człowieka prowadzonej przy użyciu komputera i technologii wspomagających oraz aktywny w nich udział;
86. podkreśla, że jeżeli opracowywanie, wdrażanie lub stosowanie sztucznej inteligencji, robotyki lub powiązanych z nimi technologii jest w znaczącej mierze finansowane z pieniędzy pochodzących ze źródeł publicznych, obok norm otwartych procedur przetargowych i otwartych zamówień, wówczas domyślnie kod, wygenerowane dane - o ile nie są to dane osobowe - i wytrenowany model mogłyby zostać upublicznione za zgodą podmiotu opracowującego, aby zagwarantować przejrzystość, zwiększyć cyberbezpieczeństwo i umożliwić ich ponowne wykorzystanie w celu wspierania innowacji; podkreśla, że w ten sposób można uwolnić pełen potencjał jednolitego rynku, unikając jego fragmentacji;
87. uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mają ogromny potencjał, aby zapewnić konsumentom dostęp do wielu udogodnień w wielu aspektach ich życia za sprawą lepszych produktów i usług, a także aby umożliwić im korzystanie z lepszego nadzoru rynku, o ile nadal będą obowiązywać wszystkie mające zastosowanie zasady, warunki (w tym przejrzystość i możliwość kontroli) i przepisy;
Bezpieczeństwo i obrona
88. podkreśla, że polityka bezpieczeństwa i obrony Unii Europejskiej i jej państw członkowskich opiera się na zasadach zapisanych w europejskiej Karcie i zasadach Karty Narodów Zjednoczonych oraz na wspólnym rozumieniu uniwersalnych wartości nienaruszalnych i niezbywalnych praw człowieka, godności ludzkiej, wolności, demokracji, równości i państwa prawa; podkreśla, że we wszystkich działaniach związanych z obronnością w ramach Unii Europejskiej należy przestrzegać tych uniwersalnych wartości, jednocześnie wspierając pokój, bezpieczeństwo oraz postęp w Europie i na świecie;
89. przyjmuje z zadowoleniem fakt, że w 2019 r. podczas posiedzenia Wysokich Umawiających się Stron Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych (konwencji CCW) zatwierdzono 11 zasad przewodnich dotyczących opracowywania autonomicznych systemów uzbrojenia i korzystania z nich; ubolewa jednak nad brakiem porozumienia w sprawie wiążących prawnie instrumentów regulujących autonomiczne śmiercionośne systemy uzbrojenia (LAWS) ze skutecznymi mechanizmami egzekwowania; przyjmuje z zadowoleniem i popiera sprawozdanie Komisji grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji pt. "Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji" opublikowane 9 kwietnia 2019 r. oraz jej stanowisko w sprawie autonomicznych śmiercionośnych systemów uzbrojenia; wzywa państwa członkowskie do opracowania krajowych strategii na rzecz zdefiniowania i statusu autonomicznych śmiercionośnych systemów uzbrojenia (LAWS) z myślą o kompleksowej strategii na szczeblu Unii oraz do promowania, wraz z wiceprzewodniczącym Komisji / wysokim przedstawicielem i Radą dyskusji w sprawie LAWS w ramach konwencji CCW ONZ i na innych odpowiednich forach oraz do ustanowienia międzynarodowych norm dotyczących etycznych i prawnych parametrów opracowywania i stosowania w pełni autonomicznych, półautonomicznych i zdalnie sterowanych śmiercionośnych systemów uzbrojenia; przypomina w tym kontekście swoją rezolucję z 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia i apeluje po raz kolejny o pilne opracowanie i przyjęcie wspólnego stanowiska w sprawie autonomicznych śmiercionośnych systemów uzbrojenia, o międzynarodowy zakaz opracowywania, produkcji i stosowania autonomicznych śmiercionośnych systemów uzbrojenia pozwalających na przeprowadzanie ataków bez istotnej ludzkiej kontroli i bez przestrzegania zasady udziału czynnika ludzkiego, zgodnie ze stanowiskiem najważniejszych badaczy AI na świecie wyrażonym w liście otwartym z 2015 r.; przyjmuje z zadowoleniem porozumienie Rady i Parlamentu w sprawie wyłączenia autonomicznej śmiercionośnej broni "bez możliwości istotnej ludzkiej kontroli nad decyzjami o wyborze i zaangażowaniu podczas przeprowadzania ataków" z działań finansowanych w ramach Europejskiego Funduszu Obrony (EFO); twierdzi, że nie wolno pomijać aspektów etycznych innych obszarów zastosowań AI w sektorze obronności, takich jak wywiad, obserwacja i rozpoznanie lub cyberoperacje oraz że należy zwrócić szczególną uwagę na opracowywanie i wykorzystywanie dronów w operacjach wojskowych;
90. podkreśla, że powstające technologie w sektorze obrony i bezpieczeństwa nieobjęte prawem międzynarodowym powinny być oceniane w świetle przestrzegania zasady humanitaryzmu i dyktatu sumienia publicznego;
91. zaleca, by wszelkie unijne ramy regulujące wykorzystanie w dziedzinie obronności, zarówno w sytuacjach bojowych, jak i niebojowych, systemów opartych na AI przestrzegały wszystkich obowiązujących systemów prawnych, w szczególności międzynarodowego prawa humanitarnego i międzynarodowego prawa dotyczącego praw człowieka, a także były zgodne z prawem, zasadami i wartościami Unii, z uwzględnieniem rozbieżności dotyczących infrastruktury technicznej i infrastruktury bezpieczeństwa w Unii;
92. uznaje, że w przeciwieństwie do baz przemysłowych w dziedzinie obronności kluczowe innowacje w dziedzinie AI mogą pochodzić z mniejszych państw członkowskich, a zatem ustandaryzowane podejście w zakresie WPBiO powinno zapewniać, by mniejsze państwa członkowskie i MŚP nie były wypierane; podkreśla, że zestaw wspólnych unijnych zdolności w zakresie AI, dopasowany do koncepcji działania państw członkowskich, może wypełnić luki techniczne, które mogłyby sprawić, że państwa bez odpowiedniej technologii, branżowej wiedzy specjalistycznej lub możliwości wdrożenia systemów AI w swoich ministerstwach obrony pozostawałyby w tyle;
93. uważa, że obecne i przyszłe działania związane z bezpieczeństwem i obronnością w ramach Unii będą się opierać na AI, robotyce i autonomii, a także na powiązanych technologiach, a wiarygodna, niezawodna i godna zaufania AI może przyczynić się do powstania nowoczesnego i skutecznego wojska; Unia musi zatem przyjąć wiodącą rolę w badaniach nad systemami AI w dziedzinie bezpieczeństwa i obronności oraz w ich rozwoju; uważa, że stosowanie w dziedzinie bezpieczeństwa i obronności aplikacji wykorzystujących AI może oferować szereg bezpośrednich korzyści dowodzącemu operacjami, takich jak wyższa jakość gromadzonych danych, lepsza orientacja sytuacyjna, większa szybkość podejmowania decyzji, ograniczenie ryzyka strat pobocznych dzięki lepszym połączeniom, ochrona sił w terenie, a także większa niezawodność sprzętu wojskowego, co oznacza mniejsze ryzyko dla ludzi i mniejszą liczbę ofiar w ludziach; podkreśla, że rozwój niezawodnej AI w dziedzinie obronności jest niezbędny do zapewnienia europejskiej autonomii strategicznej w zakresie zdolności i działalności operacyjnej; przypomina, że systemy AI stają się również kluczowymi elementami w przeciwdziałaniu pojawiającym się zagrożeniom dla bezpieczeństwa, takim jak wojna hybrydowa i cyberwojna, zarówno w sferze online, jak i offline; podkreśla jednocześnie wszystkie zagrożenia i wyzwania związane z nieuregulowanym stosowaniem AI; odnotowuje jednak, że AI może być poddana manipulacji, narażona na błędy i niedokładności;
94. podkreśla, że technologie AI są w zasadzie technologiami podwójnego zastosowania, a rozwój AI w działaniach w dziedzinie obronności korzysta na wymianie między technologiami wojskowymi a cywilnymi; podkreśla, że zastosowanie AI w działaniach związanych z obronnością jest przełomową technologią o charakterze przekrojowym, której rozwój może zapewnić możliwości w zakresie konkurencyjności i autonomii strategicznej Unii;
95. uznaje w kontekście dzisiejszej wojny hybrydowej i zaawansowanych działań zbrojnych, że objętość informacji i tempo ich napływania na wczesnych etapach kryzysu może przerosnąć ludzkich analityków, a system AI mógłby przetwarzać informacje w sposób gwarantujący, by ludzcy decydenci śledzili pełny zakres informacji w odpowiednim czasie umożliwiającym szybką odpowiedź;
96. podkreśla znaczenie inwestycji w rozwój kapitału ludzkiego w zakresie sztucznej inteligencji, rozwoju koniecznych umiejętności i edukacji w obszarze technologii AI stosowanych w dziedzinie bezpieczeństwa i obronności, ze szczególnym uwzględnieniem kwestii etycznych związanych z półautonomicznymi i autonomicznymi systemami operacyjnymi w oparciu o rozliczalność człowieka w świecie wykorzystującym sztuczną inteligencję; podkreśla w szczególności, jak ważne jest, by etycy zajmujący się tą dziedziną mieli odpowiednie umiejętności i przeszli odpowiednie szkolenia; apeluje do Komisji, by jak najszybciej zaprezentowała swoją agendę wzmacniania umiejętności, ogłoszoną w białej księdze w sprawie sztucznej inteligencji z 19 lutego 2020 r.;
97. podkreśla, że kwantowe technologie obliczeniowe mogą oznaczać najbardziej rewolucyjną zmianę w prowadzeniu konfliktów od wynalazku broni jądrowej, i w związku z tym apeluje, by dalszy rozwój kwantowych technologii obliczeniowych stał się priorytetem Unii i państw członkowskich; uznaje, że napaści zbrojne, w tym ataki na infrastrukturę krytyczną, przy użyciu kwantowych technologii obliczeniowych stworzą środowisko konfliktu, w którym dramatycznie skróci się czas na podjęcie decyzji - od dni i godzin do minut i sekund - co wymusi na państwach członkowskich rozwój zdolności do ochrony i wyszkolenia zarówno decydentów, jak i personelu wojskowego w zakresie skutecznej odpowiedzi w takich ramach czasowych;
98. domaga się zwiększonych inwestycji w europejską AI w obszarze obronności oraz we wspierającą ją infrastrukturę krytyczną;
99. przypomina, że większość obecnych sił wojskowych na świecie już podjęła znaczne wysiłki w obszarze badań i rozwoju związanych z wojskowymi aspektami AI; uważa, że Unia musi zadbać o to, by nie pozostać pod tym względem w tyle;
100. apeluje do Komisji, by zawarła budowanie zdolności w zakresie cyberbezpieczeństwa w swojej polityce przemysłowej w celu zapewnienia, by rozwijano i realizowano bezpieczne, odporne i niezawodne systemy wykorzystujące AI i systemy robotyczne; wzywa Komisję do zbadania wykorzystania protokołów i rozwiązań z zakresu cyberbezpie- czeństwa opartych na łańcuchach bloków w celu poprawy odporności, wiarygodności i niezawodności infrastruktur sztucznej inteligencji dzięki bezpośrednim modelom szyfrowania danych; zachęca europejskie zainteresowane strony, by prowadziły badania naukowe i inżynieryjne nad zaawansowanymi funkcjami pomagającymi w wykrywaniu uszkodzonych lub złośliwych systemów wykorzystujących AI oraz systemów robotycznych, które mogłyby naruszyć bezpieczeństwo Unii i jej obywateli;
101. podkreśla, że wszystkie systemy AI w dziedzinie obronności muszą mieć konkretne i dobrze zdefiniowane ramy misji, zgodnie z którymi ludzie zachowują sprawczość w zakresie wykrywania, wyłączania lub dezaktywowania wdrożonych systemów w przypadku przekroczenia przez nie ram misji określonych i zleconych przez ludzkie dowództwo lub w przypadku podjęcia jakichkolwiek kroków nastawionych na eskalację, bądź też niezamierzonych działań; uważa, że systemy, produkty i technologie wykorzystujące AI opracowane do użytku wojskowego powinny zawierać "czarną skrzynkę" rejestrującą wszystkie działania na danych przeprowadzane przez maszynę;
102. podkreśla, że cała odpowiedzialność i rozliczalność za decyzję o projektowaniu, rozwijaniu, wdrażaniu i zastosowaniu systemów AI musi spoczywać na ludziach, to ludzie muszą zapewniać istotne monitorowanie wszelkich systemów uzbrojenia i istotną ich kontrolę, a decyzji o użyciu siły przy wprowadzaniu w życie decyzji podjętej przez system broni oparty na AI, która mogłaby mieć śmiertelne skutki, musi towarzyszyć zamiar ludzki; podkreśla, że ludzka kontrola powinna nadal mieć zastosowanie w odniesieniu do dowodzenia i kontroli systemów wykorzystujących AI, zgodnie z zasadą ludzkiej interwencji, człowieka w pętli decyzyjnej i zasadą nadzoru przez człowieka na szczeblu dowództwa wojskowego; podkreśla, że systemy AI muszą umożliwiać wojskowym dowódcom sił zbrojnych przyjęcie pełnej odpowiedzialności i rozliczalności za użycie śmiercionośnej siły oraz niezbędną zdolność oceny sytuacji, której nie można powierzać maszynom, gdyż musi się ona opierać się na rozróżnieniu, proporcjonalności i ostrożności, w odniesieniu do podejmowania przez te systemy śmiercionośnych lub zakrojonych na szeroką skalę działań destrukcyjnych; podkreśla, że należy ustalić ramy jasnych i identyfikowalnych zezwoleń i rozliczalności w odniesieniu do wykorzystywania inteligentnej broni i innych systemów wykorzystujących AI, w których używa się unikalnych cech użytkownika, na przykład charakterystyk biometrycznych, by z broni tej mógł korzystać tylko upoważniony personel;
Transport
103. podkreśla potencjał, jaki ma wykorzystanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii dla wszystkich autonomicznych środków transportu drogowego, kolejowego, wodnego i lotniczego, a także dla wsparcia przesunięcia międzygałęziowego i intermodalności, gdyż takie technologie mogą przyczynić się do znalezienia optymalnej kombinacji rodzajów transportu w przewozie towarów i pasażerów; ponadto podkreśla, że technologie te mogą zwiększyć efektywność transportu, logistyki i strumieni ruchu oraz sprawić, że wszystkie rodzaje transportu staną się bezpieczniejsze, inteligentniejsze i bardziej przyjazne dla środowiska; zauważa, że etyczne podejście do AI można również postrzegać jako system wczesnego ostrzegania, w szczególności jeśli chodzi o bezpieczeństwo i efektywność transportu;
104. podkreśla, że globalna konkurencja między przedsiębiorstwami i regionami gospodarczymi oznacza, że Unia musi promować inwestycje i wzmacniać międzynarodową konkurencyjność przedsiębiorstw działających w sektorze transportu, tworząc środowisko sprzyjające rozwojowi i stosowaniu rozwiązań w zakresie AI i dalszym innowacjom, w którym przedsiębiorstwa unijne będą mogły stać się światowymi liderami rozwoju technologii AI;
105. podkreśla, że unijny sektor transportu potrzebuje aktualizacji ram regulacyjnych dotyczących takich nowo powstających technologii oraz ich wykorzystania w sektorze transportu, a także jasnych ram etycznych dla stworzenia godnej zaufania AI, które obejmują aspekty bezpieczeństwa, ochrony, poszanowania ludzkiej autonomii, nadzoru i odpowiedzialności i które zwiększą korzyści wspólne dla wszystkich i będą zasadniczym czynnikiem pobudzającym inwestycje w badania i innowacje, rozwój umiejętności i wykorzystanie AI przez służby publiczne, MŚP, startupy i przedsiębiorstwa, a jednocześnie zapewnią ochronę danych i interoperacyjność, bez nakładania zbędnych obciążeń administracyjnych na przedsiębiorstwa i konsumentów;
106. zauważa, że rozwój i wdrażanie AI w sektorze transportu nie będą możliwe bez nowoczesnej infrastruktury, która stanowi zasadniczy element inteligentnych systemów transportowych; podkreśla, że utrzymujące się różnice w poziomie rozwoju państw członkowskich stwarzają niebezpieczeństwo pozbawienia najsłabiej rozwiniętych regionów i ich mieszkańców korzyści wynikających z rozwoju autonomicznej mobilności; apeluje o odpowiednie finansowanie modernizacji infrastruktury transportowej w Unii, w tym o jej włączenie do sieci 5G;
107. zaleca opracowanie godnych zaufania ogólnounijnych norm AI dla wszystkich rodzajów transportu, w tym dla przemysłu motoryzacyjnego, a także w zakresie testowania pojazdów wykorzystujących AI oraz powiązanych produktów i usług;
108. zauważa, że systemy AI mogłyby przyczynić się do znacznego zmniejszenia liczby ofiar śmiertelnych na drogach, na przykład dzięki krótszemu czasowi reakcji i lepszemu przestrzeganiu przepisów; uważa jednak, że niemożliwe jest, by korzystanie z pojazdów autonomicznych spowodowało wyeliminowanie wszystkich wypadków, i podkreśla, że z tego powodu coraz bardziej istotna staje się wytłumaczalność decyzji AI, aby móc uzasadnić braki i niezamierzone konsekwencje decyzji AI;
Zatrudnienie, prawa pracownicze, umiejętności cyfrowe i miejsce pracy
109. zauważa, że stosowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii w miejscu pracy może sprzyjać inkluzywnym rynkom pracy oraz wpłynąć na bezpieczeństwo i higienę pracy, lecz jednocześnie może być ona wykorzystywana do monitorowania, oceny i przewidywania wydajności pracowników oraz sterowania nią, z bezpośrednimi i pośrednimi konsekwencjami dla ich kariery zawodowej; mając na uwadze, że AI powinna pozytywnie wpływać na warunki pracy i podlegać zasadzie poszanowania praw człowieka, a także podstawowych praw i wartości Unii; mając na uwadze, że AI powinna być ukierunkowana na człowieka, poprawiać dobrostan obywateli i społeczeństwa oraz przyczyniać się do uczciwej i sprawiedliwej transformacji; technologie takie powinny zatem pozytywnie wpływać na warunki pracy i podlegać zasadzie poszanowania praw człowieka, a także podstawowych praw i wartości Unii;
110. podkreśla potrzebę rozwoju kompetencji przez szkolenie i kształcenie pracowników i ich przedstawicieli w zakresie AI w miejscu pracy z myślą o lepszym zrozumieniu skutków rozwiązań opartych na AI; zaznacza, że kandydaci i pracownicy powinni być należycie informowani na piśmie, że AI jest wykorzystywana w procedurach rekrutacji i przy podejmowaniu innych decyzji dotyczących zasobów kadrowych, oraz o tym, jak można w takim przypadku zwrócić się o weryfikację przez człowieka w celu uchylenia zautomatyzowanej decyzji;
111. zaznacza, że należy zadbać o to, by wzrost wydajności wynikający z rozwoju i wykorzystywania AI i robotyki przynosił pożytek nie tylko właścicielom i udziałowcom przedsiębiorstw, lecz także przedsiębiorstwom i pracownikom, przez lepsze warunki pracy i zatrudnienia - w tym płace - oraz wzrost i rozwój gospodarczy, jak również służył ogółowi społeczeństwa, zwłaszcza gdy wzrost wydajności skutkuje spadkiem liczby miejsc pracy; wzywa państwa członkowskie, aby starannie zbadały potencjalny wpływ AI na rynek pracy i systemy zabezpieczenia społecznego oraz opracowały strategie określające, jak zapewnić długoterminową stabilność przez reformę podatków i składek, a także inne środki w razie spadku dochodów publicznych;
112. podkreśla znaczenie inwestycji przedsiębiorstw w formalne i nieformalne szkolenie oraz uczenie się przez całe życie z myślą o wspieraniu sprawiedliwej transformacji w kierunku gospodarki cyfrowej; w tym kontekście zaznacza, że przedsiębiorstwa stosujące AI odpowiadają za zapewnienie wszystkim pracownikom odpowiednich możliwości przekwalifikowania się i podniesienia kwalifikacji, aby mogli oni nauczyć się, jak korzystać z narzędzi cyfrowych i pracować z cobotami i innymi nowymi technologiami, a tym samym dostosować się do zmieniających się potrzeb rynku pracy i utrzymać zatrudnienie;
113. uważa, że w związku z tym należy zwrócić szczególną uwagę na nowe formy pracy, takie jak "fuchy" i praca za pośrednictwem platform internetowych, wynikające z zastosowania nowych technologii; podkreśla, że uregulowanie warunków telepracy w całej Unii oraz zapewnienie godnych warunków pracy i zatrudnienia w gospodarce cyfrowej, muszą również uwzględniać wpływ AI; wzywa Komisję, aby przeprowadziła w tej sprawie konsultacje z partnerami społecznymi, twórcami AI, środowiskiem naukowym i innymi zainteresowanymi podmiotami;
114. podkreśla, że sztuczna inteligencja, robotyka i powiązane z nimi technologie nie mogą w żaden sposób wpływać na korzystanie z praw podstawowych uznawanych w państwach członkowskich i na szczeblu Unii, w tym z prawa do strajku bądź innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich czy też ze swobody podejmowania strajku bądź wspomnianych działań, zgodnie z prawem krajowym i/lub praktyką krajową, ani wpływać na prawo do negocjowania, zawierania i egzekwowania układów zbiorowych lub do podejmowania działań zbiorowych zgodnie z prawem krajowym lub praktyką krajową;
115. ponownie zwraca uwagę na znaczenie edukacji i kształcenia ustawicznego z myślą o rozwijaniu kwalifikacji niezbędnych w epoce cyfrowej oraz o przeciwdziałaniu wykluczeniu cyfrowemu; wzywa państwa członkowskie do inwestowania w wysokiej jakości elastyczne i inkluzywne systemy kształcenia, szkolenia zawodowego i uczenia się przez całe życie, a także w politykę przekwalifikowywania pracowników i podnoszenia ich kwalifikacji w sektorach, na które AI wywiera poważny wpływ; podkreśla, że obecnych i przyszłych pracowników należy wyposażyć w niezbędne umiejętności rozumowania werbalnego i matematycznego oraz umiejętności cyfrowe, a także kompetencje w zakresie nauk przyrodniczych, technologii, inżynierii i matematyki (STEM) oraz przekrojowe umiejętności miękkie, takie jak myślenie krytyczne, kreatywność i przedsiębiorczość; podkreśla, że specjalną uwagę należy zwrócić na włączenie grup znajdujących się w niekorzystnej sytuacji;
116. przypomina, że sztuczna inteligencja, robotyka i powiązane z nimi technologie wykorzystywane w miejscu pracy muszą być powszechnie dostępne, zgodnie z zasadą projektowania dla wszystkich;
Edukacja i kultura
117. podkreśla potrzebę opracowania kryteriów rozwoju, wdrażania i wykorzystywania AI, mając na uwadze ich wpływ na edukację, media, młodzież, badania naukowe oraz sektor kultury i sektor kreatywny, dzięki opracowaniu wskaźników i określeniu zasad dotyczących odpowiedzialnego pod względem etycznym i akceptowanego stosowania technologii AI w tych dziedzinach, w tym jasno określonego systemu odpowiedzialności za produkty powstałe w wyniku stosowania AI;
118. zauważa, że każde dziecko ma prawo do wysokiej jakości edukacji publicznej na wszystkich poziomach; wzywa w związku z tym do opracowania, wdrożenia i stosowania wysokiej jakości systemów AI, które ułatwiają i zapewniają wysokiej jakości narzędzia edukacyjne dla wszystkich na wszystkich poziomach, oraz podkreśla, że wdrożenie nowych systemów AI w szkołach nie powinno prowadzić do pogłębiania przepaści cyfrowej w społeczeństwie; dostrzega ogromny potencjał, jaki AI i robotyka mogą stanowić dla edukacji; zauważa, że zindywidualizowane systemy uczenia się z wykorzystaniem AI nie powinny zastępować kontaktów edukacyjnych z udziałem nauczycieli oraz że tradycyjne formy kształcenia nie powinny pozostać w tyle, a jednocześnie przypomina, że należy zapewnić wsparcie finansowe, technologiczne i edukacyjne, w tym specjalistyczne szkolenia w zakresie technologii informacyjno-komunikacyjnych, nauczycielom pragnącym nabyć odpowiednie umiejętności w celu dostosowania się do zmian technologicznych i nie tylko wykorzystania potencjału sztucznej inteligencji, ale również zrozumienia jej ograniczeń; wzywa do opracowania na szczeblu Unii strategii celu przyczynienia się do transformacji i uaktualnienia naszych systemów edukacji, przygotowania naszych instytucji edukacyjnych na wszystkich poziomach oraz wyposażenia nauczycieli i uczniów w niezbędne umiejętności i zdolności;
119. podkreśla, że instytucje oświatowe powinny wykorzystywać do celów edukacyjnych te systemy AI, które otrzymały europejski certyfikat zgodności z zasadami etycznymi;
120. podkreśla, że możliwości oferowane przez cyfryzację i nowe technologie nie mogą prowadzić do ogólnej utraty miejsc pracy w sektorze kultury i sektorze kreatywnym, do zaniedbywania ochrony oryginałów i do ograniczania tradycyjnego dostępu do dziedzictwa kulturowego, do którego należy na równi zachęcać; zauważa, że systemy AI opracowane, wdrożone i wykorzystywane w Unii powinny odzwierciedlać jej różnorodność kulturową i wielojęzyczność;
121. uznaje rosnący potencjał AI w dziedzinie informacji, mediów i platform internetowych, w tym jako narzędzia do walki z dezinformacją, zgodnie z prawem Unii; podkreśla, że jeżeli nie będzie ona regulowana, może również przynieść niepożądane skutki etyczne z powodu wykorzystywania tendencyjności danych i algorytmów, co może prowadzić do rozpowszechniania dezinformacji i tworzenia baniek informacyjnych; podkreśla znaczenie przejrzystości i rozliczalności algorytmów wykorzystywanych przez platformy udostępniania plików wideo oraz platformy oferujące strumieniowe transmisje wideo, aby zapewnić dostęp do zróżnicowanych pod względem kulturowym i językowym treści;
Krajowe organy nadzoru
122. zwraca uwagę na wartość dodaną wyznaczenia w każdym państwie członkowskim krajowych organów nadzoru odpowiedzialnych za zapewnienie, ocenę i monitorowanie zgodności ze zobowiązaniami prawnymi i zasadami etycznymi w zakresie opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, przyczyniając się w ten sposób do zapewnienia zgodności tych technologii z prawem i zasadami etycznymi;
123. uważa, że od organów tych należy wymagać, aby nie powielały one swoich zadań, współpracowały z organami odpowiedzialnymi za wdrażanie prawodawstwa sektorowego, tak by identyfikować technologie wysokiego ryzyka z punktu widzenia etyki oraz nadzorować wdrażanie wymaganych i odpowiednich środków po zidentyfikowaniu takich technologii;
124. wskazuje, że organy te powinny współpracować nie tylko między sobą, ale także z Komisją Europejską i innymi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, aby zagwarantować spójne działania transgraniczne;
125. sugeruje, aby w kontekście takiej współpracy opracowano wspólne kryteria i procedurę ubiegania się o wydanie europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru;
126. apeluje, aby do zadań tych organów należało wspieranie regularnej wymiany informacji ze społeczeństwem obywatelskim oraz innowacji w całej Unii przez zapewnianie pomocy badaczom, podmiotom opracowującym oraz innym odpowiednim zainteresowanym stronom, a także mniej zaawansowanym cyfrowo przedsiębiorstwom, w szczególności małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu startup, zwłaszcza w zakresie podnoszenia świadomości i wspierania opracowywania, wdrażania, szkolenia i pozyskiwania talentów, by zapewnić sprawny transfer technologii oraz dostęp do technologii, projektów, wyników i sieci;
127. wzywa do zapewnienia przez każde państwo członkowskie wystarczającego finansowania wyznaczonych przez nie krajowych organów nadzoru oraz podkreśla potrzebę wzmocnienia krajowych organów nadzoru rynku pod względem zdolności, umiejętności i kompetencji, a także pod względem wiedzy na temat konkretnych zagrożeń związanych ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami;
Koordynacja na szczeblu Unii
128. podkreśla znaczenie koordynacji na szczeblu Unii ze strony Komisji i/lub wszelkich właściwych instytucji, organów, urzędów i agencji Unii, które mogą zostać wyznaczone w tym kontekście w celu uniknięcia fragmentacji i zapewnienia zharmonizowanego podejścia w całej Unii; uważa, że koordynacja powinna koncentrować się na uprawnieniach i działaniach krajowych organów nadzoru w każdym państwie członkowskim, o których mowa w poprzedniej części, a także na wymianie najlepszych praktyk między tymi organami i przyczynianiu się do współpracy w zakresie badań i rozwoju w tej dziedzinie w całej Unii; wzywa Komisję do oceny sytuacji i znalezienia najodpowiedniejszego rozwiązania dla ustrukturyzowania takiej koordynacji; przykładami odpowiednich istniejących instytucji, organów, urzędów i agencji Unii są Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA), Europejski Inspektor Ochrony Danych i Europejski Rzecznik Praw Obywatelskich;
129. uważa, że taka koordynacja, a także europejska certyfikacja zgodności z zasadami etycznymi, nie tylko przyniosłaby korzyści dla rozwoju unijnego przemysłu i unijnych innowacji w tym kontekście, ale także zwiększyłaby świadomość obywateli co do możliwości i zagrożeń związanych z tymi technologiami;
130. sugeruje utworzenie centrum wiedzy specjalistycznej, łączącego środowiska akademickie, badaczy, przemysł i poszczególnych ekspertów na szczeblu europejskim, w celu wspierania wymiany wiedzy, w tym technicznej wiedzy eksperckiej, a także ułatwiania współpracy w całej UE i poza nią; ponadto wzywa do zaangażowania w to centrum wiedzy specjalistycznej organizacji zainteresowanych stron, takich jak organizacje ochrony konsumentów, w celu zapewnienia szerokiej reprezentacji konsumentów; uważa, że ze względu na nieproporcjonalny wpływ systemów algorytmicznych na kobiety i mniejszości, szczeble decyzyjne takiej struktury powinny być zróżnicowane i zapewniać równouprawnienie płci; podkreśla, że państwa członkowskie muszą opracować strategie zarządzania ryzykiem w odniesieniu do sztucznej inteligencji w kontekście krajowych strategii nadzoru rynku;
131. proponuje, aby Komisja i/lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, udzieliły wszelkiej niezbędnej pomocy krajowym organom nadzoru w zakresie ich roli jako pierwszych punktów kontaktowych w przypadkach podejrzenia naruszenia zobowiązań prawnych i zasad etycznych określonych w unijnych ramach regulacyjnych dotyczących AI, w tym zasady niedyskryminacji; powinna ona również zapewniać wszelką niezbędną pomoc krajowym organom nadzoru, w przypadkach gdy przeprowadzają one oceny zgodności w celu wspierania prawa obywateli do wniesienia sprzeciwu i dochodzenia roszczeń, a mianowicie poprzez wspieranie, w stosownych przypadkach, konsultacji z innymi właściwymi organami w Unii, w szczególności z siecią współpracy w zakresie ochrony konsumentów oraz krajowymi organami ochrony konsumentów, organizacjami społeczeństwa obywatelskiego i partnerami społecznymi mającymi siedzibę w innych państwach członkowskich;
132. uznaje wartościowe osiągnięcia grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji, złożonej z przedstawicieli środowisk akademickich, społeczeństwa obywatelskiego i przemysłu, oraz europejskiego sojuszu na rzecz sztucznej inteligencji, w szczególności "Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji", i sugeruje, że grupa ta mogłaby udzielać fachowych porad Komisji i/lub wszelkim właściwym instytucjom, organom, biurom i agencjom Unii, które mogą zostać wyznaczone w tym kontekście;
133. odnotowuje włączenie projektów związanych z AI do Europejskiego programu rozwoju przemysłu obronnego (EDIDP); uważa, że przyszły Europejski Fundusz Obronny (EFO) i stała współpraca strukturalna (PESCO) mogą również zapewnić ramy dla przyszłych projektów związanych z AI, które pomogłyby lepiej ukierunkować działania Unii w tej dziedzinie i jednocześnie promować cel Unii w postaci umacniania praw człowieka, prawa międzynarodowego i rozwiązań wielostronnych; podkreśla, że projekty związane z AI należy synchronizować z szerszymi cywilnymi programami Unii poświęconymi AI; zauważa, że zgodnie z białą księgą Komisji Europejskiej w sprawie sztucznej inteligencji z 19 lutego 2020 r. centra doskonałości i testowania skupione na badaniach nad AI i jej rozwoju w dziedzinie bezpieczeństwa i obronności należy ustanawiać wraz z rygorystycznymi specyfikacjami dotyczącymi udziału i inwestowania prywatnych zainteresowanych stron;
134. odnotowuje białą księgę Komisji Europejskiej w sprawie sztucznej inteligencji z 19 lutego 2020 r. i ubolewa, że nie uwzględniono aspektów wojskowych; zwraca się do Komisji oraz wiceprzewodniczącego Komisji / wysokiego przedstawiciela o zaprezentowanie, również w ramach ogólnego podejścia, sektorowej strategii AI na rzecz działań w ramach Unii związanych z obronnością, która zapewnia poszanowanie zarówno praw obywateli, jak i interesów strategicznych Unii, oraz która opiera się na spójnym podejściu regulacyjnym, począwszy od powstania systemów wspomaganych przez AI po ich zastosowania wojskowe, a także apeluje do Komisji, by w ramach grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji ustanowiła grupę roboczą do spraw bezpieczeństwa i obronności, która powinna zająć się konkretnie kwestiami polityki i inwestycji oraz etycznymi aspektami AI w dziedzinie bezpieczeństwa i obronności; wzywa Radę, Komisję i wiceprzewodniczącego / wysokiego przedstawiciela do podjęcia w tym celu zorganizowanego dialogu z Parlamentem;
Europejska certyfikacja zgodności z zasadami etycznymi
135. sugeruje opracowanie, w kontekście koordynacji na szczeblu Unii, wspólnych kryteriów i procedury składania wniosków w odniesieniu do wydawania europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru;
136. uważa, że taki europejski certyfikat zgodności z zasadami etycznymi zachęcałby do uwzględniania etyki na etapie projektowania w całym łańcuchu dostaw ekosystemów sztucznej inteligencji; sugeruje zatem, aby w przypadku technologii wysokiego ryzyka certyfikacja ta stanowiła obowiązkowy warunek wstępny kwalifikacji do uczestnictwa w procedurach udzielania zamówień publicznych w zakresie systemów sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
Współpraca międzynarodowa
137. jest zdania, że skuteczną współpracę transgraniczną i normy etyczne można osiągnąć tylko wtedy, gdy wszystkie zainteresowane strony zobowiążą się do zapewnienia ludzkiego czynnika i nadzoru, solidności technicznej i bezpieczeństwa, przejrzystości i odpowiedzialności, różnorodności, niedyskryminacji i sprawiedliwości, dobrostanu społecznego i środowiskowego oraz poszanowania ustalonych zasad prywatności, zarządzania danymi i ochrony danych - w szczególności tych zapisanych w rozporządzeniu (UE) 2016/679;
138. podkreśla, że unijne zasady prawne i etyczne dotyczące opracowywania, wdrażania i wykorzystywania tych technologii mogłyby uczynić Europę światowym liderem w sektorze sztucznej inteligencji, a zatem należy je promować na całym świecie, współpracując z międzynarodowymi partnerami i nadal prowadząc krytyczny dialog oparty na etyce z państwami trzecimi wdrażającymi alternatywne modele uregulowania, opracowywania i wdrażania sztucznej inteligencji;
139. przypomina, że możliwości i zagrożenia związane z tymi technologiami mają wymiar globalny, ponieważ wykorzystywane przez nie oprogramowanie i dane często są importowane do Unii Europejskiej i eksportowane z niej, w związku z czym potrzeba spójnego podejścia do współpracy na szczeblu międzynarodowym; wzywa Komisję do podjęcia inicjatywy na rzecz oceny, które dwustronne i wielostronne traktaty i porozumienia należy dostosować, by zapewnić spójne podejście i promować europejski model zgodności z zasadami etycznymi w skali globalnej;
140. zwraca uwagę, że koordynacja na szczeblu unijnym, o której mowa powyżej, pod tym względem również przyniesie wartość dodaną;
141. apeluje o ustanowienie synergii i sieci między różnymi europejskimi ośrodkami badań naukowych nad AI, a także innymi wielostronnymi forami, takimi jak Rada Europy, Organizacja Narodów Zjednoczonych do spraw Oświaty, Nauki i Kultury (UNESCO), Organizacja Współpracy Gospodarczej i Rozwoju (OECD), Światowa Organizacja Handlu i Międzynarodowy Związek Telekomunikacyjny (ITU), by zapewnić spójność ich wysiłków i lepiej koordynować rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
142. podkreśla, że Unia musi przodować we wspieraniu wielostronnych wysiłków w ramach Grupy Ekspertów Rządowych ds. CCW ONZ i na innych odpowiednich forach, by dyskutować nad skutecznymi międzynarodowymi ramami regulacyjnymi zapewniającymi istotną ludzką kontrolę nad autonomicznymi systemami uzbrojenia w celu opanowania tych technologii poprzez ustanowienie dobrze zdefiniowanych i opartych na punktach odniesienia procesów ich stosowania oraz poprzez przyjęcie przepisów na rzecz ich etycznego stosowania, we współpracy z wojskiem, przemysłem, organami ścigania, środowiskami akademickimi i zainteresowanymi stronami spośród społeczeństwa obywatelskiego, oraz by zrozumieć związane z nimi aspekty etyczne oraz łagodzić nieodłączne ryzyko związane z tymi technologiami i zapobiegać ich wykorzystaniu w złych zamiarach;
143. uznaje rolę NATO w promowaniu bezpieczeństwa w strefie euroatlantyckiej i apeluje o współpracę w ramach NATO w celu ustanowienia wspólnych norm i interoperacyjności systemów AI w dziedzinie obronności; podkreśla, że relacje transatlantyckie są ważne dla zachowania wspólnych wartości i zwalczania przyszłych i nowych zagrożeń;
144. podkreśla znaczenie utworzenia kodeksu postępowania w zakresie etyki, na którym oparte zostanie wykorzystywanie uzbrojonych systemów wykorzystujących AI podczas operacji wojskowych, podobnego do istniejących ram regulacyjnych zakazujących stosowania broni chemicznej i biologicznej; jest zdania, że Komisja powinna zainicjować utworzenie zgodnych z międzynarodowym prawem humanitarnym norm stosowania systemów uzbrojenia wykorzystującego AI w działaniach zbrojnych, a Unia powinna dążyć do międzynarodowego przyjęcia tych norm; uważa, że Unia powinna angażować się w dyplomację dotyczącą AI na forach międzynarodowych, takich jak G7, G20 i OECD, z podobnie myślącymi partnerami;
Kwestie końcowe
145. stwierdza w odniesieniu do powyższych refleksji na temat aspektów związanych z etycznym wymiarem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, że wymiar prawny i etyczny należy zapisać w skutecznych, przyszłościowych i kompleksowych ramach regulacyjnych na szczeblu Unii, wspieranych przez właściwe organy krajowe, koordynowanych i wspieranych przez Komisję lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście, regularnie wspierane przez wspomniany ośrodek ekspercki, oraz należycie przestrzeganych i certyfikowanych w ramach rynku wewnętrznego;
146. zgodnie z procedurą określoną w art. 225 Traktatu o funkcjonowaniu Unii Europejskiej wzywa Komisję do przedstawienia wniosku dotyczącego rozporządzenia w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej i w oparciu o szczegółowe zalecenia określone w załączniku do niniejszego dokumentu; zwraca uwagę, że wniosek nie powinien podważać przepisów sektorowych, a jedynie obejmować zidentyfikowane luki;
147. zaleca, aby po konsultacji ze wszystkimi właściwymi zainteresowanymi stronami Komisja Europejska dokonała w razie potrzeby przeglądu obowiązującego prawa Unii mającego zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii w celu uwzględnienia szybkości rozwoju tych technologii zgodnie z zaleceniami zawartymi w załączniku do niniejszego dokumentu, unikając nadmiernej regulacji, w tym w odniesieniu do MŚP;
148. uważa, że okresowa ocena, a w razie potrzeby przegląd unijnych ram regulacyjnych dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii, będzie mieć zasadnicze znaczenie dla dopilnowania, by mające zastosowanie prawodawstwo nadążało za szybkim tempem postępu technologicznego;
149. stwierdza, że postulowany wniosek ustawodawczy miałby konsekwencje finansowe, gdyby powierzyć jakiemukolwiek organowi europejskiemu powyższe funkcje koordynacyjne oraz konieczne środki techniczne i zasoby ludzkie w celu realizacji nowo powierzonych mu zadań;
o
o o
150. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz szczegółowych zaleceń zawartych w załączniku Komisji i Radzie.
Od 17 kwietnia policja, straż miejska, żandarmeria wojskowa otrzymają podstawą prawną do karania tych, którzy bez zezwolenia m.in. fotografują i filmują szczególnie ważne dla bezpieczeństwa lub obronności państwa obiekty resortu obrony narodowej, obiekty infrastruktury krytycznej oraz ruchomości. Obiekty te zostaną specjalnie oznaczone.
12.04.2025Kompleksową modernizację instytucji polskiego rynku pracy poprzez udoskonalenie funkcjonowania publicznych służb zatrudnienia oraz form aktywizacji zawodowej i podnoszenia umiejętności kadr gospodarki przewiduje podpisana w czwartek przez prezydenta Andrzeja Dudę ustawa z dnia 20 marca 2025 r. o rynku pracy i służbach zatrudnienia. Ustawa, co do zasady, wejdzie w życie pierwszego dnia miesiąca następującego po upływie 14 dni od dnia ogłoszenia.
11.04.2025Prezydent Andrzej Duda podpisał ustawę o warunkach dopuszczalności powierzania pracy cudzoziemcom na terytorium Rzeczypospolitej Polskiej. Jej celem jest ograniczenie występujących nadużyć, usprawnienie procedur dotyczących powierzania pracy cudzoziemcom, zmniejszenie zaległości załatwiania spraw przez urzędy oraz pełna elektronizacja postępowań. Nowe przepisy wejdą w życie pierwszego dnia miesiąca następującego po upływie 14 dni od dnia ogłoszenia.
11.04.2025500 zł zarobi członek obwodowej komisji wyborczej w wyborach Prezydenta RP, 600 zł - zastępca przewodniczącego, a 700 zł przewodniczący komisji wyborczej – wynika z uchwały Państwowej Komisji Wyborczej. Jeżeli odbędzie się ponownie głosowanie, zryczałtowana dieta wyniesie 75 proc. wysokości diety w pierwszej turze. Termin zgłaszania kandydatów na członków obwodowych komisji wyborczych mija 18 kwietnia
10.04.2025Kobiety i mężczyźni z innych roczników są w nieco innej sytuacji niż emerytki z rocznika 1953. Dowiedzieli się bowiem o zastosowaniu do nich art. 25 ust. 1b ustawy emerytalnej znacznie wcześniej, bo od 2 do ponad 6 lat przed osiągnięciem powszechnego wieku emerytalnego - przekonywał w Sejmie Sebastian Gajewski, wiceszef resortu pracy. Zdaniem prawników, ministerstwo celowo różnicuje sytuację wcześniejszych emerytów, by dla pozostałych roczników wprowadzić mniej korzystne rozwiązania niż dla rocznika 1953.
08.04.2025Sejm uchwalił w piątek ustawę, która obniża składkę zdrowotną dla przedsiębiorców. Zmiana, która wejdzie w życie 1 stycznia 2026 roku, ma kosztować budżet państwa 4,6 mld zł. Według szacunków Ministerstwo Finansów na reformie ma skorzystać około 2,5 mln przedsiębiorców. Teraz ustawa trafi do Senatu.
04.04.2025Identyfikator: | Dz.U.UE.C.2021.404.63 |
Rodzaj: | Rezolucja |
Tytuł: | Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL)). |
Data aktu: | 20/10/2020 |
Data ogłoszenia: | 06/10/2021 |