(COM(2021) 206 final - 2021/106 (COD))(2021/C 517/09)
(Dz.U.UE C z dnia 22 grudnia 2021 r.)
Sprawozdawczyni: Catelijne MULLER
Wniosek o konsultację Parlament Europejski, 7.6.2021
Rada, 15.6.2021
Podstawa prawna Art. 114 Traktatu o funkcjonowaniu Unii Europejskiej
Sekcja odpowiedzialna Sekcja Jednolitego Rynku, Produkcji i Konsumpcji
Data przyjęcia przez sekcję 2.9.2021
Data przyjęcia na sesji plenarnej 22.9.2021
Sesja plenarna nr 563
Wynik głosowania
(za/przeciw/wstrzymało się) 225/03/06
1. Wnioski i zalecenia
1.1. Europejski Komitet Ekonomiczno-Społeczny (EKES) z zadowoleniem przyjmuje to, że we wniosku Komisji dotyczącym aktu w sprawie sztucznej inteligencji nie tylko podjęto kwestię zagrożeń związanych ze sztuczną inteligencją (AI), lecz również znacznie podniesiono standardy jakości, wydajności i wiarygodności tych jej rodzajów, na które UE chce zezwolić. Wyraża szczególną satysfakcję z tego, że zdrowie, bezpieczeństwo i prawa podstawowe znalazły się w centrum aktu w sprawie sztucznej inteligencji oraz że ma on zakres globalny.
1.2. EKES zauważa obszary wymagające usprawnień w odniesieniu do zakresu, definicji i jasności zakazanych praktyk związanych z AI, skutków wyboru kategorii w odniesieniu do piramidy ryzyka, skutku ograniczania zagrożeń wynikającego z wymogów wobec sztucznej inteligencji wysokiego ryzyka, wykonalności postanowień aktu w sprawie sztucznej inteligencji oraz związku z obowiązującymi przepisami i innymi niedawnymi propozycjami regulacyjnymi.
1.3. Komitet podkreśla, że AI nigdy nie funkcjonowała w świecie bezprawia. Ze względu na swój szeroki zakres, a także nadrzędność jako rozporządzenia UE, akt w sprawie sztucznej inteligencji może prowadzić do konfliktów z obowiązującymi przepisami krajowymi i unijnymi oraz powiązanymi propozycjami regulacyjnymi. EKES zaleca zmianę motywu 41 w celu należytego zastanowienia się nad powiązaniami między aktem w sprawie sztucznej inteligencji a istniejącymi i przyszłymi przepisami.
1.4. EKES zaleca, aby doprecyzować definicję AI poprzez usunięcie załącznika I i wprowadzenie drobnych zmian do art. 3 oraz by rozszerzyć zakres aktu w sprawie sztucznej inteligencji, tak by obejmował on istniejące systemy AI oraz elementy AI w wielkoskalowych systemach informatycznych w przestrzeni wolności, bezpieczeństwa i sprawiedliwości, wymienionych w załączniku IX.
1.5. Komitet sugeruje, aby wyjaśnić zakazy dotyczące technik podprogowych i wykorzystywania słabości, aby odnosiły się do zakazu szkodliwej manipulacji, oraz dodać naruszanie praw podstawowych, demokracji i praworządności jako warunek tych zakazów.
1.6. EKES uważa, że w UE nie ma miejsca na ocenę wiarygodności obywateli UE na podstawie ich zachowań społecznych lub cech osobowości, niezależnie od podmiotu dokonującego takiej oceny. Zaleca rozszerzenie zakresu tego zakazu, tak aby objął on również punktową ocenę zachowań społecznych prowadzoną przez organizacje prywatne i organy publiczno-prywatne.
1.7. EKES wzywa do wprowadzenia zakazu stosowania sztucznej inteligencji do zautomatyzowanej identyfikacji biometrycznej w przestrzeni publicznej i prywatnej, z wyjątkiem celów uwierzytelniania w szczególnych okolicznościach, jak też zakazu automatycznego rozpoznawania ludzkich sygnałów behawioralnych w przestrzeni publicznej i prywatnej z wyjątkiem bardzo szczególnych przypadków, takich jak niektóre cele zdrowotne, gdy rozpoznawanie emocji pacjentów może być cenne.
1.8. Podejście oparte na wykazie w odniesieniu do sztucznej inteligencji wysokiego ryzyka niesie ze sobą ryzyko normalizacji i upowszechnienia szeregu systemów i zastosowań AI, które nadal są mocno krytykowane. EKES ostrzega, że zgodność z wymogami ustalonymi dla sztucznej inteligencji średniego i wysokiego ryzyka niekoniecznie zmniejsza ryzyko wystąpienia szkód dla zdrowia, bezpieczeństwa i praw podstawowych w przypadku każdej sztucznej inteligencji wysokiego ryzyka. Zaleca więc, aby w akcie w sprawie sztucznej inteligencji przewidziano taką sytuację. Należy przynajmniej dodać wymogi dotyczące: (i) przewodniej roli człowieka, (ii) prywatności, (iii) różnorodności, niedyskryminacji i sprawiedliwości, (iv) możliwości wyjaśnienia oraz (v) dobrostanu środowiskowego i społecznego, zawarte w wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji.
1.9. Zgodnie ze swoim od dawna postulowanym podejściem do AI opartym na zasadzie ludzkiej kontroli EKES zdecydowanie zaleca, aby akt w sprawie sztucznej inteligencji przewidywał, że niektóre decyzje pozostaną w gestii człowieka, zwłaszcza w dziedzinach, w których decyzje te obejmują aspekt moralny i konsekwencje prawne lub wpływ na społeczeństwo, takich jak: sądownictwo, egzekwowanie prawa, usługi społeczne, opieka zdrowotna, mieszkalnictwo, usługi finansowe, stosunki pracy i edukacja.
1.10. Komitet zaleca wprowadzenie obowiązku przeprowadzania oceny zgodności przez stronę trzecią dla wszystkich rodzajów sztucznej inteligencji wysokiego ryzyka.
1.11. EKES zaleca, aby wprowadzić mechanizm skarg i dochodzenia roszczeń dla organizacji i obywateli, którzy ponieśli szkody w związku z jakimkolwiek systemem, praktyką lub zastosowaniem AI wchodzącymi w zakres stosowania aktu w sprawie sztucznej inteligencji.
2. Projekt rozporządzenia w sprawie sztucznej inteligencji - akt w sprawie sztucznej inteligencji
2.1. EKES z zadowoleniem przyjmuje to, że we wniosku Komisji dotyczącym aktu w sprawie sztucznej inteligencji nie tylko podjęto kwestię zagrożeń związanych ze sztuczną inteligencją, lecz również znacznie podniesiono standardy jakości, wydajności i wiarygodności tych jej rodzajów, na które UE chce zezwolić.
3. Uwagi ogólne - akt w sprawie sztucznej inteligencji
Cel i zakres
3.1. EKES pozytywnie ocenia zarówno cel, jak i zakres aktu w sprawie sztucznej inteligencji. Ze szczególnym zadowoleniem przyjmuje to, że Komisja w jego centrum umieszcza zdrowie, bezpieczeństwo i prawa podstawowe. Z satysfakcją przyjmuje także skutek zewnętrzny aktu w sprawie sztucznej inteligencji, który gwarantuje, że AI opracowana poza UE będzie musiała spełniać te same normy prawne, jeśli zostanie wprowadzona lub będzie wywierać wpływ na terytorium UE.
Definicja sztucznej inteligencji
3.2. Definicja AI (art. 3 ust. 1 w powiązaniu z załącznikiem I do aktu w sprawie sztucznej inteligencji) wywołała dyskusję wśród naukowców zajmujących się sztuczną inteligencją. Ich zdaniem szeregu z przykładów podanych w załączniku I nie można uznać za sztuczną inteligencję, a jednocześnie wiele ważnych technik AI pominięto. EKES nie widzi żadnej wartości dodanej w załączniku I i zaleca jego całkowite usunięcie z aktu w sprawie sztucznej inteligencji. Opowiada się również za następującą zmianą definicji w art. 3 punkcie 1:
"system sztucznej inteligencji oznacza oprogramowanie, które może, w sposób zautomatyzowany - dla danego zestawu celów określonych przez człowieka - generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje, wpływając na środowisko, z którym wchodzi w interakcję".
Zdrowie, bezpieczeństwo i prawa podstawowe - piramida ryzyka
3.3. Wzrastająca piramida ryzyka (od niskiego, średniego ryzyka, przez wysokie ryzyko, po ryzyko niedopuszczalne) stosowana do kategoryzacji szeregu ogólnych praktyk AI i przypadków jej użycia w konkretnych dziedzinach zakłada, że nie każda sztuczna inteligencja stwarza ryzyko i nie wszystkie rodzaje ryzyka są równe lub wymagają takich samych środków łagodzących.
3.4. Wybrane podejście rodzi dwa ważne pytania. Po pierwsze: czy środki łagodzące (dla sztucznej inteligencji wysokiego ryzyka oraz niskiego i średniego ryzyka) rzeczywiście w wystarczającym stopniu ograniczają ryzyko szkód dla zdrowia, bezpieczeństwa i praw podstawowych? Po drugie: czy jesteśmy gotowi pozwolić, aby AI w znacznym stopniu zastąpiła ludzki proces decyzyjny, nawet w procesach o tak kluczowym znaczeniu jak egzekwowanie prawa i sądownictwo?
3.5. Odnośnie do pierwszego pytania EKES ostrzega, że zgodność z wymogami ustalonymi dla sztucznej inteligencji średniego i wysokiego ryzyka niekoniecznie we wszystkich przypadkach zmniejsza ryzyko wystąpienia szkód dla zdrowia, bezpieczeństwa i praw podstawowych. Zostanie to szerzej omówione w części 4 opinii.
3.6. Odpowiadając na drugie pytanie, w akcie w sprawie sztucznej inteligencji brakuje stwierdzenia, że nadzieje pokładane w AI leżą we wspomaganiu ludzkiego procesu decyzyjnego i ludzkiej inteligencji, a nie w ich zastępowaniu. Akt w sprawie sztucznej inteligencji opiera się na założeniu, że po spełnieniu wymogów dotyczących sztucznej inteligencji średniego i wysokiego ryzyka AI może w znacznym stopniu zastąpić ludzki proces decyzyjny.
3.7. EKES zdecydowanie zaleca, aby w akcie w sprawie sztucznej inteligencji przewidziano, że niektóre decyzje pozostaną w gestii człowieka, zwłaszcza w dziedzinach, w których decyzje te obejmują aspekt moralny i konsekwencje prawne lub wpływ na społeczeństwo, takich jak: sądownictwo, egzekwowanie prawa, usługi społeczne, opieka zdrowotna, mieszkalnictwo, usługi finansowe, stosunki pracy i edukacja.
3.8. Systemy AI nie funkcjonują w próżni prawnej. Szereg prawnie wiążących przepisów na szczeblu europejskim, krajowym i międzynarodowym ma już zastosowanie dla systemów AI lub ich dotyczy. Przepisy te obejmują m.in.: prawo pierwotne UE (traktaty Unii Europejskiej i jej Kartę praw podstawowych), prawo wtórne UE (takie jak ogólne rozporządzenie o ochronie danych, dyrektywa w sprawie odpowiedzialności za produkty, rozporządzenie w sprawie swobodnego przepływu danych nieosobowych, dyrektywy antydyskryminacyjne, prawo konsumenckie oraz dyrektywy w sprawie bezpieczeństwa i zdrowia w miejscu pracy), traktaty ONZ dotyczące praw człowieka i konwencje Rady Europy (takie jak europejska konwencja praw człowieka) oraz liczne przepisy państw członkowskich UE. Poza przepisami o zastosowaniu horyzontalnym istnieje szereg przepisów, które regulują poszczególne dziedziny i odnoszą się do konkretnych zastosowań AI (takie jak np. rozporządzenie w sprawie wyrobów medycznych w sektorze opieki zdrowotnej). EKES zaleca zmianę motywu 41, aby należycie uwzględnić ten stan rzeczy.
4. Uwagi i zalecenia szczegółowe - akt w sprawie sztucznej inteligencji
Zabronione praktyki w zakresie sztucznej inteligencji
4.1. EKES zgadza się, że praktyki w zakresie AI, o których mowa w art. 5, rzeczywiście nie przynoszą korzyści społecznych i powinny być zakazane. Stwierdza jednak, że niektóre sformułowania są niejasne, przez co pewne zakazy mogą być trudne do zinterpretowania i łatwe do obejścia.
4.2. Istnieją dowody na to, że techniki podprogowe mogą nie tylko prowadzić do szkód fizycznych lub psychicznych (obecne warunki wprowadzenia tego szczególnego zakazu), lecz również, biorąc pod uwagę środowisko, w którym są stosowane, do innych niekorzystnych skutków osobistych, społecznych lub demokratycznych, takich jak zmiana zachowań wyborczych. Co więcej, często to nie sama technika podprogowa, ale raczej decyzja, do kogo ją skierować, jest napędzana przez AI.
4.3. Aby nazwać praktyki, które mają być zakazane według art. 5 ust. 1 lit. a) aktu w sprawie sztucznej inteligencji, czyli manipulowanie ludźmi, aby podejmowali szkodliwe zachowania, EKES zaleca następującą zmianę tego ustępu: "[...] systemu sztucznej inteligencji wdrożonego lub wykorzystywanego do tego, by w istotny sposób zniekształcać zachowanie osoby, lub ukierunkowanego tak, że powoduje lub może powodować szkody dla praw podstawowych tej osoby, innej osoby lub grup osób, w tym dla ich zdrowia i bezpieczeństwa fizycznego lub psychicznego lub dla demokracji i praworządności".
4.4. EKES zaleca zmianę zakazu wykorzystywania słabości zawartego w art. 5 ust. 1 lit. b) w ten sam sposób, tak aby obejmował on również szkody dla praw podstawowych, w tym szkody fizyczne lub psychiczne.
4.5. EKES z zadowoleniem przyjmuje zakaz punktowej oceny społecznej zawarty w art. 5 ust. 1 lit. c). EKES zaleca, aby zakaz punktowej oceny społecznej dotyczył także organizacji prywatnych i organów publiczno-prywatnych, a nie tylko władz publicznych. W UE nie ma miejsca na ocenę wiarygodności obywateli UE na podstawie ich zachowań społecznych lub cech osobowości, niezależnie od podmiotu dokonującego oceny. Gdyby tak było, UE otworzyłaby drzwi dla wielu obszarów, w których punktowa ocena zachowań społecznych byłaby dozwolona, takich jak miejsce pracy. Warunki określone w ppkt (i) i (ii) powinny zostać doprecyzowane w taki sposób, aby jasno określić, co uznaje się za punktową ocenę społeczną i co można uznać za akceptowalną formę oceny w określonym celu, czyli kiedy informacje wykorzystane do oceny nie powinny być już uznawane za istotne lub racjonalnie związane z celem oceny.
4.6. Celem aktu w sprawie sztucznej inteligencji jest wprowadzenie zakazu zdalnej identyfikacji biometrycznej w czasie rzeczywistym (np. za pomocą rozpoznawania twarzy) na potrzeby egzekwowania prawa oraz zakwalifikowanie jej jako wysokiego ryzyka w przypadku wykorzystywania do innych celów. To oznacza, że identyfikacja danych biometrycznych po fakcie i z bliska jest dozwolona. W ten sposób zezwala się także na rozpoznawanie danych biometrycznych nie dla celów identyfikacji danej osoby, lecz raczej dla oceny jej zachowania na podstawie jej cech biometrycznych (mikroekspresji, chodu, temperatury ciała, tętna itp.). Ograniczenie zakazu do "celów egzekwowania prawa" umożliwia stosowanie identyfikacji biometrycznej, a także wszelkich innych form rozpoznania biometrycznego, które nie mają na celu identyfikacji danej osoby, włączając w to wszystkie wymienione formy rozpoznawania emocji, w każdym innym celu, przez wszystkie inne podmioty, we wszystkich miejscach publicznych i prywatnych, w tym w miejscu pracy, w sklepach, na stadionach, w teatrach itp. Taki przepis otwiera na oścież drzwi do świata, w którym nasze emocje są stale oceniane dla dowolnego celu, który podmiot oceniający uzna za konieczny.
4.7. W akcie w sprawie sztucznej inteligencji rozpoznawanie emocji sklasyfikowano ogólnie jako niskie ryzyko, z wyjątkiem kilku dziedzin dotyczących użytkowników, w których uznano je za wysokie ryzyko. Ten rodzaj rozpoznawania danych biometrycznych znany jest również jako "rozpoznawanie emocjonalnej ekspresji" i czasami jako "rozpoznawanie zachowania". Wszystkie te sposoby rozpoznawania przez AI są niezwykle inwazyjne, brak im jakichkolwiek solidnych podstaw naukowych i stwarzają znaczne ryzyko naruszenia szeregu praw podstawowych zawartych w Karcie praw podstawowych UE, takich jak prawo do godności człowieka, prawo człowieka do integralności (w tym integralności psychicznej) oraz prawo do życia prywatnego.
4.8. Zasadniczo zgodnie z apelem Europejskiego Inspektora Ochrony Danych i Europejskiej Rady Ochrony Danych z 21 czerwca 2021 r. o wprowadzenie zakazu stosowania AI do automatycznego rozpoznawania cech ludzkich w publicznie dostępnych przestrzeniach oraz do niektórych innych zastosowań sztucznej inteligencji, które mogą prowadzić do niesprawiedliwej dyskryminacji, EKES wzywa do:
- wprowadzenia zakazu stosowania sztucznej inteligencji do zautomatyzowanej identyfikacji biometrycznej w przestrzeni publicznej i prywatnej (takiej jak rozpoznawanie twarzy, chodu, głosu i innych cech biometrycznych), z wyjątkiem celów uwierzytelniania w szczególnych okolicznościach (np. zapewnienie dostępu do obiektów ważnych z punktu widzenia bezpieczeństwa),
- wprowadzenia zakazu wykorzystywania AI do zautomatyzowanego rozpoznawania ludzkich sygnałów behawioralnych w przestrzeni publicznej i prywatnej,
- wprowadzenia zakazu stosowania systemów AI wykorzystujących dane biometryczne do podziału osób na grupy ze względu na pochodzenie etniczne, płeć, orientację polityczną lub seksualną lub z innych względów, które stanowią podstawę zakazu dyskryminacji na mocy art. 21 Karty,
- wprowadzenia zakazu wykorzystywania AI do wykrywania emocji, zachowania, zamiarów lub charakterystycznych cech osób fizycznych, z wyjątkiem bardzo szczególnych przypadków, takich jak niektóre cele zdrowotne, w których rozpoznawanie emocji pacjenta jest istotne.
Sztuczna inteligencja wysokiego ryzyka
4.9. Podejmując decyzję, czy zastosowanie lub praktyki z wykorzystaniem AI, które stwarzają ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych, powinny być mimo wszystko dozwolone na ściśle określonych warunkach, Komisja zwróciła uwagę na dwa elementy: (i) czy dana praktyka lub zastosowanie AI może przynieść korzyści społeczne oraz (ii) czy ryzyko szkody dla zdrowia, bezpieczeństwa i praw podstawowych, jakie mimo wszystko stwarza to zastosowanie, można złagodzić poprzez spełnienie szeregu wymogów.
4.10. EKES z zadowoleniem przyjmuje dostosowanie tych wymogów do elementów zawartych w wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji (EGTAI). Jednakże w akcie w sprawie sztucznej inteligencji w wymogach dotyczących sztucznej inteligencji wysokiego ryzyka nie uwzględniono wyraźnie pięciu ważnych wymogów EGTAI, a mianowicie: (i) przewodniej roli człowieka, (ii) prywatności, (iii) różnorodności, niedyskryminacji i sprawiedliwości, (iv) możliwości wyjaśnienia oraz (v) dobrostanu środowiskowego i społecznego. Komitet uważa, że jest to zaprzepaszczona szansa, ponieważ wiele zagrożeń związanych z AI dotyczy prywatności, stronniczości, wykluczenia, braku możliwości wyjaśnienia wyników decyzji AI, osłabiania przewodniej roli człowieka i osłabiania środowiska naturalnego, a wszystkie te zagrożenia znajdują odzwierciedlenie w prawach podstawowych.
4.11. EKES zaleca dodanie tych wymogów do wymogów zawartych w rozdziale 2 tytułu III aktu w sprawie sztucznej inteligencji, aby zwiększyć jego potencjał w zakresie skutecznej ochrony ludzkiego zdrowia, bezpieczeństwa i praw podstawowych przed niekorzystnym wpływem sztucznej inteligencji stosowanej zarówno przez organy publiczne jak i organizacje prywatne.
4.12. EKES z zadowoleniem przyjmuje system wzajemnych powiązań między aktem w sprawie sztucznej inteligencji a unijnym prawodawstwem harmonizacyjnym. Zaleca rozszerzenie zakresu aktu w sprawie sztucznej inteligencji i wymogów dotyczących sztucznej inteligencji wysokiego ryzyka poza jej elementy związane z bezpieczeństwem lub sytuację, w której dany system AI jest sam w sobie produktem objętym unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II. Wynika to z tego, że AI może stwarzać zagrożenia nie tylko wtedy, gdy jest stosowana jako elementy tych produktów związane z bezpieczeństwem, ale również ze względu na to, że sam system AI nie zawsze jest produktem. Taka sytuacja ma np. miejsce, gdy AI jest stosowana jako część narzędzia diagnostycznego lub prognostycznego w medycynie lub jest elementem termostatu, który reguluje pracę kotła.
4.13. EKES ostrzega jednak, że wybrane w załączniku III podejście do sztucznej inteligencji wysokiego ryzyka oparte na wykazie może doprowadzić do legitymizacji, normalizacji i upowszechnienia wielu praktyk związanych z AI, które są nadal bardzo krytykowane i w przypadku których korzyści społeczne są wątpliwe lub nie ma ich wcale.
4.14. Co więcej, ryzyko szkód dla zdrowia, bezpieczeństwa i praw podstawowych niekoniecznie da się zawsze złagodzić poprzez spełnienie pięciu wymogów dotyczących sztucznej inteligencji wysokiego ryzyka, zwłaszcza jeśli chodzi o rzadziej wymieniane prawa podstawowe, na które AI może mieć wpływ, takie jak: prawo do godności człowieka, domniemanie niewinności, prawo do należytych i sprawiedliwych warunków pracy, wolność zrzeszania się i zgromadzania się, by wymienić tylko kilka z nich.
4.15. EKES zdecydowanie zaleca, aby w punkcie 2 załącznika III dodać zarządzanie infrastrukturą telekomunikacyjną i internetową oraz jej eksploatację. Proponuje również, aby rozszerzyć zakres tego punktu poza związane z bezpieczeństwem elementy AI.
4.16. Systemy AI służące do określania dostępu do edukacji i oceniania osób uczących się stwarzają szereg zagrożeń dla ich zdrowia, bezpieczeństwa i praw podstawowych. Na przykład narzędzia do nadzorowania przebiegu egzaminów przeprowadzanych online, które mają rzekomo sygnalizować podejrzane zachowania i oznaki oszukiwania w trakcie egzaminów online poprzez wykorzystanie wszelkiego rodzaju danych biometrycznych i śledzenia zachowania, są bardzo inwazyjne, a jednocześnie brakuje dowodów naukowych potwierdzających ich skuteczność.
4.17. Wykorzystanie systemów AI do monitorowania, śledzenia i oceny pracowników budzi poważne obawy pod kątem przysługujących im praw podstawowych do uczciwych i sprawiedliwych warunków pracy, do informacji i konsultacji oraz do uzasadnionego zwolnienia z pracy. Włączenie tych systemów AI do wykazu wysokiego ryzyka prawdopodobnie doprowadzi do konfliktu z krajowymi przepisami prawa pracy i zbiorowych układów pracy dotyczącymi (nie) sprawiedliwych zwolnień, zdrowych i bezpiecznych warunków pracy oraz informowania pracowników. EKES wzywa do zagwarantowania pełnego zaangażowania pracowników i partnerów społecznych w proces podejmowania decyzji dotyczących stosowania SI w miejscu pracy oraz do informowania o jej rozwoju, zamówieniach publicznych i jej wdrażania.
4.18. Wymóg nadzoru ze strony człowieka jest szczególnie istotny w stosunkach pracy, ponieważ nadzór będzie sprawowany przez pracownika lub grupę pracowników. EKES podkreśla, że takie osoby powinny zostać odpowiednio przeszkolone. Dodatkowo, skoro zakłada się, że pracownik nadzorujący będzie miał prawo nie uwzględniać wyników systemu AI lub nawet celowo z niego nie korzystać, należy wprowadzić środki zapobiegające obawie przed negatywnymi konsekwencjami (takimi jak jego degradacja lub zwolnienie) w przypadku podjęcia takich decyzji.
4.19. Wykorzystanie systemów AI w związku z dostępem do usług publicznych i korzystaniem z nich jest szersze niż wykorzystanie systemów AI w związku z dostępem do podstawowych usług prywatnych i korzystaniem z nich, przy czym w przypadku tych ostatnich za wysokie ryzyko uznaje się jedynie punktową ocenę kredytową (ocenę zdolności kredytowej) za pomocą AI. EKES zaleca rozszerzenie zakresu stosowania punktu 5 lit. b) załącznika III na te systemy AI, których celem jest ocena kwalifikowalności do korzystania z podstawowych usług prywatnych.
4.20. Sztuczna inteligencja wykorzystywana przez organy ścigania oraz w zarządzaniu migracją, azylem i kontrolą graniczną do przeprowadzania ocen ryzyka indywidualnego (w sprawach karnych lub bezpieczeństwa) stwarza ryzyko naruszenia zasady domniemania niewinności, prawa do obrony i prawa do azylu zawartych w Karcie praw podstawowych UE. Zasadniczo systemy AI poszukują jedynie korelacji, które są oparte na cechach znalezionych w innych przypadkach. Podejrzenie w tych przypadkach nie opiera się na faktycznym podejrzeniu popełnienia przestępstwa lub wykroczenia przez konkretną osobę, lecz jedynie na cechach, które ta osoba dzieli ze skazanymi przestępcami (takich jak: adres, dochody, obywatelstwo, długi, zatrudnienie, zachowanie, zachowanie przyjaciół i członków rodziny itd.).
4.21. Wykorzystanie AI w sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych jest kwestią szczególnie delikatną i należy do niej podchodzić z większą niż obecnie ostrożnością i uwagą. Samo wykorzystanie systemów do wspomagania organu sądowego w badaniu i interpretowaniu faktów i prawa oraz w stosowaniu prawa do konkretnego zestawu faktów pomija kwestię, że orzekanie to coś znacznie więcej niż znajdowanie schematów w danych historycznych (co w istocie robią obecne systemy AI). W treści dokumentu zakłada się również, że tego rodzaju sztuczna inteligencja będzie jedynie wspomagać sądownictwo, pozostawiając poza zakresem stosowania w pełni zautomatyzowany proces podejmowania decyzji sądowych. EKES wyraża również ubolewanie, że nie wspomina się o systemach i zastosowaniach sztucznej inteligencji w dziedzinie procesów demokratycznych, takich jak wybory.
4.22. Komitet zaleca, aby dodać przepis przewidujący sytuację, w której jest oczywiste lub stało się jasne podczas wcześniejszej oceny zgodności, że sześć wymogów nie zmniejszy w wystarczającym stopniu ryzyka szkód dla zdrowia, bezpieczeństwa i praw człowieka (np. poprzez zmianę art. 16 lit. g) aktu w sprawie sztucznej inteligencji).
Zarządzanie i wykonalność
4.23. EKES z zadowoleniem przyjmuje strukturę zarządzania ustanowioną przez akt w sprawie sztucznej inteligencji. Zaleca Radzie ds. Sztucznej Inteligencji prowadzenie regularnej, obowiązkowej wymiany poglądów z szerszym gronem społeczeństwa, w tym z partnerami społecznymi i organizacjami pozarządowymi.
4.24. Komitet zdecydowanie rekomenduje rozszerzenie zakresu stosowania aktu w sprawie sztucznej inteligencji, tak aby objąć nim dotychczasowe systemy AI, tj. systemy, które są już używane lub zostały wdrożone przed jego wejściem w życie, aby nie dopuścić do sytuacji, kiedy podmioty wdrażające zawczasu szybko wprowadzą wszelkie zakazane rodzaje sztucznej inteligencji wysokiego i średniego ryzyka, aby później nie podlegać wymogom zgodności. Ponadto EKES zdecydowanie zaleca, by nie wyłączać sztucznej inteligencji stanowiącej element wielkoskalowych systemów informatycznych w przestrzeni wolności, bezpieczeństwa i sprawiedliwości, wymienionych w załączniku IX, z zakresu aktu w sprawie sztucznej inteligencji.
4.25. Złożoność wymogów i działań związanych z rozliczalnością oraz samoocena stwarzają ryzyko uproszczenia tego procesu do postaci list kontrolnych, w przypadku których do spełnienia wymogów wystarczyłoby samo "tak" lub "nie". EKES zaleca wprowadzenie obowiązku przeprowadzania oceny przez stronę trzecią dla wszystkich rodzajów sztucznej inteligencji wysokiego ryzyka.
4.26. EKES zaleca, aby wprowadzić odpowiednie środki wsparcia (finansowego) oraz proste i przystępne narzędzia dla mikroprzedsiębiorstw i małych organizacji, a także organizacji społeczeństwa obywatelskiego, aby mogły one zrozumieć cel i znaczenie aktu w sprawie sztucznej inteligencji oraz spełnić jego wymogi. Środki te powinny wykraczać poza wspieranie ośrodków innowacji cyfrowych i ułatwiać dostęp do specjalistycznej wiedzy na temat aktu w sprawie sztucznej inteligencji, jego wymogów, obowiązków z nim związanych, a w szczególności na temat przyświecającego im celu.
4.27. EKES zaleca wprowadzenie mechanizmu skarg i dochodzenia roszczeń dla organizacji i obywateli, którzy ponieśli szkody w wyniku stosowania jakiegokolwiek systemu, praktyki lub zastosowania sztucznej inteligencji wchodzących w zakres stosowania aktu w sprawie sztucznej inteligencji.
Bruksela, dnia 22 września 2021 r. |
|
|
Christa SCHWENG |
|
Przewodnicząca |
|
Europejskiego Komitetu Ekonomiczno-Społecznego |