Doradczynie i doradcy |
Odile CHAGNY (z ramienia sprawozdawczyni) Isaline OSSIEUR (z ramienia Grupy I) Etzerodt CLEMENS 0RNSTRUP (z ramienia Grupy I) Aida PONCE DEL CASTILLO (z ramienia Grupy II) Anthony BOCHON (z ramienia Grupy III) |
Decyzja Zgromadzenia Plenarnego | 15.2.2024 |
Podstawa prawna | Art. 52 ust. 2 regulaminu wewnętrznego |
Sekcja odpowiedzialna | Sekcja Zatrudnienia, Spraw Społecznych i Obywatelstwa |
Data przyjęcia przez sekcję | 17.12.2024 |
Data przyjęcia na sesji plenarnej | 22.1.2025 |
Sesja plenarna nr | 593 |
Wynik głosowania (za/przeciw/ wstrzymało się) | 142/103/14 |
1. Wnioski i zalecenia
1.1. EKES popiera wspólną deklarację partnerów społecznych wydaną podczas ostatniego szczytu G7 we Włoszech 1 , w której stwierdzono, że szybki rozwój systemów sztucznej inteligencji (AI), w tym generatywnej AI, jest niewątpliwie jedną z najważniejszych tendencji wpływających na świat pracy i nasze społeczeństwa w szerszym ujęciu. Nie jest też z góry przesądzone, czy ta zmiana okaże się na lepsze czy na gorsze - zależy to od decyzji decydentów dotyczących przyjęcia ambitnej i skutecznej polityki oraz ram regulacyjnych sprzyjających postępowi społecznemu, inkluzywności, równości, dobrobytowi gospodarczemu, zrównoważonym przedsiębiorstwom, ciągłości działania i odporności, tworzeniu godnych miejsc pracy, poszanowaniu demokratycznych instytucji i praw pracowniczych. W deklaracji uznano także, że dialog społeczny odgrywa w tym względzie kluczową rolę.
1.2. Dialog społeczny i zaangażowanie pracownic i pracowników odgrywają kluczową rolę w ochronie podstawowych praw pracowniczych i promowaniu godnej zaufania AI w świecie pracy. Większe zaangażowanie pracownic i pracowników oraz ich przedstawicieli jest jednym ze sposobów minimalizacji ryzyka związanego z systemami AI oraz ich szkodliwego wpływu.
1.3. Komitet nalega, aby inicjatywy ustawodawcze lub wszelkie inne inicjatywy dostosowujące obowiązujące prawo niwelowały luki w ochronie praw pracowniczych w miejscu pracy i utrzymywały kontrolę człowieka we wszystkich interakcjach człowiek-maszyna.
1.4. Obecne unijne przepisy prawne dotyczące wykorzystania AI w miejscu pracy powinny być poparte wyraźnymi wytycznymi dotyczącymi obowiązującego prawa.
1.5. Komitet popiera szybkie wdrożenie art. 4 aktu w sprawie sztucznej inteligencji 2 , który stanowi, że dostawcy i podmioty wdrażające systemy AI podejmują środki w celu zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu.
1.6. Organy publiczne muszą wdrożyć inicjatywy na rzecz rozwoju umiejętności pracowników, aby zagwarantować, że systemy AI będą udoskonalać człowieka, a nie go zastępować.
1.7. Komitet zdecydowanie zaleca, aby UE w ramach swej polityki publicznej oraz państwa członkowskie opracowały moduły dotyczące AI w kształceniu i szkoleniu oraz by udostępniły obywatelom materiały podnoszące świadomość na jej temat. Formalne kształcenie w zakresie technologii AI powinno być zapewnione na wczesnym etapie, by umożliwić akulturację wszystkich obywateli.
1.8. Aby uniknąć rozdrobnienia obecnych inicjatyw państw członkowskich i zapewnić równe warunki działania na jednolitym rynku, Komitet stanowczo apeluje o przeprowadzenie wzmocnionego dialogu społecznego na temat wdrażania systemów AI na podstawie instrumentu prawnego ad hoc. Instrument ten powinien zawierać przepisy umożliwiające skuteczniejsze:
- egzekwowanie art. 88 ogólnego rozporządzenia o ochronie danych (RODO) 3 i udzielenie wyraźnych wytycznych dotyczących zgody i uzasadnionego interesu;
- rozszerzenie zakresu przepisów zawartych w dyrektywie w sprawie pracy za pośrednictwem platform 4 , aby sprostać wyzwaniom, jakie systemy zarządzania algorytmicznego stanowią dla wszystkich pracowników;
- wzmocnienie przepisów mających zastosowanie na mocy dyrektywy 2002/14/WE 5 w przypadku wprowadzenia systemów AI wysokiego ryzyka oraz udzielenie jednoznacznych wytycznych dotyczących przepisów dyrektywy UE 89/391 6 w sprawie bezpieczeństwa i higieny pracy;
- włączenie wymiaru dynamicznego procesu dialogu społecznego i oceny ryzyka systemów AI, zgodnie z definicją zawartą w autonomicznym porozumieniu ramowym europejskich partnerów społecznych w sprawie cyfryzacji z 2020 r 7 .;
- szersze informowanie przedstawicieli pracowników o ocenie skutków dla ochrony danych, zgodnie z przepisami dyrektywy w sprawie pracy za pośrednictwem platform;
- przeprowadzanie przez dostawców ocen skutków ex ante w zakresie praw podstawowych, zanim wdrożą oni systemy wysokiego ryzyka;
- ustanowienie jasnych wytycznych dotyczących sposobu korzystania z piaskownic regulacyjnych i testowania w warunkach rzeczywistych.
1.9. EKES wzywa Europejski Urząd ds. Sztucznej Inteligencji do nawiązania ścisłej współpracy z europejskimi międzysektorowymi partnerami społecznymi, aby w swoich przyszłych wytycznych mógł odpowiednio uwzględnić rolę dialogu społecznego i dostarczyć wyjaśnień w sprawie wszystkich systemów sztucznej inteligencji. Należy ustanowić kompleksowe, solidne i dobrze zorganizowane kanały koordynacji między Urzędem ds. Sztucznej Inteligencji a Dyrekcjami Generalnymi Komisji Europejskiej DG EMPL i DG Connect.
2. Uwagi ogólne
2.1. Celem niniejszej opinii z inicjatywy własnej jest przedstawienie decydentom na szczeblu europejskim i krajowym zaleceń i konkretnych propozycji mających na celu stworzenie środowiska sprzyjającego pozytywnemu wdrażaniu systemów i narzędzi sztucznej inteligencji w świecie pracy. Biorąc pod uwagę wniosek nadchodzącej polskiej prezydencji, osobny rozdział poświęcono zbadaniu narzędzi pozwalających wykorzystać potencjał AI i zminimalizować związane z nią zagrożenia w polityce zatrudnienia i rynku pracy. W niniejszej opinii uwzględniono wkład z dwóch warsztatów zorganizowanych w Komitecie z udziałem europejskich i międzynarodowych ekspertów, podczas których wykorzystano metodyki prognozowania Wspólnego Centrum Badawczego.
2.2. Sztuczną inteligencję określa się jako technologię "ogólnego przeznaczenia" 8 umożliwiającą transformacyjne aplikacje cyfrowe o dużym potencjale oddziaływania społecznego i ekonomicznego 9 . AI, duże zbiory danych i obliczenia wielkiej skali są ze sobą powiązane. Generatywna AI obejmuje systemy takie jak zaawansowane, duże modele językowe, które mogą tworzyć nowe treści - poczynając od tekstu, a kończąc na obrazach, poprzez uczenie się na obszernych danych treningowych. W niniejszej opinii przyjęto szerokie podejście do analizy zarówno systemów zarządzania algorytmicznego, jak i szerszego wykorzystania technologii cyfrowych w miejscu pracy - takich jak narzędzia nadzoru i cyfrowe platformy kadrowe, które mają znaczący wpływ na pracownice i pracowników.
2.3. Choć z szacunków wynika, że wykorzystanie narzędzi AI w europejskich przedsiębiorstwach gwałtownie wzrosło od czasu pojawienia się narzędzi generatywnej AI, wydaje się, że istnieje znaczna rozbieżność w zakresie ich wdrażania między dużymi przedsiębiorstwami a MŚP 10 . Mimo braku spójnych danych i wiedzy na temat tego, jak dokładnie będzie się rozwijać AI, można rozsądnie oczekiwać, że wpłynie ona w rozmaity sposób na świat pracy i może stać się istotnym elementem pracy wielu osób 11 .
2.4. Scenariusze przeanalizowane podczas naszych warsztatów na temat przyszłości AI w świecie pracy 12 pokazują, że nie jest jeszcze za późno, aby wpłynąć na jej rozwój w miejscu pracy, tak aby była wdrażana z korzyścią dla wszystkich. Wizjonerski scenariusz określony mianem "scenariusza idealnego" pokazał, że dostosowanie prawa UE i wzmocnienie dialogu społecznego na najbardziej odpowiednim szczeblu może znacząco ukształtować oparte na zaufaniu wykorzystanie AI w miejscu pracy i zachęcać europejskie przedsiębiorstwa do inwestowania w badania, rozwój i innowacje.
2.5. Wpływ AI na świat pracy jest pośrednio poruszany w prawodawstwie unijnym dotyczącym kwestii społecznych 13 . Instytucje unijne zainwestowały również znaczne zasoby w rozwój wspólnej agendy cyfrowej i jednolitego rynku cyfrowego.
2.6. Zgodnie z propozycją przewodniczącej Komisji Europejskiej, by uwzględnić inicjatywy dotyczące wpływu cyfryzacji na świat pracy - od zarządzania sztuczną inteligencją po telepracę - oraz zgodnie z niedawną deklaracją partnerów społecznych wydaną na szczycie G-7, Komitet twierdzi, że każda inicjatywa ustawodawcza powinna wyeliminować luki w ochronie praw pracowniczych, którą to ochronę przewidziano w obowiązujących przepisach dotyczących AI. Każda taka inicjatywa powinna też sprawić, by zasada kontroli sprawowanej przez człowieka była skutecznie stosowana.
2.7. Komitet zwraca się do Komisji Europejskiej o dopilnowanie, by istniejące przepisy prawne dotyczące stosowania AI w miejscu pracy były poparte wyraźnymi wytycznymi.
2.8. Partnerzy społeczni i obywatele mają do odegrania kluczową rolę w ochronie podstawowych praw pracowników i promowaniu godnej zaufania AI w świecie pracy i w całym społeczeństwie 14 .
3. Definicja systemów AI w kontekście niniejszej opinii
3.1. Na potrzeby niniejszej opinii EKES zaleca wykorzystanie definicji zawartej w akcie w sprawie sztucznej inteligencji 15
3.2. Zgodnie z art. 3 akapit 1 aktu w sprawie sztucznej inteligencji "»system AI« oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który - na potrzeby wyraźnych lub dorozumianych celów - wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne".
3.3. Definicja ta jest wystarczająco szeroka, aby objąć trzy podstawowe cechy systemów sztucznej inteligencji, a mianowicie:
- umożliwianie zautomatyzowanego podejmowania decyzji;
- robienie tego w pewnym stopniu autonomicznie;
- interakcję z pracownikami i wywieranie na nich wpływu.
3.4. Ponadto Komitet podkreśla, że systemy AI stosowane w miejscu pracy mają trzy główne cechy szczególne w porównaniu z poprzednimi technologiami cyfrowymi:
- systemy AI mogą być natychmiastowe, interaktywne i nieprzejrzyste 16 ;
- ważna grupa 17 systemów AI ma zdolność do adaptacji po wprowadzeniu w miejscu pracy 18 ; może to wprowadzać niepewność i nieprzewidywalność co do tego, jak system AI będzie się zachowywał w określonym kontekście;
- systemy AI oferują ogromne możliwości poprawy alokacji i koordynacji, ułatwiają efektywne podejmowanie decyzji w przedsiębiorstwach i usprawniają organizacyjne uczenie się 19 ; oczekuje się, że AI będzie sprzyjać innowacjom, jako nowa metoda wynalazczości 20 ; przy zwiększaniu swej skali (rozmiar parametrów, danych treningowych itp.), system AI może nawet generować przypadkowe odkrycia, a tym samym wspierać innowacje.
4. Wpływ AI na rynek pracy i warunki pracy
4.1. Wpływ na zatrudnienie
4.1.1. Ze względu na szybką ewolucję AI, niepewność związaną z jej integracją między poszczególnymi procesami produkcyjnymi, a także jej skutki dla organizacji i pracowników, nie można z góry przewidzieć jej wpływu na zatrudnienie i pracowników. Zakres, w jakim AI tworzy, zmienia, wspiera lub wypiera miejsca pracy, zależy również od celu jej przyjęcia (optymalizacja procesów, obniżenie kosztów, efektywność, innowacje itp.).
4.1.2. AI ma potencjalną wartość w: (i) dopasowywaniu profili stanowisk do potencjalnych kandydatów, co zwiększa skuteczność polityki zatrudnienia; (ii) rekrutacji odpowiednich kandydatów; (iii) przyspieszaniu procesów wdrażania; (iv) zarządzaniu wynikami; (v) opracowywaniu skutecznych spersonalizowanych metod szkoleniowych i identyfikowaniu luk w umiejętnościach cyfrowych; (vi) gromadzeniu i analizowaniu dużych zbiorów danych; (vii) sporządzaniu protokołów; (viii) tworzeniu opisów stanowisk pracy; i (ix) zarządzaniu zatrzymaniem i rotacją pracowników, a także przewidywaniu przyszłych potrzeb kadrowych 21 .
4.1.3. Największy potencjalny wzrost gospodarczy dzięki AI będzie prawdopodobnie wynikał ze zwiększonej produktywności 22 . Obejmuje to automatyzację zadań rutynowych i monotonnych 23 , uzupełnianie kompetencji pracowników i umożliwienie im skupienia się na bardziej stymulującej pracy, która przynosi większą wartość 24 . Najnowsze osiągnięcia technologiczne pozwalają systemom AI zastępować lub uzupełniać role ludzkie w znacznie bardziej zróżnicowanym zakresie dziedzin niż poprzednie technologie, w tym w zadaniach nierutynowych i poznawczych 25 , zwłaszcza w sektorze zdrowia i edukacji.
4.1.4. W najnowszych badaniach podkreślono potencjał technologii generatywnej AI w zakresie uzupełniania kompetencji człowieka 26 . MOP szacuje 27 , że potencjał transformacji jest ponad dwukrotnie większy niż potencjał automatyzacji w krajach o wysokim dochodzie (odpowiednio 13,4 % w porównaniu z 5,1 %). Wyniki badań empirycznych pozostają jednak niejednoznaczne, jeśli chodzi o wpływ na zatrudnienie i produktywność 28 . Rzeczywista skala wzrostu produktywności pozostaje niepewna 29 i może być przesadzona 30 . Jeśli chodzi o generatywną AI, to odsetek zawodów, w przypadku których istnieje niepewność co do potencjału automatyzacji i uzupełnienia, jest wysoki 31 (11,6 % w krajach o wysokim dochodzie 32 ). Generatywna AI może poprawić dostęp do pracy dla osób z niepełnosprawnością 33 , ale może również zautomatyzować zajmowane przez nie stanowiska pracy.
4.2. Sztuczna inteligencja będzie miała znaczący wpływ na potrzeby w zakresie umiejętności 34 .
4.2.1. Z jednej strony AI będzie powielać niektóre umiejętności manualne i precyzyjne zdolności psychomotoryczne, a także umiejętności poznawcze, takie jak rozumienie, planowanie i doradzanie. Z drugiej strony ważniejsze staną się umiejętności potrzebne do opracowywania i utrzymywania systemów AI, oraz umiejętności wymagane do przyjmowania i używania aplikacji AI oraz interakcji z nimi. Wzrośnie zapotrzebowanie na podstawowe umiejętności cyfrowe i naukę o danych 35 . Niezbędne będą umiejętności poznawcze i przekrojowe, które najlepiej uzupełniają AI (w tym kreatywne rozwiązywanie problemów, oryginalność i inne umiejętności przekrojowe, takie jak umiejętności społeczne i w zakresie zarządzania 36 ). Umiejętności i wiedza kadry kierowniczej i liderów biznesu będą również miały znaczenie dla przyjęcia AI 37 . Istnieją dowody na to, że brak odpowiednich umiejętności związanych z AI stanowi barierę utrudniającą jej wykorzystanie w miejscu pracy 38 . AI można również wykorzystać do poprawy systemów uczenia się dorosłych.
4.3. Warunki pracy
4.3.1. Warunki pracy to obszar, w którym wpływ systemów AI jest najbardziej niejednoznaczny 39 . Wynika to z tego, że systemy AI mają potencjał przekształcania działań organizacyjnych i zarządczych oraz kontroli 40 , a także głębokiego przeprojektowywania procesów organizacyjnych 41 .
4.3.2. Rozsądnie wykorzystywane narzędzia oparte na AI mogłyby poprawić warunki bezpieczeństwa i higieny pracy dzięki zmniejszeniu obciążenia pracownic i pracowników 42 . Mogłyby też poprawić równowagę między życiem zawodowym a prywatnym 43 oraz zdrowie psychiczne w miejscu pracy 44 . Narzędzia AI mogą pomóc usunąć lub ograniczyć niebezpieczne zadania i zapobiegać zaburzeniom układu mięśniowo-szkieletowego. Jeśli czas zaoszczędzony przez pracownice i pracowników na realizacji zadań zostanie rozdzielony w sprawiedliwy sposób, może się to przełożyć na poprawę ich samopoczucia. Gdy narzędzia AI zastępują powtarzalne i monotonne zadania, mogą zwiększyć satysfakcję z pracy 45 . Korzystanie z aplikacji AI może prowadzić do lepszych, sprawiedliwszych i niedyskryminujących decyzji i praktyk 46 .
4.3.3. Zastosowania AI mogą zapewnić bardziej kompleksową dystrybucję lepszej jakości informacji, zapewnić dogłębny wgląd w dane i poprawić jakość decyzji opartych na ograniczonym zasobie danych.
4.3.4. Z drugiej strony mogą pojawić się pewne zagrożenia, jeżeli nie zostaną spełnione warunki dla godnego zaufania wdrożenia systemów AI w miejscu pracy 47 .
4.3.5. Systemy zarządzania algorytmicznego umożliwiają znacznie większą wszechobecną kontrolę niż jakiekolwiek jej wcześniejsze formy, co może mieć szkodliwy wpływ na pracowników 48 . Zgromadzono dowody 49 wskazujące na negatywny wpływ, jaki zarządzanie algorytmiczne może mieć na zdrowie i bezpieczeństwo pracowników, oraz na brak zainteresowania przedsiębiorstw, by takie technologie zastosować w celu poprawy bezpieczeństwa i higieny pracy.
4.3.6. Pracownicy mogą być narażeni na nadużycia w zakresie nadzoru, dyskryminację, utratę autonomii i zagrożenia psychospołeczne 50 . Narzędzia AI mogą zakłócać zbiorowość w miejscu pracy i pogłębiać poczucie izolacji wśród pracowników.
4.3.7. Systemy AI mogą pogłębiać asymetrie informacyjne pomiędzy kierownictwem a pracownikami 51 .
4.4. Zwalczanie nierówności
4.4.1. W ostatnich badaniach skoncentrowanych na generatywnej AI podkreślono, że systemy te mogą zarówno zmniejszać nierówności, jak i przeciwnie - utrwalać je, a nawet generować nowe rodzaje nierówności.
4.4.1.1. Może dojść do zmniejszenia nierówności między pracownikami wysoko wykwalifikowanymi i pracownikami o niższych umiejętnościach. Autorzy większości badań są zgodni co do tego, że w wyniku wdrożenia generatywnej AI pracownicy umysłowi wykonujący zawody wymagające wyższych kwalifikacji będą narażeni na większe ryzyko związane z zatrudnieniem 52 . Jeśli celem wdrożenia generatywnej AI jest zwiększenie innowacyjności przedsiębiorstw, poprawa organizacji pracy i tworzenie wysokiej jakości miejsc pracy, to z narzędzi generatywnej AI skorzystają najbardziej pracownicy mniej wykwalifikowani i mniej doświadczeni. Dzięki modelom AI wyspecjalizowani pracownicy będą mogli dzielić się najlepszymi praktykami z nowym personelem 53 .
4.4.1.2. Kobiety oraz nisko wykwalifikowani i starsi pracownicy to grupy szczególnie narażone na skutki wprowadzenia AI 54 . Ponieważ w przypadku pracy biurowej istnieje większe ryzyko automatyzacji, skutki dla zatrudnienia są związane z płcią: kobiety są potencjalnie dwukrotnie bardziej narażone na ryzyko związane z automatyzacją 55 . Kobiety są również częściej narażone na to, że ich stanowiska pracy ulegną transformacji.
4.4.1.3. Niski odsetek kobiet wśród absolwentów w dziedzinie nauk przyrodniczych, technologii, inżynierii i matematyki lub informatyki i technologii informacyjnych w niektórych krajach stwarza poważne wyzwania pod kątem różnic w poziomie zatrudnienia ze względu na płeć i nierówności płacowych między mężczyznami i kobietami w kontekście rozpowszechniania AI 56 . Dlatego na wszystkich szczeblach należy skuteczniej zająć się kwestią równości płci. Kluczowe znaczenie ma tu dialog społeczny i lepsze strategie polityczne pozwalające przewidywać takie tendencje.
4.4.2. Nowe globalne nierówności
4.4.2.1. Na poziomie globalnym rozwój AI wspierany jest przez niewidzialnych pracowników, głównie z krajów o niskich dochodach, którzy pracują w złych warunkach 57 .
4.5. Dialog społeczny i zaangażowanie pracownic i pracowników mają kluczowe znaczenie dla wykorzystania potencjału AI.
4.5.1. Dla promowania pozytywnych efektów AI niezbędne są: akceptacja tych systemów, ich niezawodność oraz zaufanie do sposobu ich opracowywania i przyjmowania. Wymogi te wynikają ze specyfiki systemów AI oraz ich wpływu na kwestie organizacyjne 58 .
4.5.2. Istnieją dowody na to, że konsultacje z przedstawicielami pracowników prowadzą do poprawy wyników i warunków pracy 59 . Gdy przedstawiciele pracowników mogą korzystać z systemu współzarządzania, przemawiając wspólnym głosem, łatwiej jest chronić prywatność, autonomię i zakres swobody działania pracowników w konfrontacji z technologiami zarządzania siłą roboczą 60 .
4.5.3. Aby zapewnić skuteczny dialog społeczny w obrębie wszystkich podmiotów stosujących AI, Komitet apeluje o jednoznaczne wytyczne w odpowiednich tekstach prawnych i pozaprawnych.
4.5.4. Należy zapewnić obywatelom i zainteresowanym stronom możliwość wyboru zastosowań i celów AI w społeczeństwie i miejscu pracy. Partnerzy społeczni i obywatele powinni uczestniczyć w stosownych debatach publicznych i szkoleniach oraz w nabywaniu kompetencji w zakresie AI.
4.6. Należy koniecznie przygotować się na sztuczną inteligencję 61 .
4.6.1. Aby wykorzystać wdrażanie AI w środowisku pracy, Komitet wzywa Komisję Europejską, by zachęcała:
4.6.1.1. decydentów wszystkich szczebli do przeglądu polityki w zakresie umiejętności w celu dopilnowania, aby powstające systemy AI uzupełniały pracowników, a nie ich zastępowały;
4.6.I.2. do opracowania - w ramach polityki publicznej - modułów A na wczesnym etapie edukacji i szkolenia oraz udostępnienia obywatelom materiałów podnoszących świadomość na temat AI. Polityka ta powinna przewidywać formalną edukację o technologii AI już na wczesnym etapie, aby zapewnić akulturację wszystkich obywateli;
4.6.1.3. do szybkiego wdrożenia art. 4 aktu w sprawie sztucznej inteligencji, który stanowi, że dostawcy i podmioty wdrażające systemy AI podejmują środki w celu zapewnienia odpowiedniego poziomu kompetencji w tym zakresie wśród swojego personelu.
5. Egzekwowanie i dostosowanie obowiązującego prawodawstwa Unii Europejskiej
5.1. Ogólne rozporządzenie o ochronie danych (RODO) 62 nie zostało zaprojektowane z myślą o rozwiązaniu kwestii ochrony danych w miejscu pracy.
5.1.1. Podstawy prawne RODO jako odrębnego rozporządzenia nie są wystarczające do ograniczenia ryzyka związanego ze szkodliwymi systemami AI w pracy, ponieważ nie uwzględniają szczególnego charakteru tych systemów w odniesieniu do przetwarzania danych osobowych w kontekście zatrudnienia i miejsca pracy.
5.1.2. Istnieje zgoda co do tego, że ani zgoda pracownika, ani uzasadniony interes nie stanowią ważnej podstawy przetwarzania danych w kontekście asymetrycznej dynamiki sił w miejscu pracy 63 . Niedawne badanie przeprowadzone wśród 6 300 pracowników w krajach nordyckich wskazuje, że we wszystkich sektorach objętych badaniem dochodzi do nadużyć w przypadku występowania takich asymetrycznych sił 64 .
5.1.3. Art. 15 ust. 1 lit. h) RODO dotyczący wymogów przejrzystości ma ograniczony zakres, ponieważ wyklucza półautomatyczne podejmowanie decyzji.
5.1.4. Przetwarzanie danych zebranych od innych pracowników może mieć większy wpływ na pracowników niż przetwarzanie zgromadzonych danych, które dotyczą ich samych 65 . Związki zawodowe bądź przedstawiciele pracowników mają ograniczone prawo do kontrolowania sposobu, w jakim dane są gromadzone i przetwarzane. Założenie, że naruszenie dotyczące prywatności ma zawsze charakter indywidualny stanowi istotną słabość w kontekście systemów zarządzania algorytmicznego. Ponadto przepisy dotyczące ocen skutków związanych z ochroną danych nie są wystarczające.
5.1.5. W art. 88 RODO stwierdza się, że przetwarzanie danych osobowych w związku z zatrudnieniem należy uregulować za pomocą "bardziej szczegółowych przepisów", które mają zostać ustanowione przez państwa członkowskie w przepisach lub w porozumieniach zbiorowych 66 . Od czasu wejścia w życie RODO art. 88 był słabo egzekwowany i pozostał martwą literą w niemal wszystkich państwach członkowskich 67 .
5.1.6. Aby dać pracownikom większe uprawnienia w zakresie ich danych, Komitet zwraca się do Komisji Europejskiej o przyjęcie środków zapewniających skuteczne egzekwowanie art. 88 RODO.
5.2. Akt w sprawie AI
5.2.1. Akt w sprawie AI ma przede wszystkim zachęcać do przyjmowania i rozpowszechniania sztucznej inteligencji w UE poprzez stworzenie jednolitych ram prawnych dla godnej zaufania AI, zgodnie z logiką, że jeśli zostaną uwzględnione ryzyka związane z wykorzystaniem AI, jej upowszechnienie wzrośnie. To rozporządzenie jest przekrojowym aktem prawnym mającym szereg nadrzędnych celów - takich jak zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych. Podstawą prawną aktu w sprawie AI są przede wszystkim przepisy TFUE dotyczące rynku wewnętrznego. Akt ten nie został opracowany ściśle z myślą o rozwiązaniu problemów związanych z miejscem pracy 68 .
5.2.2. Akt w sprawie AI nakłada ograniczenia na wykorzystywanie AI w miejscu pracy, gdyż zakazuje stosowania niektórych systemów i ustanawia surowe wymogi związane z dostarczaniem lub wdrażaniem systemów AI -zwłaszcza tych uznanych za systemy wysokiego ryzyka ze względu na ich stosowanie w zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia. Pod tym względem akt w sprawie AI stanowi ważny krok we właściwym kierunku.
5.2.3. Komitet wskazuje jednak na szereg luk w akcie w sprawie AI w odniesieniu do przestrzegania praw podstawowych w miejscu pracy.
5.2.3.1. W akcie w sprawie AI uznaje się, że definicja ex ante ryzyka nie jest wystarczająca do ochrony przed potencjalnymi szkodami wyrządzanymi przez systemy AI i że nie można w pełni określić z wyprzedzeniem tego ryzyka, ponieważ zależy ono również od kontekstu wdrażania tych systemów 69 . Systemy zarządzania ryzykiem związanym z systemami AI wysokiego ryzyka muszą być wdrażane przez cały cykl życia systemu (art. 9). W akcie w sprawie AI wyraźnie zaznaczono jednak, że system AI - mimo jego zgodności z tym rozporządzeniem - może stwarzać ryzyko dla zdrowia lub bezpieczeństwa osób lub praw podstawowych. (art. 82) 70 .
5.2.3.2. Obowiązek przeprowadzania oceny skutków systemów wysokiego ryzyka dla praw podstawowych dotyczy jedynie podmiotów prawa publicznego, podmiotów prywatnych świadczących usługi publiczne oraz podmiotów bankowych i ubezpieczeniowych (art. 27).
5.2.3.3. Przedstawiciele pracowników mają jedynie prawo do otrzymywania informacji, a nie do bycia konsultowanymi (art. 26 ust. 7). Piaskownice regulacyjne (art. 57) i testy systemów AI wysokiego ryzyka w warunkach rzeczywistych (art. 60) dozwolone są wyłącznie przed oddaniem systemu do użytku.
5.2.3.4. Komitet uważa, że eksperymenty mają kluczowe znaczenie dla umożliwienia organizacjom identyfikację ryzyka, testowanie niezamierzonych konsekwencji i dopracowanie algorytmów w kontrolowanym środowisku przed ich wdrożeniem na pełną skalę. Akt w sprawie AI musi być uzupełniony o klarowne wytyczne, aby zapewnić jasność prawa i zapewnić jego jednoznaczne stosowanie i egzekwowanie.
5.2.4. Aby uwzględnić te kwestie, Komitet wzywa Urząd ds. Sztucznej Inteligencji do ścisłej współpracy z europejskimi międzysektorowymi partnerami społecznymi przy formułowaniu pierwszych wytycznych, aby opracować jasne wskazówki i wyjaśnienia dotyczące systemów AI zdolnych do wyciągania wniosków na temat emocji osób fizycznych. Należy ustanowić kompleksowe, solidne i dobrze zorganizowane kanały koordynacji między Urzędem ds. Sztucznej Inteligencji a Dyrekcjami Generalnymi Komisji Europejskiej DG EMPL i DG Connect.
5.2.5. Komitet uważa, że to na dostawcach ciąży obowiązek przeprowadzania oceny ex ante wpływu systemów wysokiego ryzyka na prawa podstawowe przed ich wdrożeniem przez wszystkie podmioty.
5.2.6. EKES zwraca się o uwzględnienie jasnych wytycznych dotyczących sposobu wykorzystania piaskownic i testowania w warunkach rzeczywistych we wszelkich przyszłych inicjatywach dotyczących AI w miejscu pracy.
5.3. Dyrektywy w sprawie informowania pracowników i konsultowania się z nimi oraz w sprawie bezpieczeństwa i zdrowia pracowników w miejscu pracy oraz autonomiczne porozumienie ramowe europejskich partnerów społecznych w sprawie cyfryzacji
5.3.1. Dyrektywa 2002/14/WE 71 gwarantuje przedstawicielom pracowników zbiorowe prawo do informacji i konsultacji oraz obejmuje wszelkie przewidywane środki, które stanowią zagrożenie dla zatrudnienia, a także wszelkie decyzje prowadzące do "istotnych zmian" w organizacji pracy (art. 4). Zgodnie z dyrektywą 89/391/WE 72 pracodawcy muszą zapewniać bezpieczeństwo i zdrowie pracowników we wszystkich aspektach związanych z pracą, informować i szkolić ich oraz konsultować się z przedstawicielami pracowników w zakresie zdrowia i bezpieczeństwa. Jednak nieprzejrzysty sposób wprowadzania narzędzi AI, ich ewoluujący charakter oraz złożoność definicji owych "istotnych zmian" wymagają wzmocnienia tych dyrektyw za pomocą jednoznacznych wytycznych.
5.3.2. Wymiar iteracyjnego i dynamicznego charakteru systemów AI znajduje odzwierciedlenie w iteracyjnym procesie dialogu przewidzianym w europejskim porozumieniu partnerów społecznych w sprawie cyfryzacji 73 .
5.3.3. To porozumienie jednak w niewielkim stopniu porusza kwestie związane z AI, a konkretne działania związane z AI, podejmowane przez krajowych partnerów społecznych w ramach wdrażania porozumienia, były dotychczas dość ograniczone. Ponadto większość z nich dotyczyła wyłącznie kwestii związanych z telepracą i prawem do bycia offline.
5.3.4. Komitet zwraca się do Komisji Europejskiej o jednoznaczne wzięcie pod uwagę kontekstu AI w ramach instrumentu ad hoc. Pozwoliłoby to uwzględnić w porozumieniu autonomicznym dynamiczny wymiar dialogu społecznego, a także oceny ryzyka dla zdrowia i bezpieczeństwa systemów sztucznej inteligencji.
5.4. Dyrektywa w sprawie pracy za pośrednictwem platform 74
5.4.1. Dyrektywa w sprawie pracy za pośrednictwem platform zawiera przepisy, które mogłyby skutecznie regulować zautomatyzowane systemy monitorowania i podejmowania decyzji. W szczególności rozdział III 75 :
- rozszerza system przejrzystości algorytmicznej RODO, aby objąć nim zarówno decyzje wyłącznie zautomatyzowane, jak i półzautomatyzowane;
- ustanawia zbiorowe prawo do informacji i wiedzy specjalistycznej poprzez wymaganie od cyfrowych platform pracy, aby systemy zarządzania algorytmicznego były zrozumiałe dla pracowników platform, ich przedstawicieli i organów ds. pracy;
- stanowi, że platformy mają obowiązek przekazać ocenę skutków dla ochrony danych przedstawicielom pracowników;
- zakazuje przetwarzania danych osobowych, które "nie są nierozerwalnie związane z realizacją umowy ani nie są do jej realizacji bezwzględnie niezbędne" oraz zakazuje przetwarzania jakichkolwiek danych osobowych "dotyczących stanu emocjonalnego lub psychicznego" osób pracujących za pośrednictwem platform internetowych we wszelkich okolicznościach;
- wprowadza prawo do interfejsu ludzkiego (art. 10 dotyczący nadzoru człowieka nad systemami monitorowania i systemami podejmowania decyzji oraz art. 11 dotyczący weryfikacji przez człowieka);
- w art. 12 dotyczącym bezpieczeństwa i zdrowia wprowadza szczegółowe wymogi dotyczące oceny ryzyka związanego ze zautomatyzowanymi systemami monitorującymi i zautomatyzowanymi systemami decyzyjnymi dla bezpieczeństwa i zdrowia pracowników.
5.4.2. Przepisy rozdziału III dyrektywy o pracy za pośrednictwem platform mają zastosowanie wyłącznie do osób wykonujących pracę za pośrednictwem platform internetowych. Jednak praktyki zarządzania algorytmicznego w tradycyjnych miejscach pracy są już rzeczywistością 76 - np. w zakresie przydzielania pracy zmianoweji jej optymalizacji, selekcji i oceny osób ubiegających się o pracę, oceny sytuacji w dziedzinie zatrudnienia oraz rozwiązywania problemów związanych z zasobami ludzkimi. Komitet zwraca się do Komisji Europejskiej, by rozszerzyła na wszystkich pracowników zakres przepisów rozdziału III dyrektywy o pracy za pośrednictwem platform.
Bruksela, dnia 22 stycznia 2025 r.
Nie będzie podwyższenia kar dla pracodawców, przewidzianych w Kodeksie pracy, za wykroczenia przeciwko prawom pracowników. W czwartek Sejm przyjął poprawkę Senatu wykreślającą z ustawy poprawkę Lewicy. Posłowie zgodzili się też na to, by agencje pracy tymczasowej mogły zatrudniać cudzoziemców także na podstawie umów cywilnoprawnych, a nie tylko na umowę o pracę.
20.03.2025Sejm przyjął w czwartek większość poprawek redakcyjnych i doprecyzowujących, które Senat wprowadził do ustawy o rynku pracy i służbach zatrudnienia. Przewiduje ona reformę urzędów pracy, w tym m.in. podniesienie zasiłku dla bezrobotnych i ułatwienia w podnoszeniu kwalifikacji zawodowych. Ustawa trafi teraz do podpisu prezydenta.
20.03.2025Przedsiębiorcy rozliczający się według zasad ogólnych i skali podatkowej oraz liniowcy będą od 1 stycznia 2026 r. płacić składkę zdrowotną w wysokości 9 proc. od 75 proc. minimalnego wynagrodzenia, jeśli będą osiągali w danym miesiącu dochód do wysokości 1,5-krotności przeciętnego wynagrodzenia w sektorze przedsiębiorstw w czwartym kwartale roku poprzedniego, włącznie z wypłatami z zysku, ogłaszanego przez prezesa GUS. Projekt po raz drugi wróci do komisji sejmowej.
19.03.2025Senat nie zgodził się w czwartek na zniesienie obowiązku zawierania umów o pracę z cudzoziemcami będącymi pracownikami tymczasowymi przez agencje pracy tymczasowej, ale umożliwił agencjom zawieranie umów cywilnoprawnych. Senatorowie zdecydowali natomiast o skreśleniu przepisu podnoszącego kary grzywny dla pracodawców przewidziane w kodeksie pracy. W głosowaniu przepadła też poprawka Lewicy podnosząca z 2 tys. zł do 10 tys. zł kary grzywny, jakie w postępowaniu mandatowym może nałożyć Państwowa Inspekcja Pracy.
13.03.2025Ministerstwo Rodziny, Pracy i Polityki Społecznej nie zgodziło się na usunięcie z ustawy o zatrudnianiu cudzoziemców przepisu podnoszącego w kodeksie pracy kary dla pracodawców. Senacka Komisja Rodziny, Polityki Senioralnej i Społecznej zaakceptowała we wtorek jedynie poprawki Biura Legislacyjnego Senatu do tej ustawy. Nie można jednak wykluczyć, że na posiedzeniu Senatu inni senatorowie przejmą poprawki zgłaszane przez stronę pracodawców.
11.03.2025Podczas ostatniego posiedzenia Sejmu, ku zaskoczeniu zarówno przedsiębiorców, jak i części posłów koalicji rządzącej, Lewica w ostatniej chwili „dorzuciła” do ustawy o warunkach dopuszczalności powierzania pracy cudzoziemcom poprawki zaostrzające kary za naruszanie przepisów prawa pracy - m.in. umożliwiające orzeczenie kary ograniczenia wolności. Jednocześnie zignorowano postulaty organizacji pracodawców, mimo wcześniejszych zapewnień rządu o ich poparciu.
27.02.2025Identyfikator: | Dz.U.UE.C.2025.1185 |
Rodzaj: | Opinia |
Tytuł: | Opinia Europejskiego Komitetu Ekonomiczno-Społecznego - Sztuczna inteligencja sprzyjająca pracownicom i pracownikom: narzędzia pozwalające wykorzystać potencjał sztucznej inteligencji i zminimalizować związane z nią zagrożenia w kontekście polityki zatrudnienia i rynku pracy (opinia z inicjatywy własnej) |
Data aktu: | 21/03/2025 |
Data ogłoszenia: | 21/03/2025 |