28 września 2022 r. skierowano do pierwszego czytania w Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii projekt ustawy o zmianie ustawy z 23 maja 1991 r. o związkach zawodowych (Dz. U. z 2022 r., poz. 854). Na co zatem pracodawcy powinni się przygotować i jak powinni dostosować swoje środowisko pod przyszłe regulacje o sztucznej inteligencji?

Projekt (druk sejmowy nr 2642) przewiduje dodanie przepisu, zgodnie z którym, pracodawca będzie obowiązany udzielić na wniosek zakładowej organizacji związkowej informacji dotyczących parametrów, zasad i instrukcji, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, a które mogą mieć wpływ na warunki pracy i płacy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie.

Czytaj również: Posłowie chcą dostępu związkowców do algorytmów określających normy pracy>>

Czytaj w LEX: Iwankiewicz Maciej W., Człowiek i sztuczna inteligencja >>>

Nowelizacja ustawy o związkach zawodowych

Sama idea zmian w tym zakresie powinna zostać oceniona  pozytywnie, bowiem zaproponowane normy będą stanowić materializacje pracowniczego prawa do informacji. Wykonywanie tej kompetencji przez związki zawodowe pozwoli zachować przejrzystość stosowanych wobec pracowników mechanizmów, w tym także oceny pracy.

Natomiast szczegóły propozycji mogą budzić uzasadnione wątpliwości. Przede wszystkim wykonywanie tego prawa nie powinno wpływać na tajemnicę przedsiębiorstwa pracodawcy. W środowisku już pojawiają się stanowiska, zgodnie z którymi przekazanie związkom zawodowym informacji dotyczących parametrów, zasad i instrukcji, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, a które mogą mieć wpływ na warunki pracy i płacy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie mogą częstokroć stanowić know-how pracodawcy. Wykreowane przez pracodawcę systemy sztucznej inteligencji mogą przykładowo wpływać się wzrost efektywności pracy. W takim przypadku może dojść do kolizji norm i interesów – z jednej strony pracodawca będzie starać się chronić tajemnicę przedsiębiorstwa, a z drugiej organizacja związkowa będzie uprawniona do uzyskania tego rodzaju informacji.

Czytaj w LEX: Odpowiedzialność za sztuczną inteligencję [projekt UE] >>>

Czytaj w LEX: Staszczyk Piotr, Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? >>>

Pożądane byłoby, aby przepisy przewidywały pewne ograniczenia prawa do informacji, o których mowa w projektowanych przepisach. Potrzeba udzielenia ochrony informacjom dotyczącym pracodawcy wynika z podstawowych zasad rządzących europejskim i polskim porządkiem prawnym, a mianowicie zasady wolności prowadzenia działalności gospodarczej oraz z zasady ochrony własności pracodawcy. Analiza przepisów dotyczących zbiorowego prawa pracowników do informacji wskazuje, że ograniczenia te mają różną formę. Jednym z takich ograniczeń jest możliwość zastrzeżenia przez pracodawcę poufności informacji udzielanych związkom zawodowym. Możliwość zobowiązania przedstawicieli pracowników do nieujawniania informacji przekazanych przez pracodawcę zastrzegają wszystkie ustawy wprowadzające stałe procedury informacyjne, ustawa o transgranicznym łączeniu spółek oraz art. 241(4) par. 2 k.p. Możliwości takiej nie przewiduje natomiast ustawa o zwolnieniach grupowych oraz ustawa o związkach zawodowych. Dlatego też należy postulować, aby ewentualna nowelizacja ustawy związkowej wprowadzająca nowe obowiązki informacyjne pracodawcy takie ograniczenie ustanowiła. Nie wpłynęłoby to w żaden sposób negatywnie na przyznanie związkowi zawodowemu projektowanego prawa do informacji dotyczących parametrów, zasad i instrukcji, na których opierają się algorytmy lub systemy sztucznej inteligencji. Organ związkowy mógłby bowiem podjąć działania zmierzające do ochrony interesów pracowników, jeśli działania te znajdowałyby uzasadnienie w przekazanej informacji. W szczególności związki zawodowe mogłyby wykorzystać uzyskane informacje w procesie negocjowania układów i porozumień zbiorowych, a nawet mogłyby wszcząć spór zbiorowy z pracodawcą. Przedstawiciele związkowi mogliby także bronić interesów pracowników przez przekazanie im częściowej informacji, nieobejmującej informacji zastrzeżonej wyłącznie do wiedzy bezpośrednich uczestników procedury informacyjnej.

Czytaj też: Obowiązki informacyjne pracodawcy wobec zakładowej organizacji związkowej >>>

Czytaj w LEX: Związki zawodowe w przedsiębiorstwie – trudne relacje na linii pracodawca–reprezentacja pracowników >>>

Obecny etap procedowania projektu ustawy jest odpowiedni na wprowadzenie właściwych poprawek. Jest więc jeszcze czas aby dokonać zmian, aby przyszłe regulacje przyczyniały się nie tylko do ochrony interesów pracowników, ale także uwzględniały słuszne interesy pracodawcy.

W przypadku uchwalenia przepisów w projektowanym kształcie możliwe będzie podjęcie przez pracodawcę stosowanych kroków zmierzających do zabezpieczenia jego interesów. Należytą ochronę interesów pracodawcy powinny jednak przewidywać regulacje wprowadzające procedurę informacyjną.

 

Prawo sztucznej inteligencji i nowych technologii
-20%

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Cena promocyjna: 159.2 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 199 zł


Akt o sztucznej inteligencji z wysokim ryzykiem

Jednocześnie na poziomie Unii Europejskiej toczą się prace legislacyjne nad regulacją o sztucznej inteligencji w postaci rozporządzenia Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji). Ostateczna treść rozporządzenie nadal się kształtuje, niemniej już na tym etapie można zauważyć, iż na pracodawców stosujących mechanizmy sztucznej inteligencji mogą zostać nałożone nowe obowiązki. W projekcie aktu o sztucznej inteligencji uznaje się systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia jako systemy wysokiego ryzyka. Oznacza to, że na podmioty (w tym pracodawców) wykorzystujących tego rodzaju systemy zostaną nałożone nowe obowiązki. W ramach przykładu, tego rodzaju podmioty będą zobowiązane do przyjęcia odpowiednich środków zarządzania ryzykiem.

Jak wskazano w Motywie 36 do projektu, systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji o awansie i rozwiązaniu stosunku pracy oraz do przydzielania zadań, monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również klasyfikować jako systemy wysokiego ryzyka.

Zakwalifikowanie systemów wykorzystywanych we wskazanych wyżej zakresie argumentuje się faktem, wedle którego wskazane systemy mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe i źródła utrzymania tych osób.

Ponadto, w całym procesie rekrutacji oraz w ramach oceny, awansu lub retencji osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej. Systemy sztucznej inteligencji wykorzystywane do monitorowania wydajności i zachowania tych osób mogą wpływać również na ich prawo do ochrony danych i prywatności.

 

Sprawdź również książkę: Prawo sztucznej inteligencji i nowych technologii >>


Systemy sztucznej inteligencji wysokiego ryzyka

Wobec powyższego należy odpowiedzieć na pytanie co to oznacza dla pracodawców wykorzystujących systemy sztucznej inteligencji, iż zostaną one zakwalifikowane jako te wysokiego ryzyka. W art. 9 ust. 1 projektu aktu o sztucznej inteligencji ustanowiono obowiązek wdrożenia, dokumentowania i utrzymywania systemu zarządzania ryzykiem w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka. Jednocześnie wskazano, że system zarządzania ryzykiem składa się z ciągłego, iteracyjnego procesu realizowanego przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka, wymagającego regularnej, systematycznej aktualizacji. Obejmuje on następujące etapy:

  1. identyfikację i analizę znanego i dającego się przewidzieć ryzyka związanego z każdym systemem sztucznej inteligencji wysokiego ryzyka;
  2. oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka zgodnie z jego przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
  3. ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu
  4. przyjęcie odpowiednich środków zarządzania ryzykiem zgodnie z przepisami aktu o sztucznej inteligencji.

 

Nie wchodząc w szczegóły powyższych etapów należy wyraźnie podkreślić, że pracodawcy wykorzystujący systemy sztucznej inteligencji będą musieli wdrożyć wiele nowych mechanizmów zabezpieczających, bowiem te systemy zostały zakwalifikowane przez projektodawcę unijnego jako stwarzające wysokie ryzyko. Do wypełnienia wszystkich powyższych wymogów konieczna będzie ścisła współpraca między działami IT, wewnętrznymi działami prawnymi oraz zewnętrznymi kancelariami prawnymi.

 

 

Konkluzja

Podsumowując powyższy przegląd propozycji regulacji sztucznej inteligencji w obszarze prawa pracy należy mieć na uwadze, że wszystkie pojawiające się projekty w swoim zamierzeniu nakładają na pracodawców nowe obowiązki. Termin wejścia w życie omawianych norm nie jest jeszcze pewny, natomiast ich procedowanie nakazuje zwrócić szczególną uwagę na ten aspekt. Pracodawcy powinni mieć świadomość, iż wykorzystywane przez nich systemy sztucznej inteligencji lub algorytmy mogą zostać poddane kontroli (co najmniej związkowej), w związku z czym należałoby je przygotować tak, aby nie budziły wątpliwości. W tym zakresie konieczna jest analiza prawna i odpowiednie przygotowanie regulacji wewnętrznych.

Czytaj w LEX: Boty w HR - czy i jak dział HR może wykorzystać nowe technologie? >>>

Autorzy:
Dr hab. Małgorzata Kurzynoga, prof. UŁ, radca prawny, Of counsel w kancelarii Baran Książek Bigaj
Łukasz Łaguna, aplikant adwokacki w kancelarii Baran Książek Bigaj, SDNS UJ.