Zakończenie jednego z trudniejszych etapów prac nad Aktem o Sztucznej Inteligencji (AI Act), czyli trójstronnych negocjacji (tzw. trilogów), zostało ogłoszone na początku grudnia ub. roku. Stało się to dość niespodziewanie, bo tuż przed rozpoczęciem kolejnego etapu rozmów fundamentalne wątpliwości dotyczące samych podstaw aktu prawnego zgłosiły trzy państwa: Francja, Niemcy i Włochy. Ostatecznie jednak udało się osiągnąć porozumienie, co oznacza, że zasadniczo wiemy już, jak będą wyglądały przepisy. Przed nami co prawda wciąż zatwierdzenie m.in. przez Parlament Europejski, jednak eksperci podkreślają, że ewentualne zmiany będą miały już charakter co najwyżej redakcyjny.

Jest szansa, że AI Act zostanie oficjalnie przyjęty w pierwszym kwartale br. (choć prawnicy oceniają, że to dość optymistyczne założenie, bo procedury unijne zawsze toczą się nieco dłużej). I choć państwa członkowskie będą miały czas na wdrożenie regulacji – vacatio legis po opublikowaniu rozporządzenia w Dzienniku Urzędowym UE ma wynieść aż dwa lata – krajowy prawodawca powinien już teraz rozpocząć przygotowania, by przyjęcie regulacji na podstawie AI Act było przemyślane i sensowne. Są kwestie, którymi trzeba zająć się od razu. 

Czytaj w LEX: Akt o sztucznej inteligencji [projekt UE] >

Czytaj też: Unijne porozumienie w sprawie AI Act wcale nie oznacza końca prac​ >>

Chcesz dowiedzieć się więcej o obecnym etapie prac legislacyjnych nad aktem o sztucznej inteligencji? Zapraszamy na bezpłatny webinar: LINK

Mieć na uwadze cel, a nie kolejne sankcje

Nie ma oczywiście sensu tworzenie w tym momencie własnych, krajowych ustaw, które będą próbą uregulowania funkcjonowania sztucznej inteligencji. Tym bardziej, że jednym z głównych celów AI Act jest właśnie ujednolicenie regulacji na poziomie wszystkich krajów członkowskich UE.

Jan Ziomek, adwokat, partner w kancelarii Kochański& Partners, ekspert w zakresie nowych technologii i obszaru FinTech, wskazuje jednak, że jego zdaniem polski ustawodawca powinien zapewnić jak najszybsze dostosowanie regulacji krajowych, aby umożliwić prawidłowe stosowanie AI Act. Jak podkreśla, będzie to wiązało się z pracami legislacyjnymi oraz szczegółową analizą, aby podmioty w Polsce mogły jak najlepiej korzystać z potencjału, który daje akt o sztucznej inteligencji. To konieczne, by zapewnić spójność przepisów unijnych i krajowych. A działania warto rozpocząć już teraz, bo jeśli proces legislacyjny jest prowadzony rzetelnie, przyjęcie ustawy w Polsce trwa średnio od roku do nawet dwóch lat.

Czytaj w LEX: Model systemowego przeciwdziałania dyskryminacji algorytmicznej - uwagi na tle projektu aktu w sprawie sztucznej inteligencji >

Ważne jest również to, by uniknąć zjawiska tzw. gold-platingu. Zgodnie z definicją wprowadzoną przez Komisję Europejską, to takie działanie państwa członkowskiego, które wykorzystuje konieczność dostosowania krajowego prawa do unijnych regulacji w taki sposób, by nałożyć dodatkowe wymagania i obowiązki na adresatów przepisów. To więc swoista „nadgorliwość” krajowego ustawodawcy, która często przeczy celowi, który przyświecał unijnemu prawodawcy przy tworzeniu prawa.

- Podmioty krajowe i zagraniczne interesujące się prowadzeniem działalności w Polsce, już teraz podejmują działania dostosowujące, dlatego jasne regulacje, a także odpowiednie vacatio legis pozwoli im właściwie zaplanować działania – podkreśla mec. Ziomek.

Czytaj też: RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>

 

Polska nie jest gotowa, trzeba zacząć od podstaw

Dr Damian Flisak, radca prawny, specjalista w zakresie prawa własności intelektualnej oraz prawa nowych technologii, nie ma wątpliwości: na razie jesteśmy całkowicie nieprzygotowani na wdrażanie AI Act. Działania trzeba zacząć od absolutnych podstaw – na przykład rozstrzygnięcia, kto będzie pilotował i nadzorował dalsze prace.

- To, co nowy rząd powinien robić natychmiast, to jednoznaczne rozparcelowanie pomiędzy urzędami kompetencji w zakresie regulacji dotyczącej sztucznej inteligencji, w tym powierzenie jednemu ministerstwu wiodącej roli. Następnie administracja powinna zacząć ściągać specjalistów w tym zakresie, o których naprawdę nie jest łatwo. AI Act nakłada obowiązek wyznaczenia instytucji – niekoniecznie całego odrębnego urzędu – która będzie pilotowała sprawy związane z wdrażaniem i przestrzeganiem regulacji. Póki co, nasz kraj jest na to całkowicie nieprzygotowany – mówi ekspert.

Dr Flisak zaznacza, że konieczne jest sprawne działanie, po to, by nie powtórzyć błędów, które widać w przypadku dostosowywania się w przypadku aktu o usługach cyfrowych (DSA), który wchodzi w życie w lutym br.

- U nas nie ma nawet podjętego dialogu z potencjalnym kandydatem na pilotowanie DSA, czyli koordynatorem ds. usług cyfrowych. Jak niesie jedynie wieść gminna, w Polsce ma nim zostać Urząd Komunikacji Elektronicznej – mówi ekspert.

Polecamy w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >

 

Nowość
Prawo sztucznej inteligencji i nowych technologii 3
-20%
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Cena promocyjna: 159.2 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 179.1 zł


Nie tylko ustawy – jasne wskazówki też są ważne

Obaj eksperci są zgodni – podstawą jest powierzenie konkretnych zadań specjalistom. Potrzebne są też wytyczne, wskazówki co do tego, jak do AI Act będzie można się przygotować. W zasadzie nie ma bowiem sektora, na który sztuczna inteligencja nie będzie miała wpływu. A praktyka, z oczywistych powodów, nie miała jeszcze szansy się ukształtować.

- Na pewno korzystnym rozwiązaniem byłoby wypracowanie przez rząd zasad, nazwałbym to, higieny AI, czyli podstaw bezpiecznego korzystania z narzędzi sztucznej inteligencji przez administrację rządową, ale nie tylko. W tym momencie bardziej potrzebne są nam oficjalne wytyczne, wskazówki, a nie typowe „twarde” prawo. Polski ustawodawca powinien mieć też świadomość, że mimo wciąż trwających prac AI Act już w zasadzie istotnie się nie zmieni,  więc już teraz trzeba zacząć przygotowywać się do wdrażania przepisów. A wiele urzędów w Polsce będzie miało w tym zakresie coś do zrobienia – mówi dr Damian Flisak.

Czytaj też w LEX: ChatGPT i prawo autorskie Unii Europejskiej >

Mec. Ziomek podkreśla, że istotnym aspektem jest efektywne wsparcie administracji publicznej, w tym funkcjonowanie Grupy Roboczej ds. Sztucznej Inteligencji Ministerstwa Cyfryzacji.

- Dialog może pozwolić na szybsze dostosowanie do AI Act, ale również rozwiązywać problemy interpretacyjne podczas późniejszego stosowania przepisów. Uważam, że mamy duży potencjał i powinniśmy lepiej wykorzystać potencjał naszych ekspertów. Trzeba przede wszystkim postawić na specjalistów – podsumowuje prawnik.