Józef Kielar: Kilka miesięcy temu Parlament Europejski i Rada UE przyjęli rozporządzenie w sprawie sztucznej inteligencji Al Act (AIA). Co reguluje ten akt prawny i dlaczego nie został przyjęty w formie dyrektywy?

Anna Gawrońska: AI Act, czyli Akt o Sztucznej Inteligencji, to propozycja Unii Europejskiej mająca na celu ustanowienie ram prawnych dla rozwoju i stosowania sztucznej inteligencji. Głównymi jej celami  jest zapewnienie bezpieczeństwa i ochrona obywateli przed potencjalnymi zagrożeniami związanymi z AI, takimi jak dyskryminacja, czy naruszenie prywatności. Dodatkowo, wspomniany akt prawny koncentruje się na kategoryzacji systemów AI ze względu na różne kategorie ryzyka (niskie, średnie, wysokie) i wprowadzeniu odpowiednich wymagań dla każdej z nich. Do innych celów możemy zaliczyć zapewnienie przejrzystości systemów AI oraz ustanowienie organów nadzorczych odpowiedzialnych za monitorowanie i egzekwowanie przepisów. AI Act został zaproponowany jako rozporządzenie, ponieważ jest ono bezpośrednio stosowane we wszystkich państwach członkowskich UE, co zapewnia jednolite zasady i standardy w całej Unii. Dodatkowo, rozporządzenie wchodzi w życie natychmiast po przyjęciu, co pozwala na szybsze wprowadzenie nowych regulacji. Dyrektywa wymagałaby dodatkowego czasu na transpozycję przez każde państwo członkowskie. Nie bez znaczenia jest również fakt, iż rozporządzenie daje organom unijnym większe możliwości nadzoru i egzekwowania przepisów. Jest to niewątpliwie kluczowe w przypadku technologii o tak dużym potencjale i ryzyku jak AI.

Czy kwestia stosowania Al w medycynie jest uregulowana we wspomnianym rozporządzeniu unijnym?

Tak. AI Act obejmuje również kwestie związane ze stosowaniem sztucznej inteligencji w medycynie. W tym przypadku, systemy AI są klasyfikowane jako systemy wysokiego ryzyka ze względu na potencjalny wpływ na zdrowie i życie ludzi. W związku z tym, muszą spełniać restrykcyjne wymagania w kilku obszarach. Chodzi o to, żeby były dokładnie testowane i certyfikowane, aby zapewnić ich bezpieczeństwo i niezawodność. Dodatkowo, użytkownicy, w tym lekarze i pacjenci, muszą być informowani o tym, że mają do czynienia z systemem AI. Nie mniej ważny jest nadzór i monitorowanie systemów AI w medycynie. Wszystko po to, aby zapewnić zgodność z przepisami i standardami etycznymi.

Czytaj również: Przepisy miały pomóc lekarzom w używaniu AI, a mogą spowodować chaos

Sztuczna inteligencja może pomóc i pacjentowi, i lekarzowi - ale konieczna kontrola

Proszę podać przykłady stosowania sztucznej inteligencji w polskiej ochronie zdrowia i wskazać korzyści i zagrożenia, jakie wynikają z tego faktu.

Sztuczna inteligencja znajduje coraz szersze zastosowanie w polskiej ochronie zdrowia. Przykładem jest diagnostyka obrazowa, gdzie systemy AI wspomagają analizę obrazów medycznych, w badaniach takich jak RTG, tomografia komputerowa i rezonans magnetyczny. Innym przykładem są boty AI wykorzystywane do wstępnej segregacji pacjentów na podstawie ich objawów. Pomaga to w ustaleniu priorytetów udzielania pomocy medycznej w placówkach ochrony zdrowia. Algorytmy AI pomagają w analizie danych kardiologicznych, co pozwala na szybsze i dokładniejsze diagnozy oraz monitorowanie stanu zdrowia pacjentów z chorobami serca. Również chorzy mają do dyspozycji narzędzia z zastosowaniem AI, używane do  samodzielnego monitorowania stanu zdrowia, co pozwala na wczesne wykrywanie potencjalnych problemów zdrowotnych i szybką interwencję. Z kolei  przypadku lekarzy, systemy AI wspomagają ich w podejmowaniu decyzji klinicznych, analizując duże ilości danych medycznych i sugerując możliwe diagnozy oraz plany leczenia.

Czytaj w LEX: Odpowiedzialność za sztuczną inteligencję [projekt UE] > >

Wśród najważniejszych korzyści, płynących z zastosowania AI możemy wskazać automatyzację zadań, co może przyczynić się do zwiększenia efektywności i uwolnienia czasu pracowników na działania bardziej złożone i kreatywne. Ponadto, dzięki AI możliwe jest przetwarzanie i analizowanie dużych zbiorów danych w krótkim czasie, co prowadzi do lepszego podejmowania decyzji i rozwiązywania problemów. Może to przyczynić się do poprawy jakości usług i postępu w medycynie. Ze sztuczną inteligencją wiążą się też określone zagrożenia. Zgodnie  z prognozami, w sektorach, gdzie powtarzalne zadania mogą być łatwo zautomatyzowane może dojść do redukcji kadr. Z uwagi na charakter niektórych danych – zwłaszcza danych medycznych – istnieje ryzyko naruszeń prywatności i zagrożeń związanych z bezpieczeństwem danych. Pojawiają się też pytania o odpowiedzialność i etykę. Chociażby w przypadku błędnych decyzji podjętych w oparciu o AI.

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

No właśnie. Nie można całkowicie wykluczyć, że sztuczna inteligencja popełni błąd. Kto w takiej sytuacji ponosi za to odpowiedzialność? Programista, operator, a może ktoś inny?

Odpowiedzialność za błędy popełnione przez sztuczną inteligencję jest złożonym zagadnieniem i zależy od wielu czynników, w tym od kontekstu użycia AI, rodzaju błędu oraz przepisów prawnych obowiązujących w danym kraju. Jeśli błąd wynika z wadliwego kodu lub projektowania, odpowiedzialność może spoczywać na firmie lub osobach, które stworzyły i wdrożyły AI. W niektórych przypadkach odpowiedzialność może ponosić osoba lub organizacja, która używa AI, zwłaszcza jeśli nie przestrzegała zaleceń dotyczących jej użycia lub nie monitorowała jej działania odpowiednio. Firmy, które implementują AI w swoich produktach lub usługach, mogą być odpowiedzialne za błędy, zwłaszcza jeśli nie przeprowadziły odpowiednich testów lub nie zapewniły odpowiednich zabezpieczeń. W wielu krajach trwają prace nad regulacjami prawnymi dotyczącymi odpowiedzialności za działania AI.

Zobacz także w LEX: Prawo autorskie w obliczu rozwoju sztucznej inteligencji > >

 

Jakie mogą być konsekwencje prawne nieuregulowania sztucznej inteligencji w Polsce? Bardzo dużo mówi się bowiem o Al, a z drugiej strony zupełnie nie wiadomo, co i jak ją reguluje?

Brak odpowiednich regulacji dotyczących sztucznej inteligencji (AI) w Polsce może prowadzić do szeregu poważnych konsekwencji różnego rodzaju. Bez jasnych przepisów, obywatele mogą być narażeni na naruszenia prywatności. Z kolei firmy rozwijające i wdrażające technologie AI mogą napotkać trudności w zakresie ich wdrażania na rynku bez jasnych wytycznych prawnych, co może hamować innowacje i inwestycje. W przypadku wcześniej błędów AI, brak regulacji może prowadzić do niejasności w kwestii odpowiedzialności prawnej, co może skutkować długotrwałymi i kosztownymi sporami sądowymi. Brak standardów może utrudniać współpracę międzynarodową i integrację systemów AI z innymi krajami, co może ograniczać możliwości rozwoju i wdrażania nowych technologii.

Kiedy można spodziewać się zmian w polskim prawie dotyczących sztucznej inteligencji w medycynie?

Zmiany w polskim prawie dotyczące sztucznej inteligencji w medycynie są w toku, ale dokładny termin ich wprowadzenia w życie nie jest jeszcze znany. Proces legislacyjny na poziomie Unii Europejskiej, w tym AI Act został już zakończony. Rozporządzenie Parlamentu Europejskiego i Rady UE o sztucznej inteligencji weszło bowiem w życie 1 sierpnia 2024 r. i zacznie obowiązywać od 2 sierpnia 2026 r. Można spodziewać się, że zmiany w polskim prawie będą wprowadzane stopniowo w ciągu najbliższych kilku lat, aby zapewnić zgodność z unijnymi regulacjami oraz odpowiednie ramy prawne dla rozwoju i stosowania AI w medycynie.

Czytaj także w LEX: Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? > >