Chodzi o nowy art. 12 Kodeksu Etyki Lekarskiej, który przyjęto wraz z innymi zmianami, nad którymi medycy głosowali w maju br. Nowa wersja kodeksu zacznie obowiązywać od 1 stycznia 2025 r. Jednym z powodów, dla których zdecydowano się na zmiany w przepisach, jest postępująca cyfryzacja, która ma miejsce także w sektorze zdrowotnym. Coraz częściej w programach służących diagnostyce jest wykorzystywana sztuczna inteligencja. Stąd potrzeba uregulowania, jednak - jak oceniają jednak eksperci - ta nie do końca się udała.

Sztuczna inteligencja pomaga lekarzom

Jak wskazuje w rozmowie z Prawo.pl dr Anna Gawrońska ze Szkoły Głównej Handlowej w Warszawie (wywiad w całości ukaże się w serwisie w sobotę, 28 września), systemy AI coraz częściej znajdują zastosowanie w ochronie zdrowia i pomagają w precyzyjnej diagnostyce. - Przykładem jest diagnostyka obrazowa, gdzie systemy AI wspomagają analizę obrazów medycznych, w badaniach takich jak RTG, tomografia komputerowa i rezonans magnetyczny. Innym przykładem są boty AI wykorzystywane do wstępnej segregacji pacjentów na podstawie ich objawów. Pomaga to w ustaleniu priorytetów udzielania pomocy medycznej w placówkach ochrony zdrowia – wylicza dr Gawrońska.

Jak wyjaśnia, algorytmy AI pomagają też w analizie danych kardiologicznych, co pozwala na szybsze i dokładniejsze diagnozy oraz monitorowanie stanu zdrowia pacjentów z chorobami serca. - Również chorzy mają do dyspozycji narzędzia z zastosowaniem AI, używane do samodzielnego monitorowania stanu zdrowia, co pozwala na wczesne wykrywanie potencjalnych problemów zdrowotnych i szybką interwencję. Z kolei w przypadku lekarzy, systemy AI wspomagają ich w podejmowaniu decyzji klinicznych, analizując duże ilości danych medycznych i sugerując możliwe diagnozy oraz plany leczenia – wskazuje.
Zobacz w LEX: Czy jest się czego bać? O ujarzmieniu narzędzi AI opowiada Sebastian Grzywacz >

Dr hab. n.prawn. Radosław Tymiński, radca prawny i autor bloga Prawa Lekarzy podkreśla, że użycie sztucznej inteligencji w medycynie jest po prostu pożądane. - Są systemy, w których znajduje się baza milionów zdjęć rentgenowskich, na podstawie których program wykrywa potencjalne zmiany nowotworowe. To oczywiście lekarz ocenia i stawia ostateczną diagnozę - dzięki takiej pomocy wie jednak, na co zwrócić uwagę, i istnieje mniejsza szansa, że coś przeoczy – mówi.

Mec. Tymiński podaje też jako przykład systemy, które wykrywają niekorzystne interakcje przy przepisywaniu leków. - Lekarz może wówczas podjąć decyzję, że pacjent powinien mimo wszystko przyjmować leki, które mogą ze sobą nie współgrać, ale jest mniejsza szansa, że popełni błąd – wskazuje.

Czytaj również: Sztuczna inteligencja może pomóc i pacjentowi, i lekarzowi - ale konieczna kontrola

 


Czytaj w LEX: O sztucznej inteligencji w zdrowiu w gronie ekspertów >

Chaos terminologiczny

Z uwagi na coraz częstsze użycie AI w medycynie, nowy art. 12 KEL ma wskazać, kiedy i w jakiś sposób może korzystać z takiej pomocy. Konieczne jest spełnienie następujących warunków:

  1. poinformowanie pacjenta, że przy stawianiu diagnozy lub w procesie terapeutycznym będzie wykorzystana sztuczna inteligencja;
  2. uzyskanie świadomej zgody pacjenta na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym;
  3. zastosowanie algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty;
  4. ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmie lekarz.

 

Tyle że, jak zaznacza mec. Tymiński, niejasności dotyczące przepisu pojawiają się już na poziomie terminologicznym. - Przepis mówi o tym, że lekarz może korzystać z algorytmów sztucznej inteligencji przy spełnieniu pewnych warunków, ale uwaga – zgodnie z punktem dotyczącym świadomej zgody – lekarz ma uzyskać zgodę pacjenta na zastosowanie sztucznej inteligencji. I tutaj powstaje pewna rozbieżność terminologiczna, bo nie jest jasne, czy projektodawca celowo chciał rozróżnić „algorytm” od „sztucznej inteligencji” – wskazuje.

Wstęp przepisu mówi bowiem o „algorytmach”, punkt pierwszy i drugi – o sztucznej inteligencji, a trzeci znów o algorytmach. Zdaniem mec. Tymińskiego, to przykład chaosu terminologicznego. - Bo można dojść do wniosku, że jeżeli mamy uzyskać świadomą zgodę pacjenta na użycie sztucznej inteligencji w procesie diagnostycznym, to znaczy, że nie trzeba tej zgody odbierać w momencie użycia algorytmu sztucznej inteligencji – zauważa.

Ekspert wskazuje też, że w przepisie jest mowa o tym, że zastosowanie algorytmów może mieć miejsce tylko wtedy, jeżeli posiadają one odpowiednie certyfikaty. Pytanie więc, co projektodawca miał tutaj konkretnie na myśli. W Polsce ustawa dotycząca AI, która ma wdrożyć unijny Akt o Sztucznej Inteligencji (AI Act) jest na razie na etapie prekonsultacji – nie został opublikowany nawet zarys projektu. Nie ma więc unormowanych procedur, które pozwalałyby na uzyskanie jednolitych, zatwierdzanych przez urzędy certyfikatów.

Zobacz w LEX: Kodeks postępowania (RODO) dla sektora ochrony zdrowia (podmiotów wykonujących działalność leczniczą) >

Świadoma zgoda, czyli jaka?

W przepisie pojawia się też wymóg uzyskania „świadomej zgody pacjenta”. Może on więc także odmówić, pytanie jednak, jak w takiej sytuacji wyłączyć stosowanie programu do diagnostyki opartego na AI, i czy w ogóle byłoby to dla pacjenta pożądane. Mec. Tymiński wskazuje, że art. 12 KEL jest sformułowany, jego zdaniem, dość niefortunnie, bo świadoma zgoda generalnie opiera się na tym, że pacjent ma wiedzieć, jaki jest cel danej procedury medycznej, jakie jest ryzyko i alternatywa. - Jeżeli pacjent wybiera między appendektomią (chirurgicznym usunięciem wyrostka robaczkowego) klasyczną a laparoskopową, lekarz musi mu wytłumaczyć, z czym wiążą się oba zabiegi. Wyjaśni więc, że po klasycznej operacji blizna będzie większa, dłużej zostanie w szpitalu, ale za to chirurg sprawdzi, czy nic niepokojącego nie dzieje się w obrębie jamy brzusznej. Po zabiegu laparoskopowym blizna będzie mniejsza i pacjent szybciej wyjdzie do domu, ale za to większe prawdopodobieństwo, że chirurg nie będzie miał szansy zauważyć czegoś niepokojącego – wyjaśnia ekspert.

Dlatego właśnie, jego zdaniem, nowy art. 12 KEL jest sformułowany dość niefortunnie. - Pacjent nie ma bowiem tutaj wyboru, nie wyłączymy przecież części systemu, który opiera się na sztucznej inteligencji, jeśli nie wyrazi zgody na jego użycie. Nie ma tutaj realnej alternatywy – podkreśla.

Na początku września projekt komentarza do przepisu udostępniła Komisja Etyki Naczelnej Rady Lekarskiej. Podkreślono jednak, że „problem jest złożony”, dlatego jego ostateczna wersja zostanie udostępniona w późniejszym terminie, po wysłuchaniu głosów środowiska.