O tym, że wdrożenie rozwiązań opartych na nowoczesnych technologiach tak naprawdę „wymusiła” już pandemia Covid-19, mówili przedstawiciele resortu zdrowia podczas posiedzenia podkomisji stałej ds. ochrony zdrowia. To w czasie pandemii rozwinęła się znacząco telemedycyna, w ramach której przeprowadzono kilka pilotaży urządzeń, które zdalnie monitorują stan zdrowia pacjenta. To m.in.: e-stetoskop (umożliwiający samodzielne badanie pacjenta z domu i wysyłanie nagrania dźwiękowego lekarzowi), opaska telemedyczna (była przeznaczona dla pacjentów, którzy przeszli Covid-19 i byli z tego powodu hospitalizowani; chodziło o regularny pomiar parametrów życiowych i możliwość szybkiego wezwania pomocy) i zdalna spirometria (badanie wydolności płuc; pilotaż był przeznaczony dla POZ-ów i AOS-ów). Jak zapowiadano podczas komisji, w najbliższych planach jest testowanie nowoczesnego urządzenia do realizacji zdalnego badania EKG.

Sztuczna inteligencja pomoże lekarzowi

To jednak nie wszystko. Hubert Życiński, zastępca dyrektora departamentu innowacji w MZ zapowiedział, że resort zdrowia stawia na rozwój innowacyjnych rozwiązań w medycynie, opartych na nowych technologiach. Nad rozwiązaniami pracuje zespół ekspertów. W niedalekiej przyszłości przewidywane jest powstanie co najmniej dwóch usług opartych na sztucznej inteligencji: pierwsze z narzędzi ma wspomagać analizę stanu zdrowia pacjenta, drugie - decyzje diagnostyczne i kliniczne. - Jedno z tych narzędzi będzie kierowane bezpośrednio do pacjentów, drugie do kadry medycznej – zapowiedział.

Warto przy tym przypomnieć, że w związku z coraz częstszym wykorzystywaniem AI tak naprawdę we wszystkich dziedzinach życia, ogólne zasady etycznego używania algorytmów w medycynie zostały sformułowane również w najnowszej wersji Kodeksu Etyki Lekarskiej, który wejdzie w życie 1 stycznia 2025 r. Został on znowelizowany po raz pierwszy od 20 lat. Art. 12 kodeksu będzie stanowić, że lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji, ale przy spełnieniu następujących warunków:

  1. poinformowania pacjenta, że przy stawianiu diagnozy lub w procesie terapeutycznym będzie wykorzystana sztuczna inteligencja;
  2. uzyskania świadomej zgody pacjenta na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym;
  3. zastosowania algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty;
  4. i zapewnieniu, że ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmuje lekarz.

Czytaj też: Zakaz reklamowania się zniknie z kodeksu etycznego lekarzy

AI wspomaga ocenę badań i skomplikowane operacje

O tym, do czego może przydać się AI w zdrowiu, piszą eksperci Think Thanku dla Ochrony Zdrowia Szkoły Głównej Handlowej. W najnowszym raporcie „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce” wskazują, że algorytmy AI znajdują swoje zastosowanie w praktycznie każdym obszarze ochrony zdrowia. Przykładowo, sztuczna inteligencja może być (i jest wdrażana na świecie) do tworzenia np.: chatbota do obsługi zapytań pacjenta, translatora wiedzy o zdrowiu, systematyzowaniu danych pacjenta, rekomendowania skierowań na badania, tworzenia programów zdrowotnych czy gotowych wypisów ze szpitala.

Jak podają autorzy raportu, w zakresie wspomagania lekarzy jedne z najbardziej zaawansowanych rozwiązań wdrożyła Dania. W kraju funkcjonuje przesiewowy program nowotworów piersi. Wyniki mammografii pacjentek w pierwszej kolejności ocenia algorytm, który posługuje się skalą od 1 do 10. Wynik między 1-5 wskazuje, że badanie było analizowane raz i nie dopatrzono się anomalii; 6-10 wymaga podwójnej oceny. Wynik powyżej 9,98 powoduje natychmiastowe skierowanie pacjentki na badania, co również robi automatycznie algorytm. Sztuczna inteligencja jest zresztą coraz częściej wykorzystywana właśnie do pomocniczego analizowania zdjęć rentgenowskich. W raporcie wskazano też, że AI bardzo szeroko wykorzystuje się w chirurgii robotycznej. AI pomaga np. w eliminacji drżenia rąk chirurga i przekształca jego ruchy w mikroskopijne, dokładne ruchy narzędzi chirurgicznych, co pozwala na wykonywanie skomplikowanych operacji z większą precyzją.

A jak jest w Polsce? Na stronie pacjent.gov.pl możemy zadawać pytania wirtualnemu asystentowi – chatbotowi, który pomaga w nawigacji w usługach e-zdrowia. Powoli rozwija się także wykorzystanie pomocy algorytmów w radiologii i onkologii. Przykładów jest oczywiście więcej, niemniej jednak eksperci oceniają, że Polska dopiero się pod tym względem rozwija. Konieczne będzie też wdrożenie rozwiązań zapewniających bezpieczeństwo. Na razie np. z cyberbezpieczeństwem i ochroną danych radzimy sobie jeszcze nie najlepiej.

Pytania o błędy medyczne i bezpieczeństwo danych

Eksperci zaznaczają, że w kontekście sztucznej inteligencji duże znaczenie będzie miał oczywiście AI Act, czyli Akt o sztucznej inteligencji, który został ostatecznie zatwierdzony przez UE i ma zostać niedługo opublikowany. Nie dotyczy on ściśle ochrony zdrowia, ale stosowanie większości przepisów będzie uniwersalne. Jeśli zaś chodzi o potencjalne wyzwania w sektorze zdrowotnym, eksperci widzą ryzyka zwłaszcza związane z określaniem, kto odpowie za ewentualne błędy medyczne, które zostaną popełnione „z pomocą” algorytmów. - Trudno określić, czy odpowiedzialnym w takim przypadku byłby system, który błędnie przetworzył dane, dostawca tego systemu, czy też lekarz, który skorzystał z otrzymanej informacji – zauważa Alicja Rytel, adwokat w kancelarii Patpol Legał Piróg i Wspólnicy.

Wysokie ryzyko wiąże się niewątpliwie z narażeniem na potencjalne cyberataki i wycieki danych. - Również przyjęte rozporządzenie w sprawie europejskiej przestrzeni danych dotyczących zdrowia (European Health Data Space), które zrewolucjonizuje system e-zdrowia w Unii Europejskiej, wymusi zmiany prawne w Polsce, w szczególności w zakresie przystosowania przepisów dot. dokumentacji medycznej i zasad ich udostępniania – przypomina Natalia Sałata, adwokat w kancelarii ETHICA.

Podmioty działające w ochronie zdrowia zmierzą się też z obowiązkami wynikającymi z AI Act. - Regulacja ta określa różne stopnie ryzyka, jakie stwarzają systemu oparte na sztucznej inteligencji. Im większe ryzyko, tym większe obowiązki nakładane są na dostawców i użytkowników systemów. Niewykonanie tych obowiązków skutkuje wysokimi karami finansowymi. Wydaje się, że system do użytku w dziedzinie medycyny, z uwagi na wrażliwe dane, na jakich będzie pracował, a także możliwe konsekwencje błędów w działaniu, może stanowić system wysokiego ryzyka – ocenia Alicja Rytel.