Unijne rozporządzenie w sprawie sztucznej inteligencji (AI Act) weszło w życie 1 sierpnia br., choć zanim przepisy zaczną obowiązywać, upłynie jeszcze trochę czasu – w przypadku większości z nich muszą minąć dwa lata. Rozporządzenie jest pierwszym aktem prawnym, który reguluje najistotniejsze zasady użycia i wykorzystywania sztucznej inteligencji w państwach należących do Unii Europejskiej (obejmują m.in. wymogi dotyczące transparentności algorytmów, oznaczania treści generowanych przez sztuczną inteligencję czy zasad wykorzystywania sztucznej inteligencji w sektorach usług publicznych). Przepisy są istotne także dla sektora medycznego, w którym sztuczna inteligencja jest coraz częściej wykorzystywana, np. pomocniczo w procesie diagnostyki obrazowej.

 

Systemy w medycynie muszą być niezawodne

AI Act dzieli systemy wykorzystujące sztuczną inteligencję według czterech kategorii ryzyk: niedopuszczalnego, wysokiego, średniego i minimalnego. Przykładowo, za niedopuszczalne ryzyko uznaje użycie sztucznej inteligencji do „śledzenia” ludzi w czasie rzeczywistym w przestrzeni publicznych i tzw. scoringu (profilowaniu na podstawie zachowania, wyglądu itp.), minimalne to natomiast takie, które nie stwarza zagrożenia dla praw i wolności oraz potencjalnych nadużyć prawa. Większość systemów opartych na sztucznej inteligencji, które są związane z medycyną, zostało zakwalifikowanych do kategorii wysokiego ryzyka – ma to związek choćby z wrażliwym charakterem przetwarzanych danych. - W sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne – wskazano w motywach rozporządzenia. Unijny prawodawca wskazał na potencjalną przynależność do kategorii wysokiego ryzyka m.in. wyrobów medycznych do diagnostyki in vitro.

Czytaj również: Gawrońska: Do stosowania sztucznej inteligencji w medycynie niezbędne są precyzyjne przepisy

Przepisy miały pomóc lekarzom w używaniu AI, a mogą spowodować chaos

 

AI w co najmniej 7 proc. polskich szpitali

O wyzwaniach w związku z postępującą cyfryzacją sektora medycznego, a także wykorzystywaniem sztucznej inteligencji w procesie diagnostyki, dyskutowali eksperci w ramach dyskusji panelowej „Informatyzacja podmiotów leczniczych, e-usługi i inne przełomy cyfrowe w zdrowiu”, która odbyła się w ramach V edycji konferencji Zmiany w Ochronie Zdrowia „Jakość w praktyce”, organizowanej przez Wolters Kluwer i Instytut Zarządzania w Ochronie Zdrowia Uczelni Łazarskiego. Jak wskazała Ligia Kornowska, dyrektor zarządzająca Polskiej Federacji Szpitali, choć sztuczna inteligencja często wydaje nam się czymś odległym i pozostającym raczej na etapie myślenia życzeniowego, w rzeczywistości może być bardziej powszechnie wykorzystywana, niż sądzimy. Jak przypomniała ekspertka, z raportu przygotowanego przez Centrum e-Zdrowia (dotyczącego stanu informatyzacji podmiotów leczniczych) wynika, że 7 proc. polskich szpitali wykorzystuje narzędzia bazujące na AI w procesie diagnostyki i leczenia pacjenta. Z tego 75 proc. podmiotów używa ich w procesie diagnostyki obrazowej, a pozostałe 25 proc. – również w zakresie wsparcia w prowadzeniu dokumentacji medycznej. – Warto podkreślić, że liczba ta może być niedoszacowana, ponieważ szpitale, które korzystają z usług teleradiologicznych mogą nie zdawać sobie sprawy, że wyniki badań, które otrzymują, są najpewniej wsparte algorytmami sztucznej inteligencji – podkreśliła Ligia Kornowska.

Zobacz także w LEX: Społeczne uwarunkowania wykorzystania sztucznej inteligencji w sądownictwie > >

Ekspertka oceniła, że jej zdaniem jedną z największych szans, jakie stwarza sztuczna inteligencja w sektorze opieki zdrowotnej, to opieka predykcyjna nad pacjentem. Na podstawie gromadzonych danych medycznych można byłoby przewidywać, który pacjent jest narażony na daną chorobę (np. cukrzycę, nowotwór) i informować go o tym, jeszcze zanim choroba wystąpi. – To przeniesie nas na zupełnie inny poziom opieki zdrowotnej, i wówczas faktycznie będziemy mogli mówić o ochronie zdrowia, a nie opiece nad chorobą – zauważyła Kornowska.

Przestrzegała również przed ewentualnymi próbami dodatkowego regulowania sektora medycznego, odrębnymi niż ustawa, nad którą obecnie pracuje resort cyfryzacji (ma ona wdrożyć przepisy AI Act na polskim gruncie). – Ale warto tworzyć wytyczne, na przykład dla podmiotów leczniczych, w zakresie tego, jak oceniać wdrażane algorytmy, i na co zwrócić uwagę, by uniknąć sytuacji, w której algorytm nie spełnia oczekiwań albo warunków prawnych – wyjaśniła.

Czytaj również: Sztuczna inteligencja może pomóc i pacjentowi, i lekarzowi - ale konieczna kontrola

Cyberbezpieczeństwo wymaga edukacji

Paneliści rozmawiali również o zagrożeniach w kontekście cyfryzacji, zwłaszcza cyberataków, które wiążą się ze szczególnie dotkliwymi konsekwencjami dla placówek medycznych – w grę wchodzą bowiem wrażliwe dane pacjentów. Dr hab. n. med., prof. UM Paweł Ptaszyński wskazał, że w praktyce konieczne jest tłumaczenie, jak najmniejsza nieostrożność w sieci może doprowadzić do cyberataków. Personel medyczny nie zawsze ma bowiem taką świadomość. Niezwykle istotna jest też prewencja, np. w postaci tworzenia kopii zapasowych. Dzięki temu, nawet jeśli nie uda się zapobiec cyberatakowi, placówka medyczna będzie w stanie szybciej wrócić do normalnego funkcjonowania. Zaznaczył też, że najważniejszą zasadą powinien zawsze być brak zaufania w sieci. – Musimy działać całościowo, bo czasami wystarczy drobny błąd jednej osoby, i możemy doprowadzić do bardzo trudnej sytuacji i paraliżu w placówce. To problem dla pacjenta, któremu nie można udzielić świadczenia, i dla lekarza, i dla bloku operacyjnego, który też wówczas „stoi” – podkreślał prof. Ptaszyński.

Czytaj także w LEX: Cyberbezpieczeństwo kancelarii prawnych >>

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź