Obecnie w prawie polskim brakuje definicji legalnej sztucznej inteligencji. Trzeba więc sięgać do rozwiązań międzynarodowych. Zgodnie z definicją przyjętą przez Organizację Współpracy Gospodarczej i Rozwoju pojęcie „sztuczna inteligencja” odnosi się do „systemu opartego na maszynie, który może, dla określonego zestawu celów określonych przez człowieka, przewidywać, rekomendować lub podejmować decyzje wpływające na środowisko rzeczywiste lub wirtualne”. Natomiast dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji dzieli sztuczną inteligencję na: systemy wysokiego ryzyka i pozostałe systemy sztucznej inteligencji.

Tymczasem kodeks cywilny przewiduje odpowiedzialność opartą na winie, ryzyku lub zasadzie słuszności. Z uwagi na to, że sztuczna inteligencja traktowana jest jako maszyna, to trudno jest jej przypisać odpowiedzialność za szkodę samej sztucznej inteligencji, ponieważ AI nie posiada podmiotowości prawnej. W praktyce powoduje to wiele turbulencji prawnych.

Czytaj też: Od 1 sierpnia obowiązują przepisy o sztucznej inteligencji

Al spowoduje szkodę, ale kto odpowiada

W wypadku AI istotne jest rozgraniczenie odpowiedzialności pomiędzy producentami systemów AI a ich użytkownikami. Co do zasady producent powinien być odpowiedzialny za błędy wynikające z konstrukcji i oprogramowania systemu, natomiast użytkownik za niewłaściwe użycie systemu. Kluczowe są jednak precyzyjne regulacje prawne w tym zakresie. A tych brak. Wciąż nie ma ustawy. Dlatego trudno jest dokładnie wskazać, kto ponosi odpowiedzialność za szkody spowodowane przez sztuczną inteligencję.

Co do zasady – w przypadku braku zapisów umownych, które regulują kwestię odpowiedzialności –  odpowiedzialność z tytułu powstałej szkody rozpatrywana jest na gruncie przepisów państwa, w którym powstała szkoda, jednakże brak  konkretnych przepisów dotyczących odpowiedzialności w przypadku szkody spowodowanej przez sztuczną inteligencję w poszczególnych krajach ma ten skutek, że jeśli osoba poszkodowana zdecyduje się na skierowanie sprawy na etap sądowy, to wówczas sąd zmuszony jest do stosowania dostępnych przepisów do konkretnego stanu faktycznego.

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Trudna walka o odszkodowanie

Uzasadnienie dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji  wskazuje na takie problemy, jak:

  • brak dopasowania przepisów krajowych dotyczących odpowiedzialności – w szczególności opartej na zasadzie winy – do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi oparte na sztucznej inteligencji oraz
  • trudność i wysokie koszty po stronie poszkodowanego przy ustaleniu osoby ponoszącej odpowiedzialność, z uwagi na cechy szczególne sztucznej inteligencji.

Obowiązujące przepisy krajowe dotyczące odpowiedzialności nakładają na osoby poszkodowane ciężar udowodnienia bezprawnego działania lub zaniechania osoby, która wyrządziła szkodę, co w odniesieniu do sztucznej inteligencji może okazać się niebywale trudne.

Obecnie w sytuacji, gdy osoba poszkodowana chce wyegzekwować naprawienie szkody powstałej na skutek wykorzystania sztucznej inteligencji na drodze sądowej nie ma pewności co do prawa, a tym samym nie jest w stanie przewidzieć sposobu stosowania przepisów odnoszących się do odpowiedzialności na gruncie obowiązujących przepisów.

Słusznie w uzasadnieniu analizowanej dyrektywy podkreślono możliwą eskalację utrudnień w przypadku przedsiębiorstw prowadzących handel transgraniczny. Brak pewności prawa dotyczyć może bowiem różnych stanów prawnych, co niewątpliwie stanowi utrudnienie w ocenie narażenia na odpowiedzialność za szkodę i zabezpieczenie się przed nią. Stanowi to również wyzwanie dla branży ubezpieczeniowej.

Międzynarodowa współpraca to podstawa

Sztuczna inteligencja nie zna granic. Międzynarodowa współpraca jest niezbędna więc do stworzenia spójnych regulacji prawnych. Klienci towarzystw ubezpieczeniowych muszą być świadomi ryzyk - transparentność i jasna komunikacja są więc kluczowe dla budowania zaufania klientów.

Aby skutecznie zarządzać ryzykiem związanym z AI, towarzystwa ubezpieczeniowe powinny inwestować w technologie monitorowania i audytu systemów AI. Takie rozwiązania pozwolą na bieżąco oceniać działanie systemów AI oraz szybko reagować na potencjalne zagrożenia.

Sztuczna inteligencja może mieć także znaczący wpływ na procedury roszczeniowe w towarzystwach ubezpieczeniowych. Automatyzacja procesów, analiza dużych zbiorów danych oraz wykorzystanie AI do oceny szkód mogą przyspieszyć i usprawnić obsługę roszczeń. Należy jednak pamiętać o konieczności zapewnienia odpowiedniego zabezpieczenia prawnego i technologicznego, aby uniknąć ewentualnych nadużyć i błędów.

Użycie sztucznej inteligencji w branży ubezpieczeniowej rodzić może jednak pytania natury etycznej. Istotne jest, aby towarzystwa ubezpieczeniowe stosowały AI w sposób zgodny z zasadami etyki, zapewniając m.in. ochronę prywatności klientów, transparentność algorytmów decyzyjnych oraz unikanie dyskryminacji. Regulacje prawne powinny wspierać te zasady, aby AI była używana w sposób odpowiedzialny, wobec czego uzasadnionym jest wprowadzenie konkretnych przepisów dotyczących odpowiedzialności w przypadku szkody spowodowanej przez sztuczną inteligencję.

Małe zaufanie do Al, to efekt braku przepisów

Sztuczna inteligencja jest niewątpliwie narzędziem, które niesie wiele korzyści, jednakże brak jasnych przepisów określających odpowiedzialność w przypadku szkody spowodowanej przez sztuczną inteligencję wpływa na brak pełnego zaufania do niej, co w konsekwencji skutkuje tym, iż nie jest ona jeszcze wykorzystywana na tak szeroką skalę, na jaką mogłaby być – biorąc pod uwagę jej możliwości. Odpowiedzialność odszkodowawcza w kontekście sztucznej inteligencji jest złożonym zagadnieniem, które wymaga uwzględnienia wielu aspektów prawnych, technologicznych i etycznych.

Sztuczna inteligencja jest wyzwaniem również dla branży ubezpieczeniowej z uwagi na swoją specyfikę. Polskie towarzystwa ubezpieczeniowe muszą być przygotowane na te wyzwania, dostosowując swoje procedury i produkty do dynamicznie zmieniającej się rzeczywistości. Wprowadzenie odpowiednich regulacji prawnych zarówno na poziomie krajowym, jak i międzynarodowym, jest kluczowe dla zapewnienia skutecznej ochrony osobom poszkodowanym oraz wspierania dalszego rozwoju technologii AI.

Klaudia Trzaska, adwokat w Kancelarii Prawnej Maciej Panfil i Partnerzy