Robot to nic innego jak algorytm. Inaczej zwany tzw. sztuczną inteligencją, ale nie ma odrębnej inteligencji robota. W politechnikach roboty są definiowane jako zaawansowane liczenie maszynowe. Roboty, które mają szerszy zasób danych wyjściowych są "inteligentniejsze" - szybsze, dokładniejsze, rozwiązują bardziej zaawansowane problemy niż te z mniejszym zasobem robota - twierdzi prof. Piotr Radziewicz z Wydziału Administracji i Nauk Społecznych Politechniki Warszawskiej.
Czytaj też: Prof. Stec: Ewaluacja działalności naukowej tylko pozornie obiektywna>>
Przewiduje się, że sztuczna inteligencja będzie częściej wykorzystywana w zapobieganiu przestępczości i w wymiarze sprawiedliwości w sprawach karnych, ponieważ mogłaby szybciej przetwarzać ogromne zbiory danych, dokładniej oceniać ryzyko ucieczki więźniów oraz przewidywać i zapobiegać przestępstwom lub nawet atakom terrorystycznym. Jest już używana przez platformy internetowe do wykrywania niezgodnych z prawem i niewłaściwych zachowań online oraz reagowania na nie - wskazują eksperci Parlamentu Europejskiego.
Algorytmy w zgodzie z prawami człowieka
Jednak, żeby zastosowanie sztucznej inteligencji nie zagrażało jej użytkownikom Unia Europejska zaproponowała regulację z perspektywy, która powinna stawiać w centrum prawa człowieka.
Jak twierdzi prezes Fundacji e-Państwo Krzysztof Izdebski, podstawowe obowiązki związane z dopilnowaniem, żeby systemy oparte na algorytmie były zgodne z prawami człowieka są przeniesione na ich producentów. Komisja Europejska, która przygotowała projekt, w praktyce promuje samoregulację dostawców. Oznacza to, że władze publiczne będą musiały w większości wypadków polegać na tym, że to firmy same z siebie właściwie zadbają o te kwestie. Kluczowa w tej sprawie jest ocena zgodności.
- Dobra wiadomość jest taka, że w przypadku wykazania nieprawidłowości instytucje publiczne mogą zażądać wycofania systemów z użycia. Zła wiadomość natomiast jest taka, że przy ocenianiu tych systemów organy kontrolne będą bazować na informacjach przygotowanych przez samych dostawców - wskazuje Krzysztof Izdebski.
Roboty wpływają na sądy
W Polsce wymiar sprawiedliwości wykorzystuje algorytm przy losowaniu sędziów. Jak on działa nie wiadomo, ale prawnicy podejrzewają, że jest wykorzystywany przez polityków do kształtowania ich woli politycznej. Przy pomocy robotów działa postępowanie mandatowe i nakazowe. Ponadto "sztuczna inteligencja" bez problemu prowadzi rozmowy przez internet i można zastosować ją w biurach obsługi klienta także w sądach.
Swoistego rodzaju teatr na sali sądowej jest potrzebny w wielu sytuacjach, ale nie we wszystkich - wskazują prawnicy. - Wymierzanie sprawiedliwości oparte na sztucznej inteligencji będzie pozbawione powagi "teatru", co może wpłynąć negatywnie na jego postrzeganie. Chociaż badania wskazują, że ludzie szybciej tracą zaufanie do programu komputerowego niż do człowieka.
Algorytm jako sprawca
Prof. Szymon Tarapata, adiunkt w Zakładzie Prawa Karnego Wykonawczego Uniwersytetu Jagiellońskiego podje przykład wskazujący na zawodność algorytmów. Otóż policja zatrzymała kierowcę, który włączył autopilota i przysnął przy kierownicy. Sztuczna inteligencja miała kontrolować trasę i przejazd, ale popełniła błąd. Wykroczenie przypisano kierowcy nie robotowi. Wniosek z tego płynie, że trzeba zachować kontrolę nad mechanizmami i za wykroczenia zawsze będzie odpowiadał człowiek. Relacje człowieka z rzeczami, nawet ulotnymi, uczuciami są uregulowane w kodeksie karnym. Np. znieważenie pomnika to przestępstwo, które czerpie swoją istotę z tego, że jest potencjalna widownia - mówi dr Kamil Mamak z Wydziału Prawa Uniwersytetu Jagiellońskiego, autor książki Prawo karne przyszłości.
- Podobnie jest przestępstwem obrazy uczuć religijnych. Warunkiem tego przestępstwa nie jest istnienie boga. Może tego boga nie być wcale, ale ustawodawca zdecydował się, że uczucia religijne są kwestią o społecznym znaczeniu - dodaje.
- Robot nie może odpowiadać karnie, nawet jeśli powoduje szkodę czy krzywdę, odpowiedzialność ponosi tylko człowiek - twierdzi dr Mamak.
Najwięcej problemów budzi sytuacja, w której nikt nie jest odpowiedzialny za przestępstwo. Kłopotliwe jest, że w przypadku sztucznej inteligencji, jej decyzje niekiedy są nieprzewidywalne. Zjawisko to jest nazwane luką w odpowiedzialności karnej i nie ma kogo ukarać. A chęć ukarania to sprawa związana z zachowaniem bezpieczeństwa. W takich sytuacjach następuje szukanie kozła ofiarnego - wyjaśnia dr Mamak.
Jak rozwiązać lukę braku odpowiedzialności. Są trzy teorie:
- skoro nie wiemy, jak regulować odpowiedzialność robotów, to lepiej ich nie uruchamiać (mało prawdopodobne)
- zmiana prawniczej metafory (przyjąć działanie sił natury, tak jak pioruna czy lawiny)
- quasi odpowiedzialność karna robotów ( Kserkses ukarał morze - wrzucił do niego kajdany)
Robot jako ofiara
Nie trzeba zmieniać prawa, by karać osoby, które uszkodzą mechanizmy sztucznej inteligencji. W art. 288 kodeku karnego przewiduje, że kto cudzą rzecz niszczy, uszkadza lub czyni niezdatną do użytku, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.
- Nie ma problemu z odpowiedzialnością karną sprawców zniszczenia robotów - wskazuje dr Mamak. - Robot zatem może być ofiarą jako przedmiot, a nie jako podmiot. Chociaż mechanizm nie ma statusu moralnego, jak np. zwierzęta.
Czy przemoc w stosunku do robotów powinna być zakazana? - zastanawia się dr Mamak i odpowiada twierdząco. - Dlatego, że ludzi czują empatię wobec robotów, nie chcą by mechanizmy te były niszczone, zwłaszcza w miejscach publicznych.
Relacje z rzeczami (nawet uczuciowe) mogą być chronione. Wskazują na to przepisy polskiego kodeksu karnego, takie jak:
- znieważenie uczuć religijnych ( art. 196 kk)
- znieważenie pomnika ( art. 261 kk)
- użycie znaku czerwonego krzyża w czasie działań wojennych ( art. 126 kk)
Ustawodawca chroni zatem nasze relacje z rzeczami, a w związku z tym można powiedzieć, że i relacje z robotami mogą być wpisane do ustawodawstwa - podsumowuje dr Mamak.
W materiale wykorzystano referat dr Kamila Mamaka wygłoszony, 28 maja 2021 r. w Katedrze Prawa Karnego UJ