"Prawo w nowej rzeczywistości AI - szanse i wyzwania" - najnowszy raport Wolters Kluwer i Law4AI pokazuje, że polscy prawnicy pokładają w sztucznej inteligencji spore nadzieje. Zresztą taki jest też trend światowy. Już ubiegłoroczny raport Future Ready Lawyer 2024 r., tworzony co roku przez Wolters Kluwer, pokazał, jak bardzo istotna jest i w najbliższym czasie będzie dla prawników AI. Z badania wynikało, że 76 proc. prawników z działów prawnych i 68 proc. prawników z kancelarii korzysta z GenAI przynajmniej raz w tygodniu. Także MS chce sięgać po generatywną sztuczną inteligencję, by wspomóc sądy, które są m.in. w kadrowym kryzysie. Trwa np. pilotażowy program digitalnego (cyfrowego) asystenta sędziego na razie w sprawach frankowych. - Niezależnie od tych pytań, nie mam wątpliwości, że AI zmieni naszą pracę na lepsze – pozwoli na większą efektywność, dokładność i dostępność usług prawnych. Kluczowe będzie jednak to, jak mądrze będziemy zarządzać tymi technologiami, aby zapewnić ich zgodność z przepisami prawa oraz z etyką zawodową - ocenia dr Dominik Lubasz, radca prawny, partner zarządzający w Lubasz i Wspólnicy Kancelaria Radców Prawnych. - Rozwiązania oparte na AI zaczynają kolonizować kolejne dziedziny życia społecznego i gospodarczego - wskazuje Jacek Żmuda, dyrektor Działu Zarządzania Produktami Wolters Kluwer Polska. Jako przykład korzystania z możliwości AI wskazuje programu LEX. - To cały zestaw unikalnych funkcjonalności wokół orzecznictwa, które zbudowaliśmy przy wsparciu sztucznej inteligencji. W eksperckim, prawniczym zespole przygotowaliśmy m.in. nowe rozwiązania służące zaawansowanej analizie orzeczeń, które są dostępne w programie LEX Kompas Orzeczniczy 2.0 - podkreśla.

Zobacz wzór w LEX: Polityka korzystania przez pracowników z modeli AI>

 

Czytaj: AI może wspomagać sędziego, ale nie powinna wydawać wyroków>>

Asystent AI - znajdzie błędy w umowie i oceni szansę na wygraną 

Mecenas Lubasz, pytany o wykorzystanie AI w pracy kancelarii, wskazuje, że jedną z pierwszych rzeczy jest automatyzacja powtarzalnych zadań – chodzi m.in. o te związane z czasochłonnymi czynnościami administracyjnymi, jak analiza umów, przegląd dokumentów czy prowadzenie korespondencji. Dzięki narzędziom opartym na AI mogę zlecać te zadania maszynom, które wykonują je nie tylko szybciej, lecz także z większą precyzją. Przykładowo, wdrożenie AI w obszarze analizy dokumentów pozwala na szybkie przeszukiwanie tysięcy stron pod kątem określonych fraz, klauzul czy zapisów prawnych. Wcześniej proces taki zajmowałby wiele godzin, a nawet dni. Dziś AI może to zrobić w ciągu kilku minut, umożliwiając prawnikom skupienie się na bardziej zaawansowanych aspektach sprawy – strategii, interpretacji i komunikacji z klientami – zapewnia.

Zobacz szkolenie w LEX: Wykorzystanie AI w pracy prawnika ze szczególnym uwzględnieniem analizy orzecznictwa>

Kolejnym obszarem, w jego ocenie, jest automatyzacja tworzenia i analizy dokumentów. Chodzi m.in. o umowy, regulaminy. Dzięki narzędziom AI możliwe jest generowanie dokumentów prawnych na podstawie dostarczonych danych i z wykorzystaniem standardowych szablonów – zaznacza i dodaje, że sztuczna inteligencja umożliwia też analizę zapisów prawnych pod kątem ryzyka, a nawet może rozpoznawać potencjalnie ryzykowne klauzule, zasugerować poprawki i wskazać niezgodności z prawem.

Asystent AI potrafi też przeprowadzić analizę predykcyjną, czyli prognozować wyniki spraw sądowych. Dzięki analizie dużych zbiorów danych AI jest w stanie wykryć wzorce w orzecznictwie, które mogą być trudne do zauważenia dla człowieka. Na przykład narzędzie może wskazać, jak dany sędzia zazwyczaj orzeka w określonym typie spraw, jakie argumenty były najskuteczniejsze w przeszłości lub jaką linię obrony warto zastosować. Dla kancelarii oznacza to przewagę konkurencyjną, ponieważ takie analizy mogą prowadzić do bardziej trafnych decyzji i lepszego przygotowania do procesów sądowych – wskazuje Lubasz.

Nieodzowne jest również jej wsparcie w zarządzaniu kancelarią. AI może analizować dane dotyczące przepływu spraw, efektywności pracy zespołu, a nawet przewidywać, które sprawy mogą wymagać więcej zasobów w przyszłości. Te systemy zarządzania mogą również monitorować zgodność z przepisami dotyczącymi przechowywania dokumentów czy fakturowania, co staje się coraz bardziej istotne w świetle regulacji takich jak RODO czy ustawa o przeciwdziałaniu praniu pieniędzy i finansowaniu terroryzmu – wskazuje dr Lubasz. 

Czytaj komentarz w LEX: Zakazane praktyki w świetle AI Act>

Czytaj: AI pod kontrolą - pomoże kancelarii, bez kontroli - wpędzi ją w kłopoty>>

AI potrzebuje czujnego oka szefa

Dr Maria Dymitruk, radca prawny, counsel w Olesiński i Wspólnicy, przewodnicząca Komisji Nowych Technologii w Federacji Adwokatur Europejskich, wskazuje jednak na konieczność edukacji prawników w zakresie korzystania ze sztucznej inteligencji. – Jako Federacja Adwokatur Europejskich wydaliśmy wytyczne odnoszące się do zasad etyki europejskich zawodów prawniczych i wprowadzające kilka prostych zasad posługiwania się narzędziami generatywnej AI w pracy prawnika. Wśród nich na pierwszy plan wybijają się trzy kwestie. Pierwsza to poufność, na którą nakładają się zresztą różne obszary, jak chociażby zgodność z RODO czy obowiązek zachowania tajemnicy zawodowej (adwokackiej czy radcowskiej). Przykładowo, niedopuszczalna jest sytuacja, w której prawnik wprowadza dane dotyczące klienta do darmowego narzędzia genAI, nie mając kontroli nad tym, gdzie one trafią (w tym, czy nie trafią poza Europejski Obszar Gospodarczy), kto i jak będzie je przetwarzał i czy nie zostaną one wykorzystane do trenowania modeli AI. Drugi element to kwestia odpowiedzialności. Prawnicy powinni być świadomi, że niezależnie od tego, jakiego narzędzia czy zasobu używają do świadczenia usług prawnych, to na nich spoczywa cały ciężar wszelkiej odpowiedzialności – mówi. Przyznaje, że na obecnym etapie rozwoju dużych modeli językowych nikt nie może dać 100-procentowej gwarancji braku halucynacji powodujących, że generowany przy ich pomocy dokument może zawierać błędy.

Zobacz szkolenie w LEX: Sztuczna inteligencja (AI) a RODO – co musisz wiedzieć?>

Prawnicy powołują się zresztą na konkretny, z życia wzięty przykład. – Prawnik z USA, Steven Schwartz, wygenerował pismo procesowe przy pomocy ChatGPT i w dokumencie znalazły się odwołania do nieistniejących orzeczeń sądowych. Skończyło się to dla niego i jego kancelarii odpowiedzialnością. Warto być więc świadomym, że już na poziomie wybierania narzędzia genAI możemy niwelować pewne ryzyka i np. kupić narzędzie RAG-owe, czyli takie, które przy generowaniu odpowiedzi dokonuje weryfikacji jej poprawności z jakąś bazą danych. Ale trzeba pamiętać, że żadne narzędzia, nawet RAG-owe, nie dają nam 100-procentowej pewności – mówi Dymitruk.

Czytaj komentarz w LEX: Odpowiedzialność cywilna za szkody wyrządzone klientom w wyniku wykorzystywania przez radców prawnych systemów sztucznej inteligencji>

 

Sztuczna inteligencja majątek rozdzieli? 

Kolejnym obszarem, w którym – jak wskazują autorzy raportu "Prawo w nowej rzeczywistości AI – szanse i wyzwania" – mogłaby się rozgościć sztuczna inteligencja, jest sądownictwo. Patrycja Dolniak, sędzia, doktor nauk prawnych, adiunkt w Instytucie Nauk Prawnych Akademii Humanitas w Sosnowcu, wskazuje, że polscy sędziowie wykorzystują obecnie systemy, którym – jak ocenia – daleko do nowoczesnych rozwiązań technologicznych opartych na sztucznej inteligencji.

Tymczasem na świecie są już dostępne rozwiązania wykorzystujące sztuczną inteligencję do przyspieszenia i ułatwienia pracy w wymiarze sprawiedliwości. Europejscy sędziowie mogą korzystać m.in. z systemów automatycznie dokonujących anonimizacji orzeczeń celem umieszczenia ich w centralnej bazie wyroków. Dostępne są systemy wykorzystujące AI do analizy i przetwarzania przychodzącej do sądu poczty. Narzędzia wspomagające proces decyzyjny to choćby modele pozwalające na ustalenie majątku wspólnego małżonków – wymienia. Jak dodaje, sędziowie w innych krajach mają dostęp do narzędzi analizujących sprawy pod kątem prawdopodobieństwa określonego rozstrzygnięcia czy też prawdopodobieństwa recydywy. – Sztuczna inteligencja wspiera również wymiar sprawiedliwości w czynnościach związanych z określeniem potrzeb więźniów z punktu widzenia skutecznej resocjalizacji. Zaprojektowano systemy przeznaczone do konkretnych rodzajów spraw, jak choćby do sporów dotyczących pasażerów linii lotniczych. Analizują one pisma procesowe i wspomagają sędziów w szybkim tworzeniu projektów wyroków oraz ich uzasadnień – dodaje.

Sędzia Katarzyna Orłowska-Mikołajczak z wydziału gospodarczego Sądu Rejonowego w Koszalinie zastrzega jednak, że nie można zapominać o art. 45 Konstytucji, czyli o prawie do sądu, jawnego, bezstronnego, niezawisłego. – W mojej ocenie, jego oczywistą konsekwencją jest to, że AI może być wykorzystywana w sądach tam, gdzie nie wchodzi w kompetencje orzecznicze – wskazuje. I dodaje, że chodzi, przykładowo, o pomoc w zarządzaniu sprawami, generowaniu dokumentów, które ułatwiłoby sprawne, skuteczne i szybkie prowadzenie postępowania dowodowego.

Czytaj także komentarz w LEX: Przetwarzanie danych osobowych pracowników przy pomocy AI>

 

Deepfake i sędziego zwiedzie

Przykładem zagrożeń związanych z wykorzystaniem AI jest ryzyko deepfake w postępowaniu dowodowym przed sądem. – W dobie coraz łatwiejszego dostępu do programów, które umożliwiają wykreowanie lub modyfikację obrazu, należy się zastanowić, na ile dowód z zapisu obrazu pozostaje wiarygodnym dowodem w postępowaniu sądowym – zastanawia się sędzia Dolniak. Jak wskazuje, nie budzi wątpliwości, że dowodem zawierającym zapis obrazu jest m.in. zdjęcie.

Dowód ten sąd przeprowadza, stosując odpowiednio przepisy o dowodzie z oględzin oraz o dowodzie z dokumentów. Oczywiście każdy taki dowód podlega ocenie sądu w ramach swobodnej oceny dowodów. Warto jednak mieć na uwadze, że w przypadku, kiedy jedna ze stron procesu wywodzi, że przedłożony przez drugą stronę dowód z zapisu obrazu został zmanipulowany, to strona podnosząca ten zarzut musi wykazać prawdziwość swoich twierdzeń – mówi. Przyznaje, że oparcie się przez sędziego na takim dowodzie może natomiast prowadzić do wydania nieprawidłowego wyroku. – A co za tym idzie, wiązać się z negatywnymi konsekwencjami dla stron postępowania, a także osłabiać zaufanie do wymiaru sprawiedliwości – podkreśla.

W jej ocenie niezbędny jest dialog z sędziami, który uwrażliwi ich na skalę zagrożeń dla sprawiedliwego procesu, jakie niesie nowoczesna technologia. – Równie ważne jest także tworzenie szkoleń adresowanych do sędziów, które pozwolą im rozwijać swoje kompetencje w dziedzinie nowoczesnych technologii. W tym kontekście należy również położyć nacisk na potrzebę szerokiej edukacji w środowisku sędziowskim w zakresie sposobów identyfikacji deepfake’ów, jak choćby brak światła w oczach osoby na zdjęciu czy wadliwa perspektywa. Rzecz jasna, nie można oczekiwać od sędziego, że każdorazowo będzie samodzielnie w stanie ustalić, że dany zapis obrazu jest wytworem sztucznej inteligencji. Szkolenia takie mogą jednak nieść taki skutek, że sędzia dopuszczając dowód z zapisu obrazu, w tym ze zdjęcia, będzie wyczulony na możliwość jego manipulacji – podsumowuje.

Czytaj komentarz w LEX: Kary w akcie ws. sztucznej inteligencji>