Już w najbliższy weekend, 7-9 marca 2025 r., odbędzie się Legal Hackathon. Wydarzenie organizowane przez Wolters Kluwer Polska, jak co roku, gromadzi prawników, entuzjastów LegalTech oraz przedstawicieli branży IT. Przez trzy dni będą wymieniać doświadczenia, prezentować swoją wiedzy, ale przede wszystkim poszukiwać praktycznych zastosowań sztucznej inteligencji w pracy prawnika, wymiarze sprawiedliwości oraz rozwijać rozwiązania poprawiające dostęp do pomocy prawnej. W sobotę, 8 marca, odbędzie się Open LegalTech Day - dzień konferencyjny podczas, którego zostaną poruszone takie tematy jak: sztuczna inteligencja w prawie, legalTech dla wymiaru sprawiedliwości, legal design i innowacyjne modele biznesowe w prawie, czy cyberbezpieczeństwo - technologie wspierające bezpieczne państwo i ochronę danych.
AI w kancelariach ma się dobrze
Już ubiegłoroczny raport Future Ready Lawyer 2024 r., tworzony co roku przez Wolters Kluwer pokazał, jak bardzo istotna jest dla prawników sztuczna inteligencja. Z badania wynikało, że 76 proc. prawników z działów prawnych i 68 proc. prawników z kancelarii korzysta z GenAI przynajmniej raz w tygodniu. - Prawnicy aktywnie wdrażają tę technologię, aby zwiększyć swoją efektywność i szybciej spełniać coraz większe wymagania klientów. Innowacje te wpłyną również na tradycyjne modele biznesowe. 60 proc. prawników spodziewa się, że usprawnienia AI ograniczą powszechność rozliczania godzinowego - mówił Włodzimierz Albin, prezes Wolters Kluwer Polska.
Potwierdzają to rozmówcy Prawo.pl. - Sztuczna inteligencja może być bardzo przydatna w pracach kancelarii. Przede wszystkim pozwala skracać research - czy to w przeszukiwaniu dokumentów i wewnętrznych zasobów, czy po prostu wiedzy powszechnie dostępnej i aktów prawnych. Bardzo odciąża też w działaniach typu stworzenie infografik czy slajdów, a także po prostu obecności w social mediach - zaznacza Tomasz Palak, radca prawny, tomaszpalak.pl.
Zwraca na to uwagę też dr Maria Dymitruk, radca prawny, counsel w Olesiński i Wspólnicy, przewodnicząca Komisji Nowych Technologii w Federacji Adwokatur Europejskich. - Mam perspektywę dużej firmy doradczej, ponad 200-osobowej i muszę przyznać, że trudno sobie wyobrazić pracę bez wspomagania przez sztuczną inteligencję. Jeszcze kilka lat temu po takie narzędzia sięgały głównie duże kancelarie, bo wiązało się to z koniecznością posiadania i pewnego poziomu świadomości technologicznej oraz odpowiednich zasobów – finansowych czy osobowych. Od co najmniej dwóch lat żyjemy w rzeczywistości, w której narzędzia oparte na generatywnej AI przedostały się już do wszystkich gałęzi gospodarki i trudno udawać, że kancelarie prawne czy firmy doradcze są tutaj wyjątkiem. Z AI powinniśmy korzystać – choćby po to, by podnosić jakość dostarczanych klientom usług i przyspieszać pewne procesy - zaznacza.
Program Legal Hackathon 2025>>
Prawnicza Cassandra może nazmyślać
Na AI - jak podkreślają - prawnicy trzeba jednak uważać. - Korzystanie ze sztucznej inteligencji wiąże się z wyzwaniami - a dwa główne to bezpieczeństwo powierzanych jej informacji i danych oraz odpowiedzialność za halucynacje. Świadomość, że "AI może nazmyślać" i będzie to jednak nadal problem prawnika, warta jest nadal zwiększania - mówi mec. Palak.
Adwokat Piotr Krzak z komisji informatyzacji NRA wskazuje, że sztuczna inteligencja w postaci ogólnodostępnych narzędzi nie jest np. przeznaczona i rekomendowana do tworzenia pism procesowych. - Te narzędzia zawierają bardzo dużą liczbę wiadomości ogólnych, mają tendencję do halucynacji, a to powoduje, że ryzyko, które musi wziąć na siebie prawnik, który z nich korzysta, jest ogromne. Przykładem jest sytuacja ze Stanów Zjednoczonych, gdzie jeden z adwokatów zlecił AI pewne działania związane z poszukiwaniem precedensu w konkretnym obszarze prawnym. System wymyślił konkretny precedens, który nie istniał w rzeczywistości, prawnik tego nie skontrolował, przeniósł dane do pisma procesowego, a sąd to zweryfikował i wskazał, że takiego wyroku nie było. Skutkiem jest postępowanie dyscyplinarne, które może skończyć się usunięciem prawnika z zawodu - mówi.
Chodzi o Stevena Schwartza, którego ChatGPT wspomógł zmyślonymi i nader pasującymi do sprawy, którą się zajmował, orzeczeniami.
- Ponieważ jesteśmy prawnikami, powinniśmy podchodzić do tych narzędzi z dużą dozą ostrożności. Wynika to m.in. ze specyfiki danych, jakimi się posługujemy, szczególnie jeśli chodzi o informacje odnoszące się do naszych klientów - podkreśla dr Maria Dymitruk.
Edukacja i rozwaga
Dr Dymitruk wskazuje, że należy kłaść duży nacisk na edukację prawników w zakresie sztucznej inteligencji. – Jako Federacja Adwokatur Europejskich wydaliśmy wytyczne odnoszące się do zasad etyki europejskich zawodów prawniczych i wprowadzające kilka prostych zasad posługiwania się narzędziami generatywnej AI w pracy prawnika. Wśród nich na pierwszy plan wybijają się trzy kwestie. Pierwsza to poufność, na którą nakładają się zresztą różne obszary, jak chociażby zgodność z RODO czy obowiązek zachowania tajemnicy zawodowej (adwokackiej czy radcowskiej). Przykładowo, niedopuszczalna jest sytuacja, w której prawnik wprowadza dane dotyczące klienta do darmowego narzędzia genAI, nie mając kontroli nad tym, gdzie one trafią (w tym ,czy nie trafią poza Europejski Obszar Gospodarczy), kto i jak będzie je przetwarzał i czy nie zostaną one wykorzystane do trenowania modeli AI - wskazuje.
Kolejną kwestią jest odpowiedzialność. Prawnicy powinni być świadomi, że niezależnie od tego, jakiego narzędzia czy zasobu używają do świadczenia usług prawnych, to na nich spoczywa cały ciężar wszelkiej odpowiedzialności. Adwokat czy radca powinien wprowadzać takie mechanizmy (w tym ewentualne reguły kontrolne), które będą minimalizować ryzyka związane z wykorzystaniem AI, a jednocześnie umożliwiać wzięcie odpowiedzialności za rezultat dostarczany klientowi. Odpowiedzialność jest też związana z trzecim elementem: transparentnością. Należy ją rozumieć szeroko, wewnętrznie i zewnętrznie. Wewnętrznie – jako powinność dzielenia się z współpracownikami wiedzą o tym, że do realizacji konkretnego zadania wykorzystano AI i jaki był zakres tego wsparcia. Jeśli wiem, że przy pracy nad dokumentem korzystano z AI, to w tym kontekście będę go sprawdzać. Transparentność zewnętrzna sprowadza się natomiast do otwartości wobec klientów (w konkretnych przypadkach) w zakresie tego, jakie narzędzia AI są wykorzystywane. - mówi ekspertka.
Cena promocyjna: 179.1 zł
|Cena regularna: 199 zł
|Najniższa cena w ostatnich 30 dniach: 149.25 zł
Korzystaj, ale sprawdzaj
Dr Dymitruk podkreśla równocześnie, że materiały wygenerowane przy udziale AI zawsze muszą być skontrolowane. - Transparentność służy też temu byśmy mieli świadomość, że w danym przypadku – tłumaczeniu, optymalizacji tonu wypowiedzi czy analizie dokumentu – wykorzystano AI. Taka świadomość pozwala na odpowiedzialną weryfikację i przeciwdziałanie ewentualnym błędom, które mogą się pojawić - mówi.
Jak zaznacza, na obecnym etapie rozwoju dużych modeli językowych nikt nie może dać 100-procentowej gwarancji braku halucynacji powodujących, że w generowany przy ich pomocy dokument może zawierać błędy. - Już na poziomie wybierania narzędzia genAI możemy niwelować pewne ryzyka i np. kupić narzędzie RAG-owe, czyli takie, które przy generowaniu odpowiedzi dokonuje weryfikacji jej poprawności z jakąś bazą danych. Ale trzeba pamiętać, że żadne narzędzia, nawet RAG-owe, nie dają nam 100-procentowej pewności - mówi.
Adwokat Piotr Krzak zaznacza, że to samo dotyczy przeszukiwania orzeczeń sądowych. - Tu trzeba się opierać na wyspecjalizowanych systemach - takich jakie oferuje Wolters Kluwer Polska czy C.H. Beck - czyli firmy, które zajmują się pozyskiwaniem informacji prawnych, posiadają sprawdzone bazy danych oparte na rzeczywistych ustawach i przepisach. Przykładowo, w programie LEX są stosowane rozwiązania opierające się na AI, polegające na wyszukiwaniu kontekstowym orzeczeń dotyczących konkretnego problemu. Ale ten system - co istotne - opiera się o danych, które są wewnątrz niego. Jeśli byśmy prosili o wykonanie analogicznego zadania taki openAI-owy system, to jestem przekonany, że rezultaty mogą być obarczone sporym ryzykiem błędu - podsumowuje. Dodaje, że jest to też kwestia umiejętności korzystania z AI. - Żeby te prompty, pytania były sformułowane w taki sposób, by maksymalnie zabezpieczyć się przed takim ryzykiem. I aby odpowiedzi były jak najbardziej konkretne, a nie wymyślone - podsumowuje.
Dopytywany o obszary gdzie AI dobrze sobie radzi, mecenas wymienia m.in. przygotowanie umów na podstawie określonego szablonu. - Ale i tak z takim zastrzeżeniem, że trzeba pilnować zapisów, które są w umowie. Bazować na swojej wiedzy prawnej i wyuczonej. Nie może to się odbywać automatycznie i bez kontroli - wskazuje.
Czy klient ma wiedzieć o pomocy AI?
Rozmówcy Prawo.pl pytani czy prawnik powinien informować klienta o korzystaniu z takich narzędzi podkreślają, że nie ma takiego obowiązku prawnego.
- Nie wymusza tego żadna aktualnie obowiązująca norma prawna. Pytanie, czy nie powinniśmy tego robić z powodów etycznych. Dyskutowaliśmy nad tym w ramach Federacji, doprowadziło to nawet do przemodelowania jednej z zasad etycznych. W pierwszej wersji wytycznych z czerwca 2023 r. wprowadziliśmy twardą regułę informowania klienta, ale kiedy aktualizowaliśmy te wytyczne we wrześniu 2024 r., zastąpiliśmy ją regułą "bądź transparentny". W praktyce oznacza to, że nie w każdym przypadku wystąpi obowiązek informowania klienta, a raczej nakazuje dokonanie każdorazowej oceny, przy jakiego typu działaniach jest to potrzebne. Przykładowo: jeśli mam kancelarię, która obsługuje sprawy odszkodowań za odwołany lot i do generowania powództwa, trzonu mojej usługi prawnej, stosuję AI, to skłaniałabym się do uznania poinformowania klienta za mój obowiązek. Natomiast w sytuacji, gdy użyłam automatycznego tłumacza (oczywiście przy zastrzeżeniu zachowania poufności danych klienta) już nie, bo byłoby to już na granicy śmieszności. Przecież nawet nasze telefony są naszpikowane AI - podsumowuje dr Dymitruk.
- Nie są jeszcze uregulowane ramy etyczne dotyczące korzystania ze sztucznej inteligencji przez polskich prawników, a są już one rozpowszechnione wśród prawników w Europie Zachodniej, co więcej - funkcjonują podręczniki dotyczące zasad korzystania ze sztucznej inteligencji - mówi mec. Krzak. Przypomina, że NRA przystąpiła do prac dotyczących wskazania tych zasad. - Jedną z podstawowych powinno być to, że choć nie ma przeciwskazania do korzystania ze sztucznej inteligencji, to klient takiego pełnomocnika, który przygotowując pisma procesowe korzysta z narzędzi wykorzystujących AI, powinien być o tym poinformowany. Pełnomocnik powinien uzyskać na to zgodę z klienta, bo nie ukrywajmy, że to się wiąże z pewnym ryzykiem dotyczącym choćby wycieku danych - podsumowuje.
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.