Narzędzia generatywnej sztucznej inteligencji umożliwiające „tworzenie” treści, takich jak na przykład teksty czy grafiki, są w praktyce wykorzystywane przez autorów przy tworzeniu przez nich ich własnych dzieł. Nietrudno wyobrazić sobie sytuację, w której tekst wygenerowany przez narzędzia sztucznej inteligencji zostaje włączony do pewnej większej całości stworzonej przez człowieka (na przykład artykułu) i staje się w tej większej całości nierozpoznawalny. W praktyce trudno „na pierwszy rzut oka” (a często nawet po głębszej analizie) rozpoznać, że dany fragment został „wykreowany” przez sztuczną inteligencję.  

Pojawia się zatem pytanie o to, czy takie wytwory sztucznej inteligencji użyte w ramach własnego dzieła (własnego, czyli stworzonego przez człowieka) powinny być oznaczone jako niepochodzące od autora – na przykład tak, jak ma to miejsce w przypadku cytowania cudzego utworu, kiedy to dany fragment odpowiednio się oznacza i wskazuje jego twórcę i źródło.

W artykule chcemy zwrócić uwagę na problematykę oznaczania wytworów wygenerowanych przez sztuczną inteligencję, które następnie zostają włączone do utworów stworzonych przez ludzi. Dla uproszczenia wytwory wygenerowane przez sztuczną inteligencję określamy „wytworami AI”. Chodzi przy tym wyłącznie o wytwory AI, które nie są chronione prawem autorskim. Nie będziemy analizować tego, kiedy i czy w ogóle takie wytwory mogą być utworem w rozumieniu prawa autorskiego (na przykład z uwagi na to, że są efektem skomplikowanego promptowania). 

Intuicyjnie wydaje się oczywiście, że oznaczanie wytworów AI oznaczenie powinno zostać wykonane, ale czy obowiązek takiego oznaczania wynika wprost z przepisów prawa autorskiego lub innych przepisów prawa? Poza zakresem tego artykułu zostawiamy ewentualne wymogi oznaczania wytworów AI wynikające z warunków korzystania z konkretnego narzędzia, za pomocą którego zostały one wygenerowane.

Przejęcie treści wygenerowanych przez AI a plagiat

Sam problem przejmowania cudzych treści i włączania ich do własnego utworu bez ujawniania, że nie pochodzą od autora jest oczywiście problemem dla prawa autorskiego bardzo klasycznym i związanym z bezprawnym przypisaniem sobie autorstwa (tzw. plagiat). Takiej sytuacji dotyczy art. 115 ust. 1 prawa autorskiego, który penalizuje przywłaszczanie sobie autorstwa i wprowadzanie w błąd co do autorstwa całości lub części cudzego utworu albo artystycznego wykonania. Kluczowe jest jednak, że ten przepis wprost dotyczy właśnie „cudzego utworu”. Poza jego zakresem pozostaje przywłaszczenie sobie „autorstwa” przedmiotu, który nie jest chroniony prawem autorskim, a więc na przykład pomysłu czy właśnie wytworu AI (słowo „autorstwo” jest oczywiście w tym wypadku nieprzystające, ale używamy go celowo i używając niżej w odniesieniu do wytworów AI będziemy stosować cudzysłów).

Przywłaszczenie sobie „autorstwa” wytworu AI (przez brak odpowiedniego oznaczenia wytworu AI, co sugerowałoby, że taki wytwór pochodzi od autora) nie byłoby więc plagiatem w rozumieniu obecnych przepisów, bo plagiatem zasadniczo nie jest sytuacja, w której przypisanie dotyczy czegoś, co prawem autorskim chronione nie jest.

Również regulacje dotyczące prawa cytatu nie będą dotyczyć korzystania z wytworów AI we własnych dziełach. Przepisy o dozwolonym użytku (w tym o prawie cytatu) wprost dotyczą wyłącznie korzystania z utworów chronionych prawem autorskim. Naruszenie zasad regulujących dozwolony użytek (na przykład przez brak podania źródła) w przypadku, gdy korzystanie dotyczy wytworu, który prawem autorskim chroniony nie jest, nie będzie więc stanowiło naruszenia przepisów prawa autorskiego.

Czytaj też: AI Act ma pomóc utrzymać w ryzach narzędzia oparte na sztucznej inteligencji

Przypisanie "autorstwa" a konsekwencje

Jak więc należałoby ocenić sytuację, w której autor nie ujawnia, że część jego dzieła to wytwory wygenerowane przez AI, skoro potencjalnie nie stanowiłoby to ani plagiatu, ani naruszenia przepisów o dozwolonym użytku?

Oczywiście, w konkretnych przypadkach przypisanie sobie "autorstwa” niechronionych wytworów AI może nieść za sobą dla takiej osoby negatywne konsekwencje (na przykład dyscyplinarne w przypadku pracowników naukowych). Będą to jednak konsekwencje zależne od sytuacji, w której takie działanie miało miejsce. Nie zawsze też wyciągnięcie innych konsekwencji niż dyscyplinarne będzie możliwe. Przykładowo, zgodnie z art. 195 ustawy Prawo o szkolnictwie wyższym i nauce w przypadku, gdy osoba ubiegająca się o stopień doktora przypisała sobie autorstwo istotnego fragmentu lub innych elementów cudzego utworu lub ustalenia naukowego, podmiot doktoryzujący stwierdza nieważność decyzji o nadaniu stopnia. W tym wypadku również przepis odnosi się do „cudzego utworu”, a dodatkowo do „ustalenia naukowego”. Wydaje się, że również w tym przypadku przypisanie sobie „autorstwa” wytworu AI literalnie pozostawałoby poza zakresem tego akurat przepisu.

Nasuwa się zatem pytanie, jakie realne konsekwencje powinny spotkać osobę przypisującą sobie „autorstwo” wytworu AI? Być może jednak pytaniem, które należałoby zadać jest pytanie o to, czy takie konsekwencje w ogóle powinny nastąpić? Zapewne zgodzimy się powszechnie, że w pewnych, ściśle określonych przypadkach (na przykład właśnie dotyczących uzyskiwania stopni naukowych) negatywne konsekwencje powinny wystąpić, ale czy tak powinno być w większości przypadków? Nieco upraszczając, czy czytelnicy tego artykułu powinni wiedzieć, że konkretny fragment tego artykułu to tekst wygenerowany przez AI (gdyby faktycznie tak było)?

Trudno sobie oczywiście wyobrazić zmianę art. 115 ust. 1 prawa autorskiego w taki sposób, żeby penalizował przywłaszczanie sobie autorstwa i wprowadzanie w błąd nie tylko co do autorstwa cudzego utworu, ale też „autorstwa” wytworów AI. Wydaje się jednak, że w przypadku prac dyplomowych czy prac doktorskich takie zmiany byłby bardziej realne i jak wspomnieliśmy wyżej – zapewne też zgodne z oczekiwaniami.

W innych przypadkach należałoby zapewne – przynajmniej na ten moment – zastanowić się nad wprowadzeniem wewnętrznych regulacji sektorowych przez poszczególne instytucje, branże czy samorządy zawodowe (na przykład przez określenie odpowiednich norm obowiązujących radców prawnych i adwokatów w ramach zasad etyki).

 

Zasady wprowadzone przez uczelnie

Już teraz niektóre podmioty, w tym uczelnie, wprowadzają wewnętrzne regulacje dotyczące zasad korzystania z narzędzi sztucznej inteligencji i oznaczania efektów tego korzystania. Uniwersytecka Rada ds. Kształcenia Uniwersytetu Warszawskiego podjęła uchwałę w sprawie wytycznych dotyczących korzystania z narzędzi sztucznej inteligencji w procesie kształcenia [Uchwała nr 98 Uniwersyteckiej Rady ds. Kształcenia z dnia 8 grudnia 2023 r. w sprawie wytycznych dotyczących korzystania z narzędzi sztucznej inteligencji w procesie kształcenia).

Z uchwały wynika m.in., że wykorzystanie systemów AI w przygotowaniu pracy dyplomowej wymaga uzgodnienia między opiekunem pracy dyplomem a studentem. Nawet w przypadku, gdyby doszło do wykorzystania systemu AI w przypadku konkretnej pracy, to praca musi w dalszym ciągu być samodzielnym opracowaniem danego zagadnienia. Uchwała przesądza, że „wykorzystane systemy AI oraz cele i sposoby ich użycia powinny być opisane w pracy dyplomowej i czytelnie oznaczone, w szczególności we wstępie lub w rozdziale poświęconym metodom badawczym.” Postanowienie to bardziej dotyczy metodologii używania AI przy tworzeniu pracy i nie wskazuje wprost na konieczność oznaczenia danych fragmentów jako pochodzących od AI, jednak zgodnie z uchwałą opiekun lub recenzent pracy mogą skorzystać z narzędzi „pozwalających na określenie prawdopodobieństwa nieujawnionego użycia systemów AI przy przygotowywaniu tej pracy.” Wydaje się, że takie nieujawnione użycie systemów AI mogłoby mieć miejsce właśnie w przypadku, gdyby dane fragmenty wytworzone przez AI nie zostały odpowiednio oznaczone. 

W zarządzeniu Rektora Uniwersytetu Jagiellońskiego z dnia 7 lipca 2023 roku w sprawie wykorzystywania w dydaktyce narzędzi opartych na sztucznej inteligencji wprost zwrócono uwagę, że „narzędzia AI, takie jak generatory tekstów, mogą tworzyć np. eseje i prace naukowe, które mogą być błędnie uznane za prace stworzone przez osoby kształcące się na Uniwersytecie Jagiellońskim, co stawia pod znakiem zapytania autentyczność prac i prowadzi do plagiatu.” W zarządzeniu wskazano również, że „osoby wykorzystujące AI niezgodnie z zasadami określonymi w zarządzeniu, w szczególności poprzez wprowadzenie w błąd co do autorstwa pracy” mogą podlegać odpowiedzialności dyscyplinarnej.

Ciekawe zasady wykorzystania systemów AI przy przygotowywaniu prac określa załącznik do zarządzenia nr 5 Rektora Szkoły Głównej Handlowej w Warszawie z dnia 5 lutego 2024 r. w sprawie wprowadzenia Zasad wykorzystywania sztucznej inteligencji przy przygotowywaniu prac pisemnych w Szkole Głównej Handlowej w Warszawie. Zgodnie z tym dokumentem niedozwolone jest „generowanie tekstu (akapitów, rozdziałów), generowanie pierwszej wersji tekstu i następnie jego własna edycja, rozszerzanie istniejącej treści (np. z wykorzystaniem promptów typu: „dopisz dwa zdania do akapitu”)” a także „tworzenie grafik przypominających fotografie lub ilustracje”.

 

Prawo sztucznej inteligencji i nowych technologii 3
-20%

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Cena promocyjna: 135.2 zł

|

Cena regularna: 169 zł

|

Najniższa cena w ostatnich 30 dniach: 123.36 zł


Jak oznaczać treści wygenerowane przez AI?

Jeśli przyjmiemy, że wytwory AI powinny być odpowiednio oznaczane, można byłoby być może posłużyć się warunkami analogicznymi do warunków legalności cytatu. Poniżej prezentujemy propozycje dotyczące oznaczania wytworów AI użytych we własnym dziele.

Należałoby przyjąć, że jeśli już korzystamy z wytworów AI w dziele oznaczonym jako nasz utwór, to po pierwsze ten nasz utwór powinien faktycznie stanowić samoistną całość, czyli powinien być odrębnym utworem w rozumieniu prawa autorskiego. Wykorzystany mógłby zostać urywek wytworu AI lub drobny wytwór w całości. Podobnie jak w przypadku AI można byłoby więc korzystać na przykład z fragmentów dłuższych tekstów wygenerowanych przez AI lub z całości krótkich tekstów czy utworów plastycznych (np. grafik). Korzystanie z wytworów AI powinno być uzasadnione określonymi celami. W przypadku cytatu celami takimi są wyjaśnianie, polemika, analiza krytyczna lub naukowa, nauczanie lub prawami gatunku twórczości. Być może należałoby zastanowić się na rozszerzeniem tego katalogu w przypadku korzystania z wytworów AI we własnym utworze, ale może stanowić on punkt wyjścia do dalszych rozważań. Korzystanie powinno być zapewne uzasadnione np. celami estetycznymi, co przy okazji prawa cytatu budziło pewne dyskusje.

Istotne jest by – podobnie jak w przypadku prawa cytatu – dany fragment był prawidłowo oznaczony. Chodzi przede wszystkim o to, by był rozpoznawalny i osoba zapoznająca się z danym fragmentem wiedziała, że nie pochodzi on od autora, ale z określonego, innego źródła (np. konkretnego narzędzia sztucznej inteligencji).

Do rozważenia pozostaje relacja, w jakiej powinien pozostawać wytwór AI do pozostałej części utworu, a w szczególności to, czy podobnie jak w przypadku prawa cytatu warunkiem możliwości wykorzystania wytworu AI byłoby to, że pełni podrzędną rolę w stosunku do reszty utworu.

Co zmieni AI Act? 

Szczegółowych wytycznych dotyczących oznaczania treści wygenerowanych przez AI nie dostarcza również AI Act. W art. 50 ust. 4 AI Act wspomniano co prawda, że podmioty stosujące system AI (przy czym do tych podmiotów nie zaliczamy osób stosujących system AI w ramach działalności osobistej w celach niezwiązanych np. z działalnością zawodową), który generuje obrazy, treści audio lub wideo stanowiące treści deepfake (tzn. treści wygenerowane przez system AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca lub zdarzenia, których odbiorca mógłby uznać za prawdziwe) mają obowiązek ujawnić, że treści te zostały sztucznie wygenerowane lub zmanipulowane. O ile polska wersja językowa AI Act nasuwa pewne wątpliwości co do tego jaki jest zakres art. 50 ust. 4 (czy dotyczy tylko treści deepfake czy również innych treści wygenerowanych lub zmanipulowanych przez AI), to bardziej precyzyjna wydaje się być wersja angielska, w której wyraźnie wskazano, że zarówno kwestia „generowania” jak i „zmanipulowania” dotyczy wyłącznie treści stanowiących deepfake („[…] an AI system that generates or manipulates image, audio or video content constituting a deep fake […]”). Treści niebędące deepfake pozostaną więc poza tą regulacją.

Warto też zwrócić uwagę na artykuł 50 ust. 4 akapit drugi, zgodnie z którym podmioty stosujące system AI, który generuje tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem, ujawniają, że tekst został sztucznie wygenerowany lub zmanipulowany. Przepis ten zdaje się potwierdzać, że art. 50 ust. 4 akapit pierwszy dotyczy wyłącznie treści deepfake a nie wszystkich treści wygenerowanych przez AI. Gdyby bowiem dotyczył wszystkich treści wygenerowanych przez SI, to akapit drugi byłby zbędny.

AI Act pozostawia jednak możliwość opracowywania kodeksów dobrych praktyk na poziomie Unii Europejskiej. Należy się spodziewać, że właśnie w ramach tych kodeksów zostaną sprecyzowane zasady oznaczania treści wygenerowanych przez AI.

Michał Ryba, radca prawny, senior associate, WN Legal Wątrobiński Nartowski

Karol Wątrobiński, radca prawny, partner zarządzający, WN Legal Wątrobiński Nartowski