Jakub "Kuba" Zieliński, człowiek od technologii i muzyki, Emilia "Emi" Nowak, zakochana w niezależnym kinie oraz Alex Szulc, aktywista i znawca kultury queer. To nowi prowadzący w radiu OFF Kraków. Poprowadzą audycje, które mają przyciągnąć do odbiorników przedstawicieli pokolenia Z, które lubuje się w nowinkach technicznych. Pytanie, czy tak bardzo, by poświęcać swój czas na słuchanie audycji wygenerowanych przez sztuczną inteligencję, bo wszyscy z tych "dziennikarzy" to właśnie wytwory AI.

Czytaj również: ​Ustawa o sztucznej inteligencji skierowana do konsultacji>>

Czytaj w LEX: Ocena skutków regulacji w obszarze nowych technologii. Doświadczenia i wyzwania >

AI zabiera pracę dziennikarzom?

Od czasu gdy Chat GPT trafił do świadomości i w ręce masowego odbiorcy, pojawiały się opinie, że technologiczne bezrobocie jest kwestią czasu. Zaawansowane modele językowe w pierwszej kolejności zastąpić miały pracowników wykonujących proste prace, jak wprowadzanie danych do baz lub osoby, które zajmowały się tworzeniem prostych tekstów, jak opisy produktów dla sklepów internetowych. Krakowskie radio, finansowane zresztą ze środków publicznych, stworzyło nowy precedens - z końcem sierpnia br. zakończyło współpracę z kilkunastoma dziennikarzami, którzy - po jednym w tygodniu - prowadzili autorskie programy.

------------------------------------------------------------

Poznaj Law4AI - Źródło wiedzy o obowiązujących przepisach prawa
i planowanych regulacjach dotyczących sztucznej inteligencji >>>>

------------------------------------------------------------

- Odnosząc się do komentarzy publikowanych po uruchomieniu OFF Radia Kraków w nowej formule (kanał tematyczny nadawany w internecie oraz w technologii DAB+) informuję, że żaden pracownik ani współpracownik OFF Radia Kraków nie został zwolniony z powodu używania narzędzi AI. Od rozpoczęcia emisji w 2015 r. OFF Radio Kraków było głównie stacją muzyczną programowaną w sposób zautomatyzowany, uzupełnianą o dwugodzinne pasmo prowadzone na żywo i autorskie programy muzyczne. Programy te, po jednym w tygodniu, prowadzili głównie zewnętrzni współpracownicy i to z nimi (z końcem sierpnia 2024) rozwiązane zostały umowy o współpracę – czytamy w oświadczeniu redaktora naczelnego Radia Kraków, niepodpisanym z imienia i nazwiska. Jak zapewnia dalej, przyczyną nie było wprowadzenie narzędzi sztucznej inteligencji. Po dziewięciu latach istnienia, na początku tego roku, została dokonana analiza słuchalności i zawartości merytorycznej programu. Większość programu anteny OFF Radia Kraków pokrywała się z drugim kanałem tematycznym Radiem Kraków Kultura oraz główną anteną Radia Kraków, a zasięgi słuchalności OFF Radia Kraków były bliskie zeru. - To było podstawą do decyzji o dokonaniu zmiany – podkreśla. Jak twierdzi, pomysł, by w okresie przejściowym przeprowadzić projekt radiowy z użyciem narzędzi sztucznej inteligencji, zrodził się przy okazji. - Założyliśmy, że najpóźniej po trzech miesiącach zostanie przeprowadzona ewaluacja eksperymentu. Projekt nie będzie prowadzony na antenach Radia Kraków i Radia Kraków Kultura – dodał.

Zobacz w LEX: Głos pracownika. Praktyczne zastosowanie sztucznej inteligencji w celu podjęcia efektywnych decyzji organizacyjnych >

 

Nowość
Prawo sztucznej inteligencji i nowych technologii 3
-20%
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Cena promocyjna: 159.2 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 179.1 zł


Eksperyment wkracza na wyższy poziom

"Eksperyment" nie spotkał się jednak ze szczególnym entuzjazmem - z oburzeniem zareagowano na rozwiązanie umów ze współpracownikami radia, ale nie tylko, negatywne komentarze wywołało stworzenie "dziennikarzom" fałszywych notek biograficznych, a zwłaszcza przypisanie wytworowi AI doświadczeń związanych prowadzeniem działalności aktywistycznej.

Potem było jeszcze ciekawiej - otóż "Emi" udało się przeprowadzić niecodzienny wywiad i porozmawiać z nieżyjącą od ponad dwunastu lat Wisławą Szymborską. Opowiedziała o swoich refleksjach na temat twórczości Han Kang, zdobywczyni tegorocznego literackiego Nobla. Choć niewątpliwie audycja przyniosła radiu rozgłos, to chyba niekoniecznie taki, o jaki chodziło. Rozmowa bota z botem budzi bowiem wiele pytań - o przyszłość rynku pracy, o przyszłość informacji oraz o kwestię poszanowania pamięci o zmarłych. 

Sprawdź w LEX: Sztuczna inteligencja tworzona przez człowieka, ukierunkowana na osobę ludzką i przez nią kontrolowana > >

 

Pracodawcy z optymizmem czekają na AI

Wyniki najnowszej edycji corocznego badania EY – Work Reimagined Study – wskazują, że na poziomie pracowniczym korzystanie z narzędzi bazujących na generatywnej sztucznej inteligencji staje się zjawiskiem powszechnym. W przeciągu roku odsetek osób deklarujących wykorzystanie GenAI w ich obowiązkach wzrósł aż o 53 punkty procentowe – z 22 proc. do 75 proc. Najwyższy wskaźnik osiągnięto w branży technologicznej (90 proc.), a najniższy w sektorze publicznym (60 proc.). Jednak zdaniem autorów badania, szczególnie interesujący jest fakt, że to pracodawcy mają bardziej optymistyczne podejście do GenAI niż pracownicy. Co więcej, różnice w kluczowych kategoriach przekraczają 20 punktów procentowych.

W przypadku produktywności to 22 pkt. proc. (75 proc. vs. 53 proc.), a w obszarze pozytywnego wpływu na możliwość większej koncentracji na zadaniach o charakterze strategicznym – 21 pkt. proc. (71 proc. vs. 52 proc.). Pokazuje to, że pracownicy chociaż oswajają się z samą technologią, to wciąż nie są w stanie dostrzec w niej długofalowych korzyści. Szczególne trudności mogą mieć z tym najbardziej doświadczone osoby. Podczas gdy 27 proc. ankietowanych przedstawicieli pokolenia Y postrzega siebie jako intensywnych użytkowników GenAI, to w gronie baby boomers ten odsetek wynosi 7 proc.

- Z perspektywy pracowników w przeciągu roku status narzędzi bazujących na generatywnej sztucznej inteligencji zmienił się z ciekawostki w element przynajmniej okazjonalnie obecny w ich biurowym życiu. Należy spodziewać się, że za kolejnych 12 miesięcy sporadyczny zmieni się w powszechny, a w dalszej perspektywie – stały. Popularyzacja tej technologii nie zawsze jednak idzie w parze z przeświadczeniem, że przyniesie ona realne korzyści. Po stronie firm pozostaje więc jeszcze znacząca praca do wykonania, aby zatrudnione osoby nie tylko miały dostęp do GenAI, ale również wiedziały, jak z tych narzędzi korzystać. W szczególności te działania powinny być skierowane do doświadczonych pracowników, dla których użytkowanie najnowszych rozwiązań technologicznych jest mniej naturalne niż dla młodszych generacji - mówi Artur Miernik, partner w EY Polska, lider zespołu People Consulting. 

Czy można zatrudnić sztuczną inteligencję?

Zdaniem Katarzyny Kameckiej, eksperta ds. prawa pracy Polskiego Towarzystwa Gospodarczego, sztuczna inteligencja (AI) już dziś jest wyzwaniem dla rynku pracy, a będzie jeszcze większym w przyszłości. – Zgodnie z orzecznictwem Sądu Najwyższego zwolnienie pracownika w związku z likwidacją stanowiska pracy jest uznawane za pozorne, jeżeli w to miejsce zostanie zatrudniona inna osoba. Pytanie, czy w przypadku zastąpienia pracownika albo współpracownika sztuczną inteligencją, można w takiej sytuacji mówić pozornej likwidacji stanowiska pracy i czy można mówić w ogóle o zatrudnieniu sztucznej inteligencji – mówi Katarzyna Kamecka.

AI nie może być stroną żadnej umowy, w tym umowy o pracę. – To wymagałoby redefinicji umowy o pracę – zaznacza. Przy tej okazji wskazuje na inny problem, przed którym stanie rynek pracy. – Jeśli dzięki użyciu sztucznej inteligencji jakaś grupa pracowników straci pracę, to pojawia się kwestia „zagospodarowania” tych pracowników na rynku pracy. Dlatego uważam, że jak najszybciej należy stworzyć program rekwalifikacji czy przebranżowienia, żeby pracownicy narażeni na utratę pracy z powodu AI mogli się szybko przekwalifikować – podkreśla Katarzyna Kamecka. I dodaje: - Jak najszybsze wdrożenie takiego programu jest konieczne nie tylko z powodu AI, ale także postępującej automatyzacji polskiej gospodarki. Według Kameckiej, już dziś trzeba zacząć przygotowywać ludzi do tego, że w trakcie swojego życia będą musieli kilkukrotnie się przekwalifikowywać. – Taki los na pewno spotka pokolenia obecnych 30-35-latków – twierdzi. – To jest ważny społecznie temat, choć dziś może wydawać się abstrakcyjny – zaznacza Katarzyna Kamecka.

Czytaj również: Pracownik może stracić pracę za wyręczanie się sztuczną inteligencją>>

Zobacz w LEX: Wykorzystanie AI w pracy prawnika ze szczególnym uwzględnieniem analizy orzecznictwa > >

 

Nowe czy stare dobra osobiste?

Problematyczne wydaje się też wskrzeszenie zmarłej noblistki. Jak wskazał dr Michał Markiewicz, adiunkt w Katedrze Prawa Własności Intelektualnej Uniwersytetu Jagiellońskiego, wygenerowanie wypowiedzi na określony temat przez algorytmy AI pozostaje poza zakresem ochrony prawnoautorskiej (brak ochrony efektów pracy algorytmu).

- Sporadycznie może dojść do sytuacji, gdy w wypowiedzi stworzonej przez AI zawarty jest fragment cudzej (człowieczej) twórczości, wprowadzony do "systemu" na potrzeby uczenia algorytmu. W takich przypadkach korzystanie z tych fragmentów stanowić będzie naruszenie praw do wcześniejszej twórczości (chyba że uzyskano w tym zakresie odpowiednie zgody lub odbywa się to na podstawie uprawnienia wynikającego z ustawy np. prawa parodii). To jednak będą wyjątkowe sytuacje, bowiem algorytmy są tak zaprojektowane, aby, co do zasady, nie przechowywały cudzych utworów - tłumaczył.

Czytaj również: Śmierć już nas nie rozłączy – cyfrowe wskrzeszenie wyzwaniem dla ochrony danych>>

Pamięć o zmarłym wchodzi w zakres ochrony dóbr osobistych (art. 23 i art. 24 k.c.), jednak nie obejmują one obecnie przypadków "wskrzeszenia" przy pomocy AI. - Przepisy i orzecznictwo w zakresie pamięci o zmarłej osobie dotyczą raczej sytuacji, w której o zmarłych ktoś pisze źle – wskazuje adwokat Andrzej Zorski z Kancelarii Adwokackiej PZ - Przyjmuje się więc, że można w zasadzie naruszyć tylko „godność czy dobre imię” zmarłego. Trudno uznać, że kontynuowanie jego dzieła, o ile byłoby na odpowiednim poziomie i nikogo nie urażało, byłoby naruszeniem dobrej pamięci po kimś – podkreśla. Dlatego potrzebne jest stworzenie odpowiednich regulacji prawnych, które takie sytuacje by uwzględniały.

Zobacz również w LEX: Sztuczna inteligencja: zrozumieć, opanować, zastosować. Prawne aspekty funkcjonowania > >