To moje 115 urodziny i nikt nie złożył mi życzeń - głosi podpis pod "zdjęciem" przedstawiającym starszą panią, dzierżącą w swych trzech dłoniach tort z napisem 80. Mimo pewnych niespójności w obrazie, komentujący wysyłają samotnej staruszce emotki, życzenia oraz dyskutują nad niewdzięcznością rodziny, która zrejterowała, pozostawiając starszą panią bez należnej jej szklanki wody. Wywołana do tablicy rodzina do zarzutów się nie odnosi, bo nie istnieje, podobnie, jak wygenerowana przez AI, staruszka. Natomiast dane i reakcje komentujących to okazja, by zarobić na ich nieświadomości.

 

Twój dziadek nie wie, kto jest po drugiej stronie

Dwadzieścia lat temu, gdy internet i media społecznościowe były jeszcze na zupełnie innym poziomie, powstała zapadająca w pamięć kampania społeczna "Nigdy nie wiadomo, kto jest po drugiej stronie". Jej celem było uświadomienie dzieciom, że w internecie łatwo jest podszywać się pod kogoś innego i fakt, że rozmówca z internetowego czatu mówi, że też ma jedenaście lat, nie oznacza wcale, że to prawda. Dziś nadal wiele mówi się o konieczności przestrzegania dzieci przed negatywnymi zjawiskami w internecie, ma to być też ważny element podstawy programowej, zapominamy jednak, że nie tylko one niekoniecznie mogą zdawać sobie sprawę z niebezpieczeństw, jakie czyhają na nich w sieci. W ostatnim czasie w mediach społecznościowych, a zwłaszcza na Facebooku, z którego chętnie korzystają starsi ludzie, często po to, by wymieniać się memicznymi już obrazkami z życzeniami "Smacznej kawusi", zaroiło się od stron z treściami ewidentnie generowanymi przez AI. O ile u kogoś, kto choć kilka razy użył ChataGPT czy Midjourney do wygenerowania obrazu, sztuczne tło, czy dodatkowe palce wzbudzą sceptycyzm, osoby, które nie zdają sobie sprawy z tego, że dziś takie rzeczy są możliwe, chętnie klikną na dołączony link. A nawet zaangażują się w jakąś akcję pomocową i prześlą biednemu dziecku czy staruszce kilka złotych (a wraz z nimi całą zawartość swojego konta).

 

Nowość
Cyberbezpieczeństwo. Zarys wykładu
-20%

Cena promocyjna: 71.2 zł

|

Cena regularna: 89 zł

|

Najniższa cena w ostatnich 30 dniach: 62.3 zł


Oprócz samotnych osób, dużo reakcji wzbudzają obrazki z rękodziełem - rzeźbami w drewnie, których ChatGPT nawet nie próbuje przedstawić realistycznie, wyrobami z włóczki, które nie mogłyby zostać stworzone ręką człowieka (czy nawet trzema, jak u wygenerowanej przez AI autorki). Podejrzeń komentujących nie budzą nawet ewidentne, karykaturalnie wyglądające nieścisłości pomiędzy obrazkiem a podpisem - np. dziewczynka trzyma w ręku talerz z małymi parówkami w cieście, a podpis głosi: "dziś są moje urodziny, zobacz, jaki tort upiekłem". Dodatkowo na korzyść oszustów zadziała sam algorytm portalu, który podrzuci więcej podobnych postów osobie, która już raz czy dwa zareagowała na taką treść.

--------------------------------------------

Poznaj Law4AI - Źródło wiedzy o obowiązujących przepisach prawa
i planowanych regulacjach dotyczących sztucznej inteligencji >>

---------------------------------------------

FBI ostrzega przed wyłudzeniami

Przed coraz szerszym wykorzystywaniem AI przez oszustów ostrzegła na początku grudnia FBI. - Generatywna AI zmniejsza czas i wysiłek, jaki przestępcy muszą poświęcić, aby oszukać swoje cele - wskazuje w komunikacie. - AI wykorzystuje to, czego nauczyła się z przykładów wprowadzonych przez użytkownika, i na ich podstawie syntetyzuje zupełnie nowe treści. Narzędzia te pomagają w tworzeniu treści i mogą korygować błędy ludzkie, które mogłyby inaczej stanowić sygnały ostrzegawcze wskazujące na oszustwo. Tworzenie lub dystrybucja treści syntetycznych nie jest z natury nielegalne; jednak mogą być one wykorzystywane do ułatwiania przestępstw, takich jak oszustwa i wymuszenia - informuje.

 

Zwraca uwagę, że AI często wykorzystywana jest do tworzenia dużej liczby fikcyjnych profili w mediach społecznościowych, aby nakłaniać ofiary do przesyłania im pieniędzy. Narzędzia oparte na AI pozwalają też bezproblemowo trafiać do osób z innych krajów, bo w zasadzie bezbłędne tłumaczenie treści na każdy istniejący język to kwestia sekund. - Przestępcy używają obrazów generowanych przez AI do tworzenia wiarygodnych zdjęć profilowych, dokumentów tożsamości oraz innych obrazów wspierających ich oszustwa - podkreśla FBI. Wykorzystują tę możliwość m.in. do:

  • tworzenia realistycznych zdjęć na fikcyjne profile w mediach społecznościowych, które są wykorzystywane w działaniach socjotechnicznych, spear phishingu, oszustwach matrymonialnych, wyłudzaniu zaufania oraz oszustwach inwestycyjnych.
  • tworzenia zdjęć przedstawiających celebrytów lub popularne osoby promujące podrabiane produkty lub oszustwa związane z niedostarczeniem towarów.
  • generowania obrazów przedstawiających klęski żywiołowe lub konflikty globalne, aby wyłudzać darowizny na fałszywe cele charytatywne.

 

Czytaj w LEX: Akt w sprawie sztucznej inteligencji > >

 

Portale reagują niechętnie

Ostrzeżenie przed oszustwami, do których wykorzystywana jest sztuczna inteligencja, opublikował też ostatnio CERT Polska działający w strukturach NASK – Panstwowego Instytutu Badawczego. W komunikacie eksperci zwracają uwagę na reklamy, które oszuści kierują do osób reagujących na niektóre treści. Reklamy te również generuje sztuczna inteligencja. - W 2024 roku zauważyliśmy pojawienie się reklam produktów medycznych, które reklamowane są z wykorzystaniem podobnych technik, jak miało to miejsce w przypadku oszustw inwestycyjnych. Reklamy najczęściej wykorzystywały wizerunek lekarzy jako autorytetów medycznych zaświadczających o skuteczności danego leku, a także dziennikarzy rzekomo prowadzących materiał w dzienniku informacyjnym. Strony, do których prowadziły reklamy najczęściej imitowały popularne strony informacyjne takie jak np. TVP Info lub podszywały się pod informacyjne strony rządowe np. Ministerstwa Zdrowia. - zwraca uwagę CERT. Eksperci zauważyli także wysyp treści dotyczących powodzi - przykładowo jedna z kampanii, stosując posty sponsorowane, propagowała fałszywą zbiórkę rzekomo zorganizowaną przez WOŚP. CERT zwraca też uwagę na reklamy wykorzystujące wizerunek ponad 139 osób publicznych, w tym polityków, dziennikarzy, sportowców, lekarzy i influencerów. - Reklamy zawierały spreparowane grafiki lub filmy szerzące fałszywe informacje na temat rzekomej śmierci, kompromitującej sytuacji lub ujawnionego spisku, aby skłonić użytkownika do wejścia na stronę - wskazują. Dodają, że przestępcy starają się również aktywnie zmylić algorytmy weryfikujące. Jedna z wykorzystywanych technik polega na umieszczaniu właściwej treści w ramach większego obrazu. Następnie przy wykorzystaniu funkcji oferowanych przez Menedżer reklam, docelowym użytkownikom pokazywany jest wyłącznie fragment zawierający reklamę.

 

Co interesujące, jak podał w tym tygodniu CERT, firma Meta ograniczyła widoczność artykułu na Facebooku. - Podobny los spotyka artykuły przygotowane przez media, które zdecydowały się podjąć temat publikacji CERT Polska - poinformowano w komunikacie. Nawet więc instytucjonalne wysiłki ukierunkowane na zwiększenie świadomości użytkowników portali społecznościowych mogą być skazane na porażkę.

Zobacz także w LEX: Odpowiedzialność za sztuczną inteligencję [projekt UE] > >

 

--------------------------------------------

Poznaj Law4AI - Źródło wiedzy o obowiązujących przepisach prawa
i planowanych regulacjach dotyczących sztucznej inteligencji >>

---------------------------------------------

Metody nowe, ale przestępstwa klasyczne

- W grę w takich sprawach wchodzi przede wszystkim przestępstwo oszustwa lub oszustwa komputerowego - mówi adwokat Agnieszka Prętczyńska, prowadząca własną kancelarię. - Oczywiście przy okazji, aby pozyskać potrzebne informacje, oszust sięga po różne inne środki, np. wyłudza dane, podrabia jakieś dokumenty, ale najczęściej traktuje się to jako zbieg przestępstw, raczej nie spotkałam się z tym, by ktoś to kwalifikował oddzielnie - podkreśla adwokatka.

Oszustwo (art. 286 kodeksu karnego) polega na celowym wprowadzeniu w błąd innej osoby w celu osiągnięcia korzyści majątkowej. Sprawca doprowadza ofiarę do niekorzystnego rozporządzenia mieniem własnym lub cudzym. Może to być osiągnięte poprzez:

  •     wprowadzenie w błąd, np. fałszywe obietnice, przedstawienie nieprawdziwych informacji;
  •     wykorzystanie błędu, np. wykorzystanie nieświadomości ofiary co do rzeczywistego stanu rzeczy;
  •     wykorzystanie niezdolności ofiary do pełnego zrozumienia konsekwencji działania, np. z powodu wieku, stanu zdrowia czy innych okoliczności.

Za oszustwo grozi kara pozbawienia wolności od sześciu miesięcy do ośmiu lat.

 

Oszustwo komputerowe (287 k.k.) obejmuje z kolei działania mające na celu:

  •  osiągnięcie korzyści majątkowej,
  •  wyrządzenie szkody innej osobie, poprzez wpływanie na automatyczne przetwarzanie, gromadzenie lub przekazywanie danych informatycznych,
  • sprawca może również zmieniać, usuwać lub wprowadzać nowe dane informatyczne.

Może polegać np. na fałszowaniu zapisów w systemach komputerowych (np. w bankach, sklepach internetowych) czy manipulowaniu danymi w celu uzyskania nienależnych świadczeń (np. zmiana kwoty na fakturze). Grozi za to kara pozbawienia wolności od trzech miesięcy do pięciu lat.''

 

- Moim zdaniem nie tyle jest tu potrzebna zmiana prawa, co szeroko zakrojona akcja informacyjna i to poprzedzona porządną analizą tego, kto narażony jest na tego rodzaju nadużycia, jakie ma przyzwyczajenia i jak do niego trafić. Warto byłoby w tym celu wykorzystać choćby środki z Funduszu Sprawiedliwości - wskazuje mec. Prętczyńska. - Ale powtarzam, to nie może być akcja pro forma. Z racji swojej profesji jestem częstym gościem na komisariatach policji i przyznaję, że czuję pewną irytację, widząc, że są one wyklejone plakatami, ostrzegającymi osoby starsze przed oszustwami "na wnuczka". Oczywiście sama obecność tych plakatów nie jest zła, tyle że nie spotkałam się z nimi w zbyt wielu innych miejscach. Na komisariacie starsza osoba pojawi się prawdopodobnie właśnie po to, by zgłosić, że padła ofiarą oszustwa. Myślę więc, że oprócz mediów społecznościowych, należy postawić na informowanie o takich sprawach np. w kościołach, przychodniach, komunikacji miejskiej, czy na uniwersytetach trzeciego wieku. Bez tego problem będzie się pogłębiał i żadne zaostrzanie kodeksu w tej materii nie pomoże - podsumowuje prawniczka.

Zobacz również w LEX: AI w praktyce prawniczej – krok w nowoczesność czy skok w przepaść? > >