O tym, jak zawodne są wszelkie automaty do moderacji treści, wie każdy, kto korzysta z mediów społecznościowych, czy Youtube’a. Blokowanie lub demonetyzacja materiałów edukacyjnych lub polemicznych tylko dlatego, że padają w nich słowa, które filtr uznaje za szkodliwe treści, jest na porządku dziennym. Często niezależnie od kontekstu, w jakim owe słowa padają. Już w starciu z korporacją twórca skazany jest na żmudną i często wieloletnią walkę o przywrócenie treści lub odszkodowanie. Teraz skala tego problemu może się mocno zwiększyć.

 

Wyrok w sprawie blokowania kont przez Facebooka>>

 

Ochrona czy cenzura?

Rząd pracuje nad ustawą poprawiającą sposób, w jaki wykonywane jest rozporządzenie Parlamentu Europejskiego i Rady (UE) 2021/784 z dnia 29 kwietnia 2021 r. w sprawie zapobiegania rozpowszechnianiu w internecie treści o charakterze terrorystycznym (tzw. TERREG). Choć obowiązuje od 7 czerwca 2021 r., według Komisji Europejskiej polskie władze nie zadbały o należyte jego stosowanie. Tyle że nowe przepisy mogą przysporzyć problemów firmom, dziennikarzom i zwyczajnym użytkownikom internetu, którzy publikują w nim treści.

 

Unijne rozporządzenie budziło wątpliwości już na etapie jego tworzenia. Mówiło się o tym, że niesie się sobą ryzyko wprowadzenia cenzury w internecie. Celem zmian jest wprowadzenie – we wszystkich państwach UE - spójnego mechanizmu umożliwiającego skuteczne i legalne usuwanie z sieci oraz blokowanie wszelkich treści o charakterze terrorystycznym zamieszczanych z wykorzystywaniem usług hostingowych.

Według rozporządzenia za treści o charakterze terrorystycznym podlegające usunięciu lub blokowaniu, uznaje się materiały, które:

  • podżegają do popełnienia przestępstwa terrorystycznego (w rozumieniu dyrektywy 2017/541 z dnia 15 marca 2017 r.) w przypadku gdy takie materiały bezpośrednio lub pośrednio (np. poprzez pochwalanie aktów terrorystycznych) popierają popełnianie przestępstwa terrorystycznego tym samym stwarzają niebezpieczeństwo popełnienia jednego lub większej liczby takich przestępstw;
  • nakłaniają osobę lub grupę osób do popełnienia lub przyczynienia się do popełnienia przestępstwa terrorystycznego;
  • nakłaniają osobę lub grupę osób do uczestniczenia w działaniach grupy terrorystycznej;
  • udzielają instruktażu w zakresie wytwarzania lub stosowania materiałów wybuchowych, broni palnej lub innych rodzajów broni lub trujących lub niebezpiecznych substancji, lub w zakresie innych szczególnych metod lub technik w celu popełnienia lub przyczynienia się do popełnienia przestępstwa terrorystycznego;
  • stwarzają zagrożenie popełnienia przestępstwa terrorystycznego.

Rozporządzenie wskazuje, że materiały, które podlegają usunięciu obejmują tekst, obrazy, nagrania dźwiękowe i nagrania wideo, a także transmisje na żywo przestępstw terrorystycznych, które stwarzają niebezpieczeństwo popełnienia kolejnych takich przestępstw. Oceniając, czy materiały stanowią treści o charakterze terrorystycznym w rozumieniu niniejszego rozporządzenia, właściwe organy oraz dostawcy usług hostingowych powinni uwzględniać takie czynniki, jak charakter i treść komunikatów, kontekst, w jakim komunikaty te zostały przedstawione, oraz to, w jakim stopniu mogą one spowodować szkodliwe skutki dla bezpieczeństwa i ochrony osób. Szczególne znaczenie ma to, czy autor treści znajduje się na liście organizacji terrorystycznym.

Czytaj też w LEX: Odpowiedzialność dostawców usług pośrednich w trybie aktu o usługach cyfrowych >

 

Lepiej blokować, niż potem żałować

Nie są to jednak szczególnie precyzyjne pojęcia, a to rodzi ryzyko arbitralności oraz ograniczenia wolności wypowiedzi i wolności prasy. Unijne przepisy pozwalają na rozpowszechnianie materiałów w celach edukacyjnych, dziennikarskich, artystycznych lub badawczych lub w celu zwiększenia świadomości z myślą o przeciwdziałaniu działalności terrorystyczne, natomiast oczekiwanie, że firmy hostingowe tak dokładnie przefiltrują udostępnione treści, jest mocno na wyrost.

Fakt, że za niezastosowanie się do przepisów firmom grożą kary finansowe, raczej skłaniał je będzie do blokowania większej ilości treści. Rozporządzenie pozwala też na stosowanie automatycznych filtrów, a te – jak już wyżej wspomniano – bywają bardzo zawodne. Takie zarzuty pojawiały się w odniesieniu do rozporządzenia w wielu krajach Unii Europejskiej, w Polsce rozporządzenie krytycznie oceniła Fundacja Panoptykon. Wskazywała m.in. właśnie na możliwość nadużywania przepisów przez państwa, w których zagrożona jest praworządność do tłumienia krytyki za granicą, a także na będzie mógł zażądać usunięcia treści zamieszczonej na platformie należącej do dowolnego dostawcy świadczącego swoje usługi w UE, we wszystkich krajach UE. Istnieje obawa, że władze krajów, w których zagrożona jest praworządność, mogłyby wykorzystywać tę regulację do tłumienia krytyki za granicą; czy właśnie na dziurawe automaty, które spowodują usunięcie np. informacji prasowych.

 

Model polski – decyduje szef ABW, kontroluje sąd

Według założeń do projektu nowej ustawy główną rolę w stosowaniu tych procedur odegra szef Agencji Bezpieczeństwa Wewnętrznego. Wyda on nakaz usunięcia zobowiązujących dostawców usług hostingowych do usunięcia treści o charakterze terrorystycznym lub uniemożliwienia dostępu do treści terrorystycznych oraz będzie nakładał kary na firmy, które się do tych nakazów nie zastosują. Należności z tytułu administracyjnych kar pieniężnych będą stanowiły dochód budżetu państwa, a kwestie związane z ich egzekwowaniem zostaną uregulowane w sposób analogiczny, jak ma to miejsce w obowiązujących przepisach ustawy z dnia 10 maja 2018 r. o ochronie danych osobowych (czyli kar za naruszenie RODO).

 


Przed arbitralnością organów chronić ma kontrola sądowa – zarówno dostawcom usług hostingowych, jak i dostawcom treści, w stosunku do których szef ABW wydał nakaz usunięcia, będzie przysługiwało prawo do zaskarżania tych decyzji przed właściwym sądem administracyjnym. Dodatkowo szef ABW uruchomi całodobowy punkt kontaktowy właściwy do rozpatrywania wniosków o wyjaśnienie i informacje zwrotne dotyczące nakazów wydanych przez ABW, którego dane będą publicznie dostępne za pośrednictwem Biuletynu Informacji Publicznej na stronie podmiotowej ABW, a także przekazane do wiadomości Komisji Europejskiej.

 

Szkoda raczej nie do naprawienia

Problem w tym, że tak dla firm hostingowych, jak i osób lub podmiotów żyjących z udostępnienia treści może nie być to wystarczającą gwarancją.  - Obecnie, przynajmniej jeżeli chodzi o sądy warszawskie, nawet najgorszemu wrogowi nie życzę występowania w jakiejkolwiek sprawie na drodze cywilnej - mówi Joanna Parafianowicz, adwokatka prowadząca własną kancelarię. - Czas oczekiwania na rozpatrzenie sprawy jest coraz dłuższy - wcześniej sądy pracowały na wolniejszych obrotach przez pandemię, teraz problemem jest zamieszanie związane z KRS i tzw. neo-sędziami. Z tego powodu uważam, że opieranie gwarancji na kontroli sądowej, w sprawach, gdzie tak ważny jest czas, jest w pewnym sensie robieniem obywatela w bambuko. Ta ochrona jest fikcyjna, skoro na rozpatrzenie sprawy w NSA czeka się około dwóch lat i to, jak ma się szczęście. W ostatnim czasie największą szansę na szybkie rozpatrzenie sprawy daje mediacja albo śmierć strony - podkreśla adwokatka. Dodaje, że choć rozumie cel wprowadzenia zmian, to w tym kontekście może to być wylewanie dziecka z kąpielą. - Nie mam wątpliwości, że w tym momencie, przy tak wolnym działaniu i braku precyzyjnego określenia blokowanych treści, te zmiany utrudnią życie przedsiębiorcom i użytkownikom internetu - podkreśla.

 

To zdanie podziela również Andrzej Zorski, adwokat w kancelarii PZ. - Oczywiście jeżeli sąd administracyjny uchyli decyzję, to przedsiębiorca lub użytkownik będzie mógł dochodzić odszkodowania na zasadach ogólnych. Najpewniej w sądzie cywilnym, pozywając Skarb Państwa reprezentowany przez szefa ABW, o ile ustawa nie wprowadzi jakichś odrębnych zasad. Ale to będzie mocno problematyczne ze względu na specyfikę tych spraw - wskazuje. I nie chodzi tylko o czas ich rozpatrywania. - Ustawodawca powinien wskazać w przepisach, jak osoba, której treści usunięto z internetu ma wykazać szkodę albo żeby powstała uproszczona ścieżka wykazywania wysokości np. oparta na tym, ilu użytkowników ma dany portal, czy ile odsłon mają średnio publikowane na nim treści, czy reklamy i sąd powinien orzekać to automatycznie, chyba że powód wykaże, że poniósł większe straty. Bez tego po pierwsze może być tak, że sądy będą uznawać, że nie wykazano wysokości szkody, po drugie na powoda spadną koszty powoływania biegłych i wykazywania jej wysokości, mimo że zawinił organ państwa - ocenia adwokat. Wskazuje, że pewien automatyzm w określaniu wysokości szkody skłaniałby organy państwa do rozwagi przy podejmowaniu decyzji o blokowaniu treści.