Za przyjęciem AI Act głosowała znacząca większość europosłów: 523 było za, 46 przeciw, 49 wstrzymało się od głosu. To wydarzenie, na które oczekiwano od grudnia ub. roku - poinformowano wówczas o zakończeniu trójstronnych negocjacji i o unijnym porozumieniu w sprawie Aktu o Sztucznej Inteligencji, co wywołało ogromny entuzjazm. Prawnicy studzili wówczas nastroje, wskazując na to, że finalizacja prac jeszcze potrwa, i że pierwszy kwartał 2024 r. to optymistyczny termin w kontekście ostatecznego przyjęcia i publikacji nowej regulacji. 

Wysokie a niedopuszczalne ryzyko 

Co dokładnie zmieni AI Act? Jak podkreślano na wszystkich etapach prac, unijnemu prawodawcy przy tworzeniu nowego prawa przyświecało przede wszystkim bezpieczeństwo użytkowników. Na prokonsumenckość regulacji wskazywali również eksperci, zaznaczając, że czasami jest ona aż zbyt daleko posunięta. Jedną z najistotniejszych zmian ma być stworzenie czterech kategorii poziomów ryzyka w sztucznej inteligencji: niedopuszczalnego, wysokiego, ograniczonego lub minimalnego (braku) ryzyka. 

Czytaj też: Unijne rozporządzenie o sztucznej inteligencji nie wyeliminuje ryzyka nadużyć

Najbardziej restrykcyjnie mają być traktowane systemy zaliczone do pierwszej kategorii, ich użycie ma być bowiem całkowicie zakazane. Chodzi o sytuacje, w których sztuczna inteligencja jest wykorzystywana do pozyskiwania danych wyjątkowo wrażliwych, takich jak dane biometryczne. Unijny prawodawca wymienia w tym zakresie m.in.: 

  • Poznawczo-behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań;
  • Identyfikację biometryczną i kategoryzację osób fizycznych;
  • Scoring (klasyfikacja punktowa) obywateli: klasyfikacja ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych;
  • Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.

Jednym z celów AI Act ma być również zapobieganie dezinformacji. Dlatego treści tworzone przez tzw. generatywną sztuczną inteligencję (do której zalicza się np. ChatGPT) mają być wyraźnie oznaczane.

Wiadomo już jednak, że AI Act nie rozwiąże wszystkich problemów twórców. Problematyczne wciąż pozostają np. kwestie związane z wynagradzaniem za wykorzystywanie ich dzieł do "uczenia" algorytmów. Poza tym, mimo że rozporządzenia co do zasady stosuje się bezpośrednio, w tym przypadku przepisy będą musiały też być częściowo implementowane w państwach członkowskich w ciągu dwóch lat od publikacji regulacji w Dzienniku Urzędowym UE

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź