Ramowa Konwencja Rady Europy o sztucznej inteligencji i prawach człowieka, demokracji i praworządności została przyjęta w Strasburgu podczas dorocznego spotkania ministerialnego Komitetu Ministrów Rady Europy, w którym uczestniczą ministrowie spraw zagranicznych 46 Rady Europy państw członkowskich Europy.

Konwencja jest wynikiem dwuletnich prac organu międzyrządowego, Komisji ds. Sztucznej Inteligencji, który zgromadził w celu opracowania traktatu 46 państw członkowskich Rady Europy, Unię Europejską i 11 państw niebędących członkami (Argentyna , Australia, Kanada, Kostaryka, Stolica Apostolska, Izrael, Japonia, Meksyk, Peru, Stany Zjednoczone Ameryki i Urugwaj), a także przedstawiciele sektora prywatnego, społeczeństwa obywatelskiego i środowiska akademickiego, którzy uczestniczyli w charakterze obserwatorów.

Wymogi przejrzystości i nadzoru 

Traktat obejmuje wykorzystanie systemów sztucznej inteligencji w sektorach publicznym i prywatnym. Konwencja oferuje stronom dwa sposoby przestrzegania swoich zasad i obowiązków przy regulowaniu sektora prywatnego: strony mogą zdecydować się na bezpośrednie zobowiązanie na mocy odpowiednich postanowień konwencji lub, alternatywnie, podjąć inne środki w celu zapewnienia zgodności z postanowieniami traktatu, przy pełnym poszanowaniu ich zobowiązań międzynarodowych, dotyczących praw człowieka, demokracji i praworządności. Podejście takie jest konieczne ze względu na różnice w systemach prawnych na świecie.

Konwencja ustanawia wymogi w zakresie przejrzystości i nadzoru dostosowane do konkretnych kontekstów i zagrożeń, w tym dotyczące identyfikacji treści generowanych przez systemy sztucznej inteligencji. Strony będą musiały przyjąć środki w celu identyfikacji, oceny, zapobiegania i ograniczania ewentualnych zagrożeń, a także oceny potrzeby wprowadzenia moratorium, zakazu lub innych odpowiednich środków dotyczących korzystania z systemów sztucznej inteligencji w przypadku, gdy związane z nimi ryzyko może być niezgodne ze standardami praw człowieka.

Środki na wypadek naruszeń 

Będą również musiały zapewnić rozliczalność i odpowiedzialność za niekorzystne skutki oraz zapewnić, aby systemy sztucznej inteligencji szanowały równość, w tym równość płci, zakaz dyskryminacji i prawa do prywatności. Ponadto strony traktatu będą musiały zapewnić dostępność środków prawnych dla ofiar naruszeń praw człowieka związanych z wykorzystaniem systemów sztucznej inteligencji oraz gwarancji proceduralnych, w tym powiadamiać wszelkie osoby mające kontakt z systemami sztucznej inteligencji, że wchodzą w interakcję z takimi systemami.

Jeśli chodzi o zagrożenia dla demokracji, traktat wymaga od stron przyjęcia środków zapewniających, że systemy sztucznej inteligencji nie będą wykorzystywane do podważania instytucji i procesów demokratycznych, w tym zasady podziału władzy, poszanowania niezawisłości sądów i dostępu do wymiaru sprawiedliwości.

Strony konwencji nie będą zobowiązane do stosowania postanowień traktatu do działań związanych z ochroną interesów bezpieczeństwa narodowego, ale będą zobowiązane do zapewnienia, aby działania te respektowały prawo międzynarodowe oraz instytucje i procesy demokratyczne. Konwencja nie będzie miała zastosowania do kwestii związanych z obroną narodową ani do działań badawczo-rozwojowych, z wyjątkiem przypadków, gdy testowanie systemów sztucznej inteligencji może potencjalnie zakłócać prawa człowieka, demokrację lub praworządność.

Wreszcie konwencja wymaga, aby każda ze stron ustanowiła niezależny mechanizm nadzoru w celu nadzorowania przestrzegania konwencji, a także podnosiła świadomość, stymulowała świadomą debatę publiczną i przeprowadzała konsultacje z wieloma zainteresowanymi stronami na temat sposobu wykorzystania technologii sztucznej inteligencji. Konwencja ramowa zostanie otwarta do podpisu w Wilnie (Litwa) w dniu 5 września przy okazji konferencji Ministrów Sprawiedliwości.