Z algorytmów korzystają nie tylko banki, ubezpieczyciele, czy sklepy internetowe, ale również instytucje publiczne. W Polsce systemy decydują na przykład o:
- blokowaniu konta podejrzanych firm przez skarbówkę, tzw. STIR;
- przydziale sędziów do konkretnych spraw (System Losowego Przydzielania Spraw);
- ukaraniu mandatem za wykroczenia drogowe dzięki fotoradarom, tzw. CANARD, czyli Centrum Automatycznego Nadzoru nad Ruchem Drogowym;
- profilowaniu bezrobotnych i dystrybucji pomocy dla nich;
- przydzieleniu miejsca w żłobku czy szkole.
Mimo wpływu takich algorytmów na prawa człowieka, nie opracowano całościowej polityki gwarantującej bezpieczeństwo ich wdrażania, a wiedza na temat ich funkcjonowania pozostaje, w znacznej mierze, niejawna. Tak wynika z raportu pt. „alGOVrithms state of play” przygotowanego przez Fundację ePaństwo wspólnie z partnerami z Czech, Gruzji, Serbii, Słowacji i Węgier. - Nie tylko obywatele, ale i sami sędziowie mają problem z dostępem do informacji na temat funkcjonowania losowych systemów przydzielania ich do spraw, a polski system zawiera błędy – mówi Krzysztof Izdebski, dyrektor programowy fundacji ePaństwo. Podobne sytuacje występują również w Serbii, Słowacji, Gruzji i w Czechach, gdzie algorytmy wykorzystuje się m.in. do preselekcji oferentów w zamówieniach publicznych. Zdaniem autorów raportu państwa powinny zmienić politykę wykorzystywania zautomatyzowanego podejmowania decyzji (z ang. ADM, automated decision making).
Zobacz: System losowego przydziału spraw w praktyce >
Brak dostępu do kodu źródłowego
Z raportu wynika, że w większości przypadków, brak jest dostępu do kodu źródłowego z powodów ochrony praw autorskich,a w niektórych krajach nie jest uznawany za informację publiczną. Na przykład polskie Ministerstwo Finansów poinformowało, że system teleinformatyczny automatycznie blokujący podejrzane przepływy finansowe (STIR) należy do zewnętrznego podmiotu, a umowa na jego wykonanie jest dokumentem prywatnym. Z kolei Minister Sprawiedliwości stwierdził, że algorytm w systemie losowego przydziału sędziów składa się z informacji technicznych i nie jest informacją publiczną w rozumieniu polskiej ustawy o dostępie do publicznego Informacje, a zatem nie podlegają ujawnieniu.
Brak nadzoru i weryfikacji poprawności działania
Autorzy raportu nie odnotowali ani jednej instytucji, która nadzoruje lub choć posiada kompleksową wiedzę o tym, jakie systemy zautomatyzowanego podejmowania decyzji istnieją w danym kraju. Każda organizacja rządowa może tak naprawdę opracować dowolne oprogramowanie zgodnie ze swoimi potrzebami i programami. Jedynie w Serbii został dokonany audyt systemu przydzielania spraw sędziom, bo wymusiła go Unia Europejska, która finansowała jego powstanie. W innych sytuacjach nie są planowane żadne zewnętrzne i niezależne audyty mające monitorować poprawność i rzetelność funkcjonowania rozwiązań opartych o algorytmy.
Potrzebne są zmiany w obronie praw obywateli
Autorzy raportu rekomendują m.in. ustanowienie organu koordynującego wdrażania systemów do zautomatyzowanego podejmowania decyzji, wdrożenie jasnych i możliwie kompleksowych regulacji, wprowadzanie oceny skutków algorytmów oraz wprowadzanie klauzul przejrzystości w umowach ze spółkami dostarczającymi programowanie i jawność dostępu do kodu źródłowego, opracowywanie systemu kontroli poprawności działania algorytmów. Krzysztof Izdebski podkreśla, że taki system powinien zawierać informację, kto w konkretnym urzędzie publicznym jest odpowiedzialny za poprawność i rzetelność algorytmu.
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.