Sztuczna inteligencja w administracji publicznej oprócz korzyści niesie ze sobą także zagrożenia jak. np. deep fake, czy stronniczość algorytmiczna - ostrzegają eksperci. Zawracają uwagę, że łatwo jest o potencjalne ofiary decyzji podejmowanych przez AI.
Doktorant Akademii Leona Koźmińskiego Paweł Urzenitzok jako jedno z zagrożeń związanych z wykorzystaniem sztucznej inteligencji w administracji wskazał na stronniczość algorytmiczną, czyli nierówne traktowanie pewnych grup przez systemy AI.
"Algorytmy same z siebie nie są obiektywne, opierają się na danych, którymi je zasilimy; mogą wydawać się neutralne, ale i tak mogą doprowadzić do pogłębienia uprzedzeń" - podkreślił ekspert w trakcie debaty "Bezpieczeństwo, etyka i wyzwania prawne AI w administracji", która miała miejsce podczas konferencji w Instytucie Nauk Prawnych PAN.
Jak wskazał, w administracji publicznej, czyli np. w urzędach i ministerstwach to "poważna sprawa", bo to właśnie ona powinna zapewniać równe szanse i przejrzyste traktowanie. "Jako obywatele mamy prawo wiedzieć, w jaki sposób została podjęta decyzja i jakie były jej kryteria" - zauważył.
Zagrożeniem dla transparentności są według niego potencjalne problemy z danymi, na których trenowane są modele AI, takie jak wykorzystanie niekompletnego zestawu danych czy historycznych danych odzwierciedlających dyskryminację. Kolejnymi problemami może być niedostateczna reprezentacja grup mniejszościowych w danych, stronniczy wybór zmiennych, czy brak różnorodności w zespołach deweloperskich, które projektują systemy AI.
Urzenitzok ocenił, że największym zagrożeniem w tym kontekście jest tzw. black box, czyli czarna skrzynka. "Chodzi o to, że nikt, nawet twórcy algorytmów, nie są w stanie powiedzieć, na podstawie jakiś przesłanek sztuczna inteligencja podjęła konkretną decyzję" - wskazał ekspert.
"Jak wytłumaczyć więc osobie, wobec której została podjęta decyzja, jaką wydała administracja, że nie wiadomo jakie były jej podstawy?" - zastanawiał się i dodał, że "łatwo o ofiary" takich decyzji.
Urzenitzok wskazał, że tym problemem dotknięte są takie obszary, jak dostęp do usług publicznych, czy zatrudnienie w administracji, ponieważ "były takie sytuacje, w których automatyczny system AI odrzucał CV mniejszości etnicznych".
Według niego problem ten może również wpłynąć na przyznawanie świadczeń społecznych. "Łatwo wyobrazić sobie sytuację, w której osoby z określonego regionu nie dostają zasiłków, ponieważ algorytm np. nie posiada danych o grupach na tym konkretnym terenie" - zauważył.
Inny obszar jaki wymienił ekspert, to ocena zdolności kredytowej. "Jeśli bank jest państwowy, to błąd modelu może zaszkodzić dużej grupie obywateli" - zaznaczył.
Zdaniem eksperta sztuczna inteligencja stosowana w administracji może więc pogłębić istniejące nierówności.
Wskazał też na sposoby minimalizowania ryzyka dyskryminacji w administracji. Wymienił rozwiązania techniczne, takie jak narzędzia do wykrywania stronniczości, strategie urozmaicania danych, np. przez zapewnienie większej reprezentacji mniejszości, a także regularne testy i audyty algorytmów.
Urzenitzok wymienił również środki organizacyjne, które minimalizują ryzyko dyskryminacji. Wśród nich wskazał na nadzór człowieka nad decyzjami AI czy regularne audyty systemów AI.
Filip Prusik-Serbinowski z Urzędu Nadzoru Budowlanego ostrzegał, że urzędnicy i sędziowie powinni podchodzić z "dużą ostrożnością" do systemów doradczych AI.
"Jeśli system AI zaproponuje jakieś rozstrzygnięcie, to może zdarzyć się tak, że np. ze względu na przeciążenie pracą lub presję, sędzia czy urzędnik może być zniechęcony do tego, żeby kwestionować te wyniki, bo wymaga to wyjaśnienia, uzasadnienia, dlaczego nie zrobił tak, jak system mu doradził" - zauważył.
Z kolei dr Dominika Kuźnicka-Błaszkowska z Uniwersytetu Wrocławskiego wskazała, że dużym zagrożeniem związanym z AI w administracji publicznej są deep fake'i (materiały wideo, audio lub graficzne wygenerowane przez sztuczną inteligencję, które wydają się być prawdziwe - PAP). Zwróciła uwagę, że unijny Akt o sztucznej inteligencji nie zalicza ich do systemów wysokiego ryzyka.
"Jeśli na deep fake'i nabierają się prezydenci krajów europejskich, to nie łudźmy się, że nie nabierze się na nie pracownik administracji publicznej, który nie ma narzędzi i nie ma za sobą całego wywiadu, który pomógłby mu przekonać się, że to fałszywy materiał" - zauważyła ekspertka.
Sytuacja, w której urzędnik uwierzy w deep fake może prowadzić do ujawnienie informacji, "które nie powinny być ujawnione", konsekwencji finansowych, utraty reputacji urzędu, czy utraty zaufania społecznego - wymieniła dr Kuźnicka-Błaszkowska. "Zaufanie społeczne trudno będzie odzyskać, tym najbardziej powinniśmy się martwić" - przekonywała.
Stosowanie systemu sztucznej inteligencji w administracji publicznej, np. w postaci chatbotu, może też wiązać się z ryzkiem ataku na ten system -dodała podczas debaty Aleksandra Kawa z Uniwersytetu im. Adama Mickiewicza w Poznaniu.
Jako przykład podała atak typu prompt injection, który polega na skonstruowaniu przez człowieka promptu (komendy), który pozwoli obejść zabezpieczenia blokujące generowanie przez AI niebezpiecznych lub objętych tajemnicą odpowiedzi. "W ten sposób może dojść do ujawnienia danych, które nie powinny zostać ujawnione, np. haseł czy informacji, na których model był trenowany" - wyjaśniła ekspertka. Jak dodała, systemy w administracji zagrożone takim atakiem to m.in. chatboty, obsługa głosowa czy agenci AI na stronach internetowych ministerstw i urzędów.
To może być największy klon jakiegokolwiek organizmu na Ziemi - sugerują naukowcy.
Rybacy obawiają się wielkich brył lodu ograniczających dostęp do łowisk.
Na ten dzień planowane jest przybycie na ISS kolejnej załogi.
Częścioe zaćmienie Księżyca, częściowe zaćmienie Słońca, a także...
To jedyny sposób, by nie dopuścić do plątaniny w jądrze komórki.
Zdrowsza? Przyjaźniejsza dla klimatu? To nie takie jednoznaczne.
Wpływa to między innymi na wchłanianie substancji odżywczych.