Sztuczna inteligencja w służbie nadzoru nad obywatelami

Pekin chce, by do 2030 roku Chiny stały się światowym potentatem w dziedzinie sztucznej inteligencji. Jest ona tam m.in. wykorzystywana przez policję do walki z przestępczością. Ale rozwój inteligentnych systemów nadzoru wywołuje obawy obrońców praw człowieka.

Chiny coraz wyraźniej zaznaczają swój udział w światowym wyścigu w dziedzinie technologii sztucznej inteligencji, a chińskie firmy inwestują miliardy dolarów w badania z tej dziedziny. Sztuczna inteligencja może pomagać lekarzom szybciej i precyzyjniej diagnozować pacjentów, ale może też być używana przez autorytarne chińskie władze do śledzenia dysydentów i innych niewygodnych osób - zwracają uwagę komentatorzy.

Chiński rząd używa sztucznej inteligencji i olbrzymich zasobów big data, by jeszcze ściślej kontrolować obywateli. Sztuczna inteligencja jest już na szeroką skalę wykorzystywana przez chińską policję i pomaga na przykład w szybkiej analizie obrazu ze 170 milionów zamontowanych w całym kraju kamer monitoringu.

Przekonał się o tym niedawno korespondent BBC John Sudworth, który w ramach eksperymentu usiłował ukryć się w tłumie w prowincji Guiyang na zachodzie Chin. Odnalezienie go zajęło policji zaledwie siedem minut.

"W przypadku zwykłych ludzi, wyciągamy ich dane tylko, kiedy potrzebują naszej pomocy" - powiedziała chińska policjantka, komentując sprawę w materiale BBC. "Jeśli nie masz nic do ukrycia, nie masz się czego obawiać" - skomentował Sudworth, a zdanie to podchwyciły państwowe chińskie media, które pisały o jego eksperymencie.

We wrześniu państwowa agencja Xinhua opisywała historię trzyletniego chłopca porwanego przez nieznajomą kobietę w mieście Shenzhen na południu Chin. Wyposażony w sztuczną inteligencję system analizy obrazu z miejskich kamer monitoringu błyskawicznie odnalazł sprawczynię i pozwolił funkcjonariuszom uwolnić porwanego.

"Poszukiwanie zaginionego dziecka w 10-milionowym mieście mogłoby zająć ludzkiemu oku wieki, ale technologia sztucznej inteligencji potrafi to zrobić w zaledwie dwie sekundy" - podała wtedy chińska agencja.

Ale według obrońców praw człowieka tego rodzaju możliwości techniczne mogą być niebezpieczne, jeśli wziąć pod uwagę bezwzględność chińskich władz wobec wszelkich przejawów sprzeciwu. Organizacja praw człowieka Human Rights Watch (HRW) nazywa rozwój takich systemów w Chinach "dystopijnym dążeniem, by zrewolucjonizować nadzór" nad obywatelami. Chiny planują w najbliższym czasie zamontować w kraju kolejnych 400 mln kamer monitoringu.

HRW zwraca uwagę, że w Chinach nie istnieje sprawna ochrona prywatnych danych. Niepokojący jest według niej również fakt, że niektóre systemy są nastawione na wykrywanie określonych osób, nie tylko kryminalistów, ale również takich, których władze uważają za niewygodne, np. działaczy politycznych czy społecznych, przedstawicieli mniejszości i byłych narkomanów.

Przykładem może być opisywana przez chińskie media historia Wu Binga, który podobnie jak 3 mln innych osób znajduje się w krajowym rejestrze "dynamicznej kontroli i szybkiego ostrzegania" przeznaczonym dla narkomanów. Wu zerwał z nałogiem w 2005 roku, ale do dziś, gdy posługuje się dowodem osobistym, na przykład nocując w hotelu, policja jest o tym powiadamiana i czasem zmusza się go do badań na obecność narkotyków w organizmie.

Sukcesy na polu sztucznej inteligencji odnosi na przykład chińska firma iFlyTek, której systemy rozpoznawania głosu mają być w przyszłym roku montowane w produkowanych w Chinach autach marki Volkswagen - podał dziennik "New York Times". Ta sama firma pomaga władzom stworzyć wielką bazę danych głosów chińskich obywateli, co umożliwi rozpoznawanie ich na przykład na podstawie prowadzonych przez nich rozmów telefonicznych - zwracała w październiku uwagę HRW.

Według amerykańskiego tygodnika "Time" wzbogaci to dostępną chińskim służbom bazę danych biometrycznych, która zawiera już próbki DNA ok. 40 mln i twarze blisko miliarda osób.

Ale władzom nie wystarczają dane na temat przeszłości chińskich obywateli; chciałyby one zajrzeć również w ich przyszłość. Firmy technologiczne i policja opracowują system, który na podstawie analizy obrazu z milionów kamer monitoringu byłby w stanie przewidywać przestępstwa, jeszcze zanim do nich dojdzie.

"Wykorzystując dobrze nasze inteligentne systemy i instalacje, będziemy wiedzieć z wyprzedzeniem () kto może być terrorystą, kto może zrobić coś złego" - mówił w lipcu wiceminister nauki i technologii Li Meng, cytowany przez brytyjski dziennik "Financial Times".

"Policja używa systemu ewaluacji opartego na big data do oceny wysoce podejrzanych grup ludzi na podstawie tego, dokąd chodzą i co robią" - powiedział rzecznik firmy Cloud Walk, która opracowuje taki system. Ryzyko rośnie, gdy dana osoba często odwiedza dworce czy stacje metra i "chodzi do podejrzanych miejsc, takich jak sklepy z nożami" - dodał.

Innym zastosowaniem takich systemów jest tzw. reidentyfikacja, czyli ustalanie tożsamości i śledzenie osób, nawet gdy pojawiają się one w różnych miejscach, za każdym razem inaczej ubrane, lub ukrywają twarze - pisze "FT".

HRW ostrzega, że Chiny starają się eksportować swój model nadzoru do innych krajów. W 2014 organizacja informowała na przykład, że chińska firma telekomunikacyjna ZTE sprzedawała tego rodzaju technologię i szkolenia w zakresie analizy aktywności w sieci i na telefonach komórkowych represyjnemu rządowi Etiopii. Chińskie systemy monitoringu trafiały m.in. do Brazylii, Ekwadoru, Kenii i Wielkiej Brytanii - pisze HRW.

"Jeśli społeczności międzynarodowej nie martwią orwellowskie dążenia chińskiego rządu w Chinach, powinny ją martwić jego skłonność do eksportu takiego podejścia. Na szali jest nie tylko wolność ludzi w Chinach, ale wolność ludzi na całym świecie" - podaje organizacja.

Z drugiej strony chińskie firmy kupują przedsiębiorstwa technologiczne na Zachodzie. W lipcu bieżącego roku Niemcy jako pierwszy kraj UE zacieśniły prawo, by zapewnić, że kluczowe technologie, w tym wykorzystanie sztucznej inteligencji, pozostaną w niemieckich rękach. Przepisy zakazujące sprzedaży wysokich technologii niektórym krajom obowiązują również w USA.

 

«« | « | 1 | » | »»
  • (wujek) Olek
    27.12.2017 12:40
    Sztuczna inteligencja jest tak inteligencją jak sztuczny kwiat kwiatem. Ale przydatnym instrumentem dla kontroli społecznej przez świeckie państwa dowolnego prawa.
  • Bezimienny
    27.12.2017 13:59
    Pisze się tu o Chinach, ale nie sądzę, by podobne systemu nie były testowane i w innych krajach. Choćby w USA. Mydleniem oczu mozna nazwać to, że system jest wykorzystywany "tylko" przeciw niektórym. Na przykład terrorystom. Dziś, owszem. Ale jeśli zajdzie potrzeba, można go w każdej chwili użyć przeciw każdemu. Tworzenie takich rzeczy jest tak samo moralne, jak budowanie bomby atomowej...
  • TomaszL
    27.12.2017 14:13
    AI jako takie nie jest same w sobie ani dobre, ani złe. Ot jedna z nowoczesnych technologii. Jak się ją wykorzysta to kwestia sumień tych co AI budują i wdrażają.

    Dla przykładu rozpoznawanie podobne do tego opisywanego tutaj obrazu pomaga w medycznej diagnostyce obrazowej, ale też wykorzystywane jest już wdrażane choćby w systemach bezpieczeństwa samochodów.

    A z ciekawostek - dziś nie ma już problemu z rozpoznawaniem drukowanego tekstu czy też kodów kreskowych, a także choćby z rozpoznawaniem miejsc po zrobieniu zdjęcia. I to wszystko można już mieć darmowo za pomocą standardowego smartfona.
    Co więcej "inteligencja" telefonu sama rozpoznaje np numer telefonu w teście - bardzo wygodna funkcja....
  • Marek144
    05.01.2018 19:39
    "Chodzi do podejrzanych miejsc, takich jak sklepy z nożami" - dodał. Albo kościoły. Chiny.
Dodaj komentarz
Gość
    Nick (wymagany lub )

    Ze względów bezpieczeństwa, kiedy korzystasz z możliwości napisania komentarza lub dodania intencji, w logach systemowych zapisuje się Twoje IP. Mają do niego dostęp wyłącznie uprawnieni administratorzy systemu. Administratorem Twoich danych jest Instytut Gość Media, z siedzibą w Katowicach 40-042, ul. Wita Stwosza 11. Szanujemy Twoje dane i chronimy je. Szczegółowe informacje na ten temat oraz i prawa, jakie Ci przysługują, opisaliśmy w Polityce prywatności.