Human Rights Watch: Čína používa veľké dáta na cieľové menšinové skupiny

$config[ads_kvadrat] not found

GERMAN UMLAUTS for Dummies - How To Pronounce Ä, Ö, Ü

GERMAN UMLAUTS for Dummies - How To Pronounce Ä, Ö, Ü
Anonim

Čínska vláda používa prediktívne policajné algoritmy na zacielenie etnických menšín v provincii Xinjiang.

Provincia v severozápadnej Číne je domovom 11 miliónov Ujgurov, tureckej moslimskej etnickej skupiny, ktorá bola v posledných rokoch diskriminovaná čínskou vládou.

Úrady teraz údajne využívajú veľké údaje na systematické zameranie sa na každého, kto je podozrivý z politickej neloajálnosti. Tento krok je súčasťou kampane „Strike Hard“ zameranej na zrušenie potenciálnej teroristickej aktivity v Číne. V praxi to viedlo k neprimeranej kontrole Ujgurov, hovorí Human Rights Watch.

Prediktívny policajný systém, známy ako IJOP - Integrovaná spoločná operačná platforma - je kŕmený údajmi z rôznych nástrojov dohľadu. Patria medzi ne CCTV kamery, čísla poznávacích značiek a občianskych preukazov získaných z bezpečnostných kontrolných bodov a zoznam osobných údajov vrátane zdravotných, bankových a právnych záznamov.

Okrem automatizovaného dohľadu vykonávajú vládni úradníci návštevy v domácnostiach s cieľom zhromažďovať údaje o obyvateľstve. Čínsky obchodník sa podelil o formulár, ktorý vyplnil pre záznamy IJOP s Human Rights Watch - okrem iného sa dotazník pýtal, či je podnikateľ Ujgur, ako často sa modlí a kam chodí na bohoslužby.

Všetky tieto dátové vstupy používa IJOP na označovanie ľudí ako potenciálnych hrozieb. Keď je niekto označený, polícia začne ďalšie vyšetrovanie a vezme ich do väzby, ak sa považujú za podozrivé.

„Prvýkrát sme schopní dokázať, že čínska vláda využíva veľké údaje a prediktívnu kontrolu nielen očividne porušuje práva na súkromie, ale tiež umožňuje úradníkom svojvoľne zadržať ľudí,“ povedala Human Rights Watch senior Čína výskumník Maya Wang.

Podľa správy, niektorí z ľudí, ktorí boli pod vlajkou, boli poslaní do stredísk politického vzdelávania, kde sú zadržaní na neurčito bez súdneho procesu.

"Odhaduje sa, že v apríli 2016, úrady Human Rights Watch, vyslali úrady Xinjiang desiatky tisíc Ujgurov a iných etnických menšín do" centier politického vzdelávania ", uvádza sa v správe. IJOP poskytuje týmto zadržaniam dôveryhodnosť tým, že na diskriminačné zatýkania aplikuje fazetu objektívnej, algoritmickej analýzy.

Aby to bolo ešte horšie, vnútorné fungovanie IJOP sú zahalené tajomstvom.

„Ľudia v Sin-ťiangu nedokážu odolať čoraz väčšej rušivej kontrole ich každodenného života, pretože väčšina z nich o tomto„ čiernom skrinkovom “programe ani o tom, ako to funguje, ani nevie,“ povedal Wang.

Je to ten istý problém, ktorý sužuje najviac sofistikované systémy strojového učenia: rozhodovacie postupy, ktoré používajú, sú nepriehľadné aj pre tvorcov algoritmu.

Využitie IJOP v Číne si zaslúži pozornosť, pretože predpovedná policajná činnosť sa s rastúcou technológiou pravdepodobne rozšíri. Ako na to poukázal Jon Christian Osnova prediktívne policajné systémy sú už v niektorých štátoch USA využívané. Policajný útvar v Los Angeles používa softvér, ktorý predvída, kde a kedy sa pravdepodobne vyskytnú trestné činy, aby ich úradníci mohli odvrátiť.

Na druhej strane systému trestnej justície súdne siene niekedy používajú algoritmy, ktoré dávajú potenciálnym bodom „hodnotenie rizika“, aby sudcovia mohli robiť informovanejšie rozhodnutia. Bohužiaľ, tieto údajne nestranné algoritmy skutočne diskriminujú na základe rasy.

Čínsky vpád do prediktívnej polície podčiarkuje dôležitosť implementácie zodpovedného algoritmu, keďže strojové učenie pokračuje vo verejnom sektore. Možno je načase, aby vlády, ktoré sú technicky náročné, prijali novú mantru: Niekedy umelá inteligencia vytvára viac problémov, než rieši.

$config[ads_kvadrat] not found