Ad interim Výskumný ústav ukazuje, ako vytvoriť zodpovedné algoritmy

$config[ads_kvadrat] not found

Sushi Toria Yerevan

Sushi Toria Yerevan
Anonim

Výskumný ústav AI Now zverejnil v stredu nové odporúčania pre zodpovednú implementáciu algoritmov vo verejnej sfére.Ich rada je zameraná na pracovnú skupinu, ktorú v januári vytvorila mestská rada v New Yorku, ktorá študuje vládne využívanie umelej inteligencie.

Prehľad služby AI Now, Algoritmické hodnotenie vplyvu: Smerom k zodpovednej automatizácii vo verejných agentúrach poukazuje na potrebu transparentnosti pri zavádzaní algoritmov. Algoritmy majú obrovský vplyv na náš každodenný život, ale ich vplyv sa niekedy stáva bez povšimnutia. Pretože sú napríklad zapálené v infraštruktúre sociálnych médií a video platforiem, je ľahké zabudnúť, že programy často určujú, aký obsah sa posúva používateľom internetu. Až keď sa niečo pokazí, ako napríklad video o konšpiračnej teórii, ktoré sa dostalo na vrchol zoznamu trendov služby YouTube, skúmame automatizované postupy rozhodovania, ktoré formujú zážitky online.

A algoritmy nie sú obmedzené na internetové platformy. Vládne inštitúcie sa v čoraz väčšej miere spoliehajú na algoritmy v oblastiach od vzdelávania až po trestné súdnictvo. V ideálnom svete by algoritmy odstránili ľudské predsudky z tvrdých rozhodnutí, ako je určenie, či by mal byť odsúdený trest odňatia slobody. V praxi sú však algoritmy rovnako účinné ako ľudia, ktorí ich vytvárajú.

Napríklad vyšetrovanie podľa ProPublica preukázali, že algoritmy hodnotenia rizika používané v súdnych sieni boli rasovo zaujaté. Aby to bolo ešte horšie, mnohé algoritmy používané vo verejnom sektore sú v súkromnom vlastníctve a niektoré spoločnosti odmietajú zdieľať kód, ktorý je základom ich softvéru. To znemožňuje pochopiť, prečo tieto tzv. „Black box“ algoritmy vracajú určité výsledky.

Jedným z možných riešení, ktoré ponúka AI Now? Algoritmické hodnotenie vplyvu. Tieto hodnotenia vytvárajú normu úplnej transparentnosti, čo znamená, že vládne agentúry, ktoré používajú algoritmy, budú musieť zverejniť, kedy a ako ich používajú. „Táto požiadavka by sama osebe viedla k tomu, že by sa dalo vydať na svetlo, ktoré technológie sa využívajú, aby slúžili verejnosti, a kde by sa mal zamerať výskum zodpovednosti,“ uvádza sa v správe.

Politika otvorenosti obklopujúca algoritmy by tiež otvorila dvere občanom, aby mohli kontrolovať a protestovať proti ich používaniu. Chceli by ste algoritmus, ktorý by vám poskytol skóre hodnotenia rizika na základe faktorov mimo vašej kontroly, najmä ak by toto skóre mohlo pomôcť určiť, či idete do väzenia? Možno áno možno nie. V každom prípade je dôležité presne vedieť, ktoré premenné sú analyzované algoritmom.

Okrem toho AI Now odporúča stanoviť právny štandard pre ľudí, aby lobovali proti nekalým algoritmom.

Ak napríklad agentúra nezverejní systémy, ktoré primerane spadajú do rozsahu tých, ktorí vykonávajú automatizované rozhodnutia, alebo ak to umožňuje dodávateľom, aby urobili požiadavky na overenie obchodných tajomstiev cez palubu, a tým blokujú zmysluplný prístup do systému, verejnosť by mala mať možnosť vyjadriť svoje obavy týkajúce sa orgán agentúry dohľadu, alebo priamo na súde, ak agentúra odmietla napraviť tieto problémy po období verejného pripomienkovania.

Odporúčania sa v podstate znižujú na jeden zastrešujúci mandát: Ak používate algoritmy, nenechajte sa tým trápiť.

Prečítajte si celú správu.

$config[ads_kvadrat] not found