Štúdia: Algoritmus, ktorý je "zaujatý proti černochom" za chudobnými väzňami predpovede

$config[ads_kvadrat] not found

Gledeskompaniet - K.Å.T

Gledeskompaniet - K.Å.T
Anonim

Algoritmy sú rovnako zaujaté ako ľudia, ktorí ich robia. Vyšetrovanie zo strany ProPublica zistili, že Northpointe, tvorcovia algoritmu, ktorý sa pokúša predpovedať pravdepodobnosť uväznenej osoby spáchať iný trestný čin, predpovedá, že černoši sú omnoho pravdepodobnejší, že sa dopustia trestného činu po tom, čo sa dostali von z bielych.

Algoritmus vytvára hodnotenie rizika pre väzňov. Používa sa v celej krajine na usmernenie dátumov prepustenia väzňov. Po analýze údajov pre viac ako 7000 ľudí v Broward County na Floride je realita rasistických algoritmov jasná: čierni obžalovaní boli takmer dvakrát pravdepodobnejší ako bieli obžalovaní, aby dostali predpovede o spáchaní iného trestného činu.

Analýza kontrolovaná pre premenné, ako je pohlavie a trestné pozadie. Napriek tomu sa predpovedalo, že čierni ľudia budú v budúcnosti pravdepodobne spáchať násilný trestný čin a 45% pravdepodobne spácha akýkoľvek budúci trestný čin. Problém je aj v tom, že iba 20 percent predpovedí spoločnosti Northpointe o tom, kto bude spáchať budúce násilné trestné činy, je presné.

Northpointe používa 137 otázok na posúdenie potenciálu ľudí spáchajúcich trestný čin. Ako správy ProPublica, otázky sa vyhýbajú pýtať sa na preteky priamo. Niektoré otázky však môžu súvisieť.

Príklady otázok zahŕňajú: „Bol jeden z vašich rodičov poslaný do väzenia alebo väzenia?“ A „Ako často ste sa dostali do bojov, kým ste v škole?“ Existujú aj otázky typu áno / nie, napríklad „Hladný človek má právo Medzi ďalšie faktory patrí úroveň vzdelania a či má osoba prácu.

ProPublica podrobne opísala presné metódy, ako pristupovali a analyzovali údaje spoločnosti Northpointe vo vysvetľujúcom stanovisku, a spoločnosť Northpointe poslala spoločnosti ProPublica list, v ktorom sa uvádza, že spoločnosť „nesúhlasí s tým, že výsledky ich analýz alebo tvrdení, ktoré sa na nich zakladajú, sú založené na analýzy, sú správne alebo presne odrážajú výsledky z aplikácie modelu. “

Výsledky ProPublica, ak nie sú neuveriteľne prekvapujúce, sa týkajú. Vyhodnocovanie rizík sa používa na stanovenie podmienečného prepustenia a rozhodovania o sumách dlhopisov; dokonca zaraďujú do trestného odsúdenia v deviatich štátoch.

Technológia nie je konečným riešením každého problému, najmä vzhľadom na to, že technológia je rovnako chybná ako ľudia, ktorí ju robia.

$config[ads_kvadrat] not found