Weaponizing Strojové učenie proti ISIS bude spleť vojenských reťazcov velenia

$config[ads_kvadrat] not found

MIT AGI: Autonomous Weapons Systems Policy (Richard Moyes)

MIT AGI: Autonomous Weapons Systems Policy (Richard Moyes)
Anonim

Všetci na internete mali skvelý čas s Tay, robotom Twitter od spoločnosti Microsoft, ktorý sa v priebehu niekoľkých hodín stal rasistickým denierom holokaustu (potom sa vrátil a urobil to znova). Spoločnosť vytvorila klapku pre vzťahy s verejnosťou - viac incidentov ako katastrofa - a zároveň poskytla verejnosti objektívnu lekciu o výhodách a nevýhodách strojového učenia: Automatizácia môže využiť vzory na fascinujúci efekt pri rýchlosti, ale výsledky sa dajú predvídať ťažko.,

Ako sa často stáva, armáda je prvou aplikáciou automatizačnej technológie. To je - v jednom čase - vedie poplatok k strojovému učeniu a tiež sa snaží zúfalo držať krok. Jednou z hlavných oblastí záujmu Pentagonu sú autonómne roboty a spôsob, akým budú spolupracovať s ľuďmi - napr. Ale tento týždeň, námestník ministra obrany Robert Práca načrtol ďalšiu úlohu pre A.I.: open-source dát krútenie.

„Sme si absolútne istí, že používanie hlboko učiacich sa strojov nám umožní lepšie pochopiť ISIL ako sieť a lepšie porozumieť tomu, ako ju presne zamerať a viesť k jej porážke,“ povedal tajomník ministerstva práce. Internetová stránka DoD. Podľa tohto účtu, Práca, ktorý hovoril na podujatí organizovanom Washington Post, mal jeho epiphany pri sledovaní spoločnosti Silicon Valley tech demonštrovať "stroj, ktorý sa v dátach z Twitter, Instagram a mnoho ďalších verejných zdrojov ukázať, júl 2014 Malajzia Airlines letu 17 zostreliť v reálnom čase."

Súkromné ​​spoločnosti a orgány činné v trestnom konaní sa dlhodobo snažia zmysel pre „veľké údaje“. Ale armáda má výhodu: zdroj. Tiež majú prístup k utajovaným materiálom.

Zdá sa, že vláda USA je pripravená staviť, že softvérové ​​algoritmy môžu triediť obrovské množstvo údajov tam, aby identifikovali ciele ISIS, ktoré by im inak unikli, a odhalili a narušili parcely skôr, ako ich plánovači môžu vykonať. Vláda sa už snaží študovať sociálne médiá, aby predpovedala veľkosť online protestov. Niet pochýb o tom, že strojové učenie poskytne spravodajským analytikom väčšiu moc zmysel pre bohatstvo dostupných informácií na svete. Keď sa však táto inteligencia stane základom, na ktorom sa prijíma smrteľný štrajk, etické otázky sa stávajú zložitejšími, aj keď sa zdajú byť priamočiare.

Hoci práca rýchlo naznačovala, že Pentagon by „delegoval smrteľnú autoritu na stroj“, ktorý zostáva koncovou hrou. Medzitým ľudia zostanú „v slučke“, ako žargón ide. Ale ako každý, kto sa pozrel na iPhone pre správu o počasí, keď stál vedľa okna, vie, že vzťahy, ktoré máme s našimi zariadeniami a softvérom, nie sú jednoduché. Problémy s problematikou sú problematické a ľahko rozptyľované.

„Automatizácia zaujatosti“, tendencia ľudí oddialiť sa na stroje, predstavuje jasné a stále prítomnejšie nebezpečenstvo. Príkladom tohto príkladu na ilustráciu tohto javu je, keď vám telefón povie, aby ste si vybrali trasu cesty, o ktorej viete, že je nesprávna, ale napriek tomu to robíte, za predpokladu, že telefón musí vedieť, čo nie je. Toto je bežný problém v nevojenských kontextoch. Zdá sa, že to, čo Pentagon blížil, je aj správa o hrozbách, ktorú tvorí umelá inteligencia. Nevieme nič o potenciálnej účinnosti tohto programu, okrem toho, že to bude pre ľudí ťažké realizovať.

V štúdii z roku 2001, ktorá sa zaoberá študentmi a profesionálnymi pilotmi a automatizáciou, výskumníci zistili, že „v scenároch, v ktorých boli k dispozícii správne informácie na krížovú kontrolu a detekciu anomálií automatizácie, boli v oboch populáciách dokumentované miery chybovosti približne 55%“. že pridanie ďalšieho ľudského spoluhráča tento problém nezmiernilo.

Podobne, štúdia MIT z minulého roka trochu znepokojivo zistila, že počítačoví a videohry mali „vyšší sklon k nadmernej automatizácii.“ To by mohlo znamenať, že čím viac času strávime, keď pozeráme na naše obrazovky, tým viac veríme tomu, čo vidíme. Problém opäť nie je so systémami, ktoré používame, ale so spôsobom, akým ich používame. Chyba nie je v našich hviezdach, ale v nás samých.

Veľké dáta zostávajú sľubné. Strojové učenie zostáva sľubné. Ale keď stroje radia ľuďom, výsledky sú predvídateľné nepredvídateľné. Znamená Tayho transformácia na neonacistického misogynistu, že Twitter nenávidí Židov a ženy? Je to ťažké vedieť, ale dosť nepravdepodobné. Keď nerozumieme procesu tým, ako sa vstupy stanú výstupmi, snažíme sa riešiť výsledky racionálnym spôsobom. Čo stavia Pentagon do zaujímavej pozície. Sú ľudia, ktorí programujú vojenský softvér na učenie strojov, tí, ktorí si objednajú nálety? Nie je to tak, ako funguje reťaz velenia, ale keď sa zapojí technológia, reťazec velenia sa zamotá.

$config[ads_kvadrat] not found