MIT AGI: Autonomous Weapons Systems Policy (Richard Moyes)
Všetci na internete mali skvelý čas s Tay, robotom Twitter od spoločnosti Microsoft, ktorý sa v priebehu niekoľkých hodín stal rasistickým denierom holokaustu (potom sa vrátil a urobil to znova). Spoločnosť vytvorila klapku pre vzťahy s verejnosťou - viac incidentov ako katastrofa - a zároveň poskytla verejnosti objektívnu lekciu o výhodách a nevýhodách strojového učenia: Automatizácia môže využiť vzory na fascinujúci efekt pri rýchlosti, ale výsledky sa dajú predvídať ťažko.,
Ako sa často stáva, armáda je prvou aplikáciou automatizačnej technológie. To je - v jednom čase - vedie poplatok k strojovému učeniu a tiež sa snaží zúfalo držať krok. Jednou z hlavných oblastí záujmu Pentagonu sú autonómne roboty a spôsob, akým budú spolupracovať s ľuďmi - napr. Ale tento týždeň, námestník ministra obrany Robert Práca načrtol ďalšiu úlohu pre A.I.: open-source dát krútenie.
„Sme si absolútne istí, že používanie hlboko učiacich sa strojov nám umožní lepšie pochopiť ISIL ako sieť a lepšie porozumieť tomu, ako ju presne zamerať a viesť k jej porážke,“ povedal tajomník ministerstva práce. Internetová stránka DoD. Podľa tohto účtu, Práca, ktorý hovoril na podujatí organizovanom Washington Post, mal jeho epiphany pri sledovaní spoločnosti Silicon Valley tech demonštrovať "stroj, ktorý sa v dátach z Twitter, Instagram a mnoho ďalších verejných zdrojov ukázať, júl 2014 Malajzia Airlines letu 17 zostreliť v reálnom čase."
Súkromné spoločnosti a orgány činné v trestnom konaní sa dlhodobo snažia zmysel pre „veľké údaje“. Ale armáda má výhodu: zdroj. Tiež majú prístup k utajovaným materiálom.
Zdá sa, že vláda USA je pripravená staviť, že softvérové algoritmy môžu triediť obrovské množstvo údajov tam, aby identifikovali ciele ISIS, ktoré by im inak unikli, a odhalili a narušili parcely skôr, ako ich plánovači môžu vykonať. Vláda sa už snaží študovať sociálne médiá, aby predpovedala veľkosť online protestov. Niet pochýb o tom, že strojové učenie poskytne spravodajským analytikom väčšiu moc zmysel pre bohatstvo dostupných informácií na svete. Keď sa však táto inteligencia stane základom, na ktorom sa prijíma smrteľný štrajk, etické otázky sa stávajú zložitejšími, aj keď sa zdajú byť priamočiare.
Hoci práca rýchlo naznačovala, že Pentagon by „delegoval smrteľnú autoritu na stroj“, ktorý zostáva koncovou hrou. Medzitým ľudia zostanú „v slučke“, ako žargón ide. Ale ako každý, kto sa pozrel na iPhone pre správu o počasí, keď stál vedľa okna, vie, že vzťahy, ktoré máme s našimi zariadeniami a softvérom, nie sú jednoduché. Problémy s problematikou sú problematické a ľahko rozptyľované.
„Automatizácia zaujatosti“, tendencia ľudí oddialiť sa na stroje, predstavuje jasné a stále prítomnejšie nebezpečenstvo. Príkladom tohto príkladu na ilustráciu tohto javu je, keď vám telefón povie, aby ste si vybrali trasu cesty, o ktorej viete, že je nesprávna, ale napriek tomu to robíte, za predpokladu, že telefón musí vedieť, čo nie je. Toto je bežný problém v nevojenských kontextoch. Zdá sa, že to, čo Pentagon blížil, je aj správa o hrozbách, ktorú tvorí umelá inteligencia. Nevieme nič o potenciálnej účinnosti tohto programu, okrem toho, že to bude pre ľudí ťažké realizovať.
V štúdii z roku 2001, ktorá sa zaoberá študentmi a profesionálnymi pilotmi a automatizáciou, výskumníci zistili, že „v scenároch, v ktorých boli k dispozícii správne informácie na krížovú kontrolu a detekciu anomálií automatizácie, boli v oboch populáciách dokumentované miery chybovosti približne 55%“. že pridanie ďalšieho ľudského spoluhráča tento problém nezmiernilo.
Podobne, štúdia MIT z minulého roka trochu znepokojivo zistila, že počítačoví a videohry mali „vyšší sklon k nadmernej automatizácii.“ To by mohlo znamenať, že čím viac času strávime, keď pozeráme na naše obrazovky, tým viac veríme tomu, čo vidíme. Problém opäť nie je so systémami, ktoré používame, ale so spôsobom, akým ich používame. Chyba nie je v našich hviezdach, ale v nás samých.
Veľké dáta zostávajú sľubné. Strojové učenie zostáva sľubné. Ale keď stroje radia ľuďom, výsledky sú predvídateľné nepredvídateľné. Znamená Tayho transformácia na neonacistického misogynistu, že Twitter nenávidí Židov a ženy? Je to ťažké vedieť, ale dosť nepravdepodobné. Keď nerozumieme procesu tým, ako sa vstupy stanú výstupmi, snažíme sa riešiť výsledky racionálnym spôsobom. Čo stavia Pentagon do zaujímavej pozície. Sú ľudia, ktorí programujú vojenský softvér na učenie strojov, tí, ktorí si objednajú nálety? Nie je to tak, ako funguje reťaz velenia, ale keď sa zapojí technológia, reťazec velenia sa zamotá.
Hlboké „posilňovanie učenia“ je učenie robotov nové zručnosti rýchlejšie ako kedykoľvek predtým
Schopnosť, ktorá trvá mesiace, aby sa učiť, môže trvať niekoľko hodín, podľa Google DeepMind Raia Hadsell.
Americký vojenský predstavil satelitný raketový satelitný štvrtok
Vo štvrtok americká armáda spustí vesmírny infračervený systém (SBIRS) GEO Flight-4 na obežnú dráhu. Je to satelitný výstražný satelit.
Deepfakes nie sú zhodné pre strojové učenie - tu je prečo
Doteraz ľudia používali hlboké videá v pornografii a satire, aby sa ukázalo, že slávni ľudia robia veci, ktoré by normálne nemali. Počas sezóny kampane sa však objavia takmer isté prehry, ktoré majú za cieľ zobrazovať kandidátov, ktorí hovoria veci alebo miesta, na ktorých by skutočný kandidát nebol.