Povedia autonómne zbrane „nie“ nelegálnym príkazom?

$config[ads_kvadrat] not found

ФИНАЛ ПРОЕКТА! МУЛЬТИМИЛЛИОНЕР С НУЛЯ НА ПЕРЕКУПЕ! 45 ЧАСТЬ! РАДМИР РП КРМП/RADMIR RP CRMP!

ФИНАЛ ПРОЕКТА! МУЛЬТИМИЛЛИОНЕР С НУЛЯ НА ПЕРЕКУПЕ! 45 ЧАСТЬ! РАДМИР РП КРМП/RADMIR RP CRMP!
Anonim

Baynazar Mohammad Nazar bol na operačnom stole v bezvedomí, keď sa na neho začal zrútiť strop. Otec štyroch sa do nemocnice prepustil predchádzajúci deň po tom, čo bol zastrelený na nohe, a počas dvoch dní podstúpil druhú operáciu na opravu zranenia. Keď Američania začali ničiť budovu, lekári, ktorí na ňom pracovali, nemali inú možnosť, ako utiecť na vlastnú päsť tak rýchlo, ako len mohli.

Andrew Quilty na adrese Zahraničná politika rozpráva príbeh o živote a smrti Baynazara v článku, ktorý obsahuje fotografiu jeho tela pokrytú troskami na operačnom stole. Baynazar bol jedným z 31 ľudí, ktorých Spojené štáty zabili, keď zasiahli nemocnicu vedenú Lekármi bez hraníc (tiež nazývanou MSF) v Kunduz, Afganistan, 2. októbra.

Politici a odborníci sa pýtajú, ako by sa takáto vec mohla stať, a čo sa dá urobiť, aby sa to opäť nestalo. Medzi zástancami autonómnych zbraňových systémov, niekedy nazývaných „vrahoví roboti“, je jeden populárny argument, že ľudská chyba (alebo zloba) je zodpovedná za veľkú mieru zločinov spáchaných počas vojny. Teoreticky je možné, že roboti môžu byť presnejší pri ich zacielení a menej náchylní k chybám ako ľudia.

„Ľudský úsudok sa v skutočnosti môže ukázať ako menej spoľahlivé ako technické ukazovatele v horúcom boji,“ píše Michael N. Schmitt, profesor na US Naval War College. "Tí, ktorí veria inak, nezažili vojnu."

Letecký štrajk na nemocnici MSF v Afganistane „spôsobený predovšetkým ľudskou chybou“ http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 25. novembra 2015

Otázkou teda je: môžete naprogramovať nástroje vojny, ktoré obmedzia ľudské správanie, aby stávky, ako napríklad bombardovanie v nemocnici Kunduz, neboli možné, alebo aspoň menej pravdepodobné?

Pravdepodobne nie - aspoň v blízkej budúcnosti. Ale niektorí programátori umelej inteligencie navrhli robota, ktorý by mohol povedať nie ľuďom. Návrh experimentu je jednoduchý: Človek povie robotovi, aby šiel dopredu zo stola, ktorý robot pôvodne odmieta urobiť. Keď človek povie robotovi, že ho chytí, robot prijme objednávku.

To je ďaleko od poloautonómneho útočného vrtuľníka, ktorý hovorí svojej ľudskej posádke, že nemôže vykonať letecký zásah proti nemocnici, pretože by to bol vojnový zločin, ale základný predpoklad je z veľkej časti rovnaký. Ako už zdôraznili iní, ľudská úzkosť z tohto druhu vývoja v robotoch je bežná v sci-fi - myslím, že HAL-9000 hovorí: „Nemôžem to urobiť, Dave“, keď uzamkne človeka mimo vesmírnej stanice v 2001: Space Odyssey.

Pokiaľ ide o špecifiká štrajku Kunduz, mnohé skutočnosti okolo útoku zostávajú sporné. Lekári bez hraníc požadovali nezávislé vyšetrovanie, ktoré vláda Spojených štátov namieta, namiesto toho sľubuje, že bude vykonávať vlastné hodnotenia.

Niektoré časti jedného amerického vyšetrovania boli zverejnené začiatkom tohto mesiaca a zistili, že za štrajk sú zodpovedné ľudské a mechanické chyby. Začiatkom tohto týždňa sa však dvaja členovia služby obrátili na odpor voči zisteniam správy. Hovorí sa, že štrajk nebol chybou. Vo svojom účtovníctve, prvýkrát hlásil AP Spojené štáby pre špeciálne operácie vyzvali na štrajk, pretože nemocnica bola využívaná ako veliteľské a riadiace centrum Talibanu.

V oficiálnej verzii viedla mechanická porucha k tomu, že posádka AC-130 pôvodne získala súradnice pre prázdne pole. Posádka potom hľadala budovu v oblasti, ktorá vyhovovala fyzickému popisu, ktorý im bol daný, a otvorila oheň. Keď sa ich nástroje rekalibrovali, dali posádke správne súradnice pre ich cieľ, ale posádka napriek tomu pokračovala v paľbe na nemocnici.

Ak je tento fakt pravdivý - že počítač bol v konečnom dôsledku presný a ľudia ho ignorovali - dáva istú zásluhu priaznivcom väčšej autonómie v systémoch zbraní. To znamená, že americká vojna proti terorizmu je plná príkladov armády alebo CIA, ktoré zasiahli „správny“ cieľ a stále skončili zabíjaním obrovského množstva civilistov. Automatizácia nevyrieši zlú inteligenciu a pokusy naprogramovať aproximáciu morálky neskončia vojnové zločiny.

V Spojených štátoch existuje veľké pokušenie sterilizovať vojnu a automatizáciu tým, že Američanov odstránia škodu, ktorá je určená na zmenu samotnej definície vojny. Obamova preferencia zabíjania drôtov a sprievodné uistenia, že droni sú najpresnejšie zbrane, aké boli kedy vytvorené, sú najjasnejším prejavom týchto cieľov. "Boli to precízne, presné údery proti al-Káide a ich pobočkám," povedal Obama na stretnutí v roku 2012 v službe Google.

Vládna štúdia z roku 2013 však tieto tvrdenia kontrastuje. Zistilo sa, že bezpilotné lietadlá v Afganistane spôsobili 10-krát viac civilistov ako bezpilotné vozidlá. "Drones nie sú magicky lepšie, aby sa vyhýbali civilistom ako stíhačky," povedala Sarah Holewinski, spoluautorka štúdie. The Guardian, „Keď piloti lietajúcich lietadiel dostali jasné smernice a školili o civilnej ochrane, boli schopní znížiť počet civilných obetí.“

Armáda vynakladá milióny na rozvoj tímových systémov pre ľudí a robotov, čím ďalej stiera hranice medzi misiami, ktoré vykonávajú zbrane s ľudskou posádkou alebo bez posádky. „Na bojoch s ľudskými strojmi chceme robiť to, aby sme sa dostali na ďalšiu úroveň, aby sme sa pozreli na veci, ako je taktika rojenia,“ povedal zástupca ministerstva obrany Bob Work na oficiálnom vedeckom blogu DoD. "Môže F-35 ísť do boja so štyrmi bezpilotnými krídlami?"

Budú títo krídelkári hovoriť nie, ak im ľudský pilot dá rozkaz, ktorý je analogický s odchodom zo stola? A čo rozkaz zničiť nemocnicu alebo školu? V oboch prípadoch sa bude uplatňovať hmla vojny. A ak sa rozhodneme potlačiť stroje, fráza „ľudská chyba“ bude jedným z desivejších pojmov v konfliktoch budúcnosti.

$config[ads_kvadrat] not found