Naša A.I. Politika je uviaznutá v minulosti

$config[ads_kvadrat] not found

Interview with Charge d' Affaires Ad Interim Elizabeth Te 10/19/2016

Interview with Charge d' Affaires Ad Interim Elizabeth Te 10/19/2016
Anonim

Ed Felten, zástupca riaditeľa pre technológiu USA pre politiku v oblasti vedy a technológie, hovorí, že ľudia majú dve hlavné zodpovednosti, pokiaľ ide o rozvoj a rozvoj umelej inteligencie.

Prvý hovorí, že „je prínosom A.I. druhá: „riešiť riziká A.I.“

Felten sa rozprával s miestnosťou ľudí v New York University Skirball Centre pre múzických umení na A.I. Teraz - letná prednáška, ktorú sponzoroval Biely dom, ktorá sa snažila preskúmať a diskutovať o kľúčových otázkach týkajúcich sa budúcnosti A.I. technológie.

Ad interim sa nachádza na križovatke, A.I. Teraz spolupredsedovia Kate Crawfordová (výskumníčka v spoločnosti Microsoft Research) a Meredith Whittaker (zakladateľ a vedúci spoločnosti Google Open Research) poukázali na to. Súkromný a verejný sektor musia spolupracovať na vytvorení nejakého realizovateľného nástroja A.I. politiky. Problém je však v tom, že zatiaľ čo technologické spoločnosti robia obrovské pokroky smerom k napredovaniu skutočného kódu a architektúry, ktorá ide do tvorby A.I. naša súčasná politická štruktúra je zastaraná alebo, čo je horšie, neexistuje.

Príliš dlho, A.I. bol odhodený ako futuristický koncept, nepoužiteľný na moderný vek. Ale A.I. potichu sa prejavil v mestskej politike, preosievaním sa množstvom dát a poskytovaním služieb ľuďom spôsobom, ktorý ľudská moc nedokáže dosiahnuť. Felten citované príklady v spôsobe, akým algoritmy môžu používať údaje na prepojenie ľudí s cenovo dostupným bývaním, alebo presadzovať transparentnosť tak, aby verejnosť mala prístup k cenným informáciám.

To neznamená, že A.I. je dokonalý; Je to veľmi veľa nie, Počas hlavného panelu na večer, Latanya Sweeney, A.I. výskumník na Harvardskej univerzite, prediskutoval príbeh, ktorý nazvala „Deň môjho počítača bol rasistický“.

Reportér, ktorý rozhovor s Sweeney prehľadal jej meno prostredníctvom Google a zistil, že jej meno sa objavuje pod reklamami na stránkach, ktoré ponúkajú zbierať a zdieľať údaje o zatknutí. Sweeney nebol nikdy zatknutý a jej meno nebolo ani súčasťou databázy webovej stránky - ale jej meno bolo v reklame nápadne postriekané. Rovnako ako každý dobrý vedec, Sweeney vzala svoju vlastnú osobnú skúsenosť a viedla štúdiu a zistila, že tieto reklamy boli výrazne pravdepodobnejšie, že vymenujú mená čiernych jedincov ako bielych jedincov. Dôvod? Doručovanie týchto reklám spoločnosťou Google je výsledkom algoritmu, ktorý dáva väčšiu váhu tomu, na čo ľudia klikli pri zobrazovaní reklám. Keď bolo priradené čierne meno, na tieto reklamy kliklo viac ľudí. Systém sa naučil vzor a začal poskytovať tieto reklamy vo väčšej frekvencii.

Je to cenná lekcia, na ktorej sa zakladá prísľub A.I.: ľudia v konečnom dôsledku využívajú energetickú technológiu a rasistické činy na strane ľudí môžu ovplyvniť dizajn a algoritmy, a áno, dokonca aj A.I.

Spoločnosť Google mohla ľahko zistiť tieto predsudky vo svojich reklamných službách a pracovať na ich náprave. "Oni sa rozhodli, že nebudú," argumentoval Sweeney.

Mohol by modernejší politický rámec nútiť spoločnosť Google, aby tento problém napravila? Možno. Nicole Wong, ktorá bola Feltenovým predchodcom od roku 2013 do roku 2014, zdôraznila, že mnoho ľudí - vrátane A.I. samotní výskumníci - mali skutočný záujem o „rastúcu asymetriu moci“ medzi ľuďmi, ktorí používajú veľké údaje, a ľuďmi, ktorí sú v konečnom dôsledku ovplyvnení, čo sa pohybovalo od subjektov údajov, alebo tých, ktorí boli ovplyvnení rozhodnutiami informovanými týmito údajmi.,

Tieto obavy sa neobmedzujú len na súkromný sektor. Roy Austin, zástupca asistenta prezidenta Bieleho domu v Rade pre domácu politiku, sa dotkol toho, ako by mohlo byť presadzovanie práva výrazne zlepšené A.I. - alebo vytvoriť masívne prekročenie moci a zneužívania, pokiaľ ide o súkromie civilistov. „Otázkou je:„ Čo robíme s týmito údajmi? “, Povedal. Jedna vec je mať údaje, ale kto k nej má prístup? Ako dlho? Kto k nemu bude mať prístup? Opäť nemáme politické odpovede ani riešenia týchto otázok a neistôt - a to je znepokojujúce, keďže sa stále viac riadime smerom k budúcnosti AI.

Tretí pilier znepokojenia mal menej čo do činenia s hanebným používaním A.I., a čo viac súvisí s tým, ako A.I. a autonómne systémy presúvajú ľudí z pracovných miest. Henry Siu, A.I. výskumník na Univerzite v Britskej Kolumbii diskutoval o „rutinných“ povolaniach (kde zamestnanci vykonávajú veľmi špecifický súbor úloh, ktoré sa takmer nikdy neodchýlia od stanoveného postupu) a ako sú tieto straty pracovných miest tie, ktoré sú najviac ohrozené narušením technológií. Automatizácia spôsobila prudký pokles týchto pracovných miest - a tie sa nevracajú.

Znie to ako ten istý starý príbeh industrializácie, ale nie je to tak celkom. Kým „táto revolúcia tu už môže byť… môže byť menej exotická, než sme si predstavovali,“ varoval David Edelman, špeciálny asistent prezidenta Hospodárskej a technologickej politiky. Strata zamestnania „nestane sa naraz.“ Obaja on a Siu zdôraznili, že riešením je vytvoriť vzdelávacie prostredie, v ktorom ľudia neprestávajú chodiť do školy a neustále získavajú nové zručnosti a špecializácie, ktoré im umožňujú prispôsobiť sa. s technológie.

Politikov by mohlo potešiť, aby si uvedomili, že Spojené štáty nie sú pri riešení týchto otázok samé. Ak má však Amerika v úmysle pokračovať v ceste smerom k A.I., musí to urobiť v politickej aréne.

Mustafa Suleyman, spoluzakladateľ spoločnosti Google DeepMind, diskutoval o potenciáli pre A.I. pomáhať systémom zdravotnej starostlivosti a umožniť lekárom na strojových algoritmoch diagnostikovať určité choroby a choroby - uvoľniť čas pre ľudí, aby prišli s liečebnými metódami. Pre Suleymana, ktorý je Britom, sa nezdalo, že by bol taký systém, aký by bol vytvorený v nemocniciach. Sweeney však poukázal na to, že „v USA nemáte kontrolu nad svojimi vlastnými údajmi“ - neexistujú žiadne regulačné opatrenia na zabezpečenie toho, aby sa informácie nezneužívali. A to je obrovský problém.

"Chcem všetko, čo môžem vytlačiť z každého úspechu technológie," povedal Sweeney. „Problém nie je technologickou stránkou; Problém je v tom, že sme mimo verejného poriadku. “

$config[ads_kvadrat] not found