Pixelated obrázky sú bez zhody pre rozpoznanie tváre Cornell Tech A.I.

$config[ads_kvadrat] not found

Gergely Kadar, Charge D'affaires ad Interim of Huangry Consul in Chongqing

Gergely Kadar, Charge D'affaires ad Interim of Huangry Consul in Chongqing
Anonim

Traja výskumníci z Cornell Tech v New Yorku objavili, že rozmazané a pixelované obrazy nie sú pre umelú inteligenciu zhodné. Hoci skryté obrazy zostávajú pre ľudské oči nezrozumiteľné, a tak sa zdá, že chránia ich citlivý obsah, neurónové siete môžu často presne určiť, kto je v pôvodnom obraze.

Inými slovami, ľudia už nie sú lakmusovým testom. Už sa nemôžeme pýtať len na to, či niečo porazí všetky ľudské mozgy. A.I.s - dokonca aj jednoduché A.I.s - môžu prekonať ľudí, takže ich porazenie musí byť vždy súčasťou rovnice.

Štúdia výskumníkov spoločnosti Cornell Tech sa zamerala na testovanie algoritmov zachovania súkromia, ktoré rozmazávajú alebo pixelovajú určité informácie alebo časti obrázkov. Doteraz sme implicitne dôverovali softvéru alebo algoritmom na ochranu súkromia, pričom sme zistili, že informácie, ktoré utajili, boli bezpečné, pretože nie človek mohol povedať, kto bol za digitálnym závojom. Štúdia ukazuje, že táto éra je u konca, a súvisiace anonymizačné metódy nebudú trvať dlho. Neurónové siete, ktoré sa stretávajú s týmito opatreniami na ochranu súkromia, sú neisté.

Richard McPherson je Ph.D. kandidát na informatiku na Texaskej univerzite, Austin, ktorý nasledoval svojho profesora, Vitaly Shmatikov, na Cornell Tech. Spolu s Rezou Shokri spoločne demonštrovali, že jednoduché neurónové siete môžu odhaliť spoločné techniky zahmlievania obrazu. Táto technika je relatívne nesofistikovaná, čo robí objav viac znepokojujúcim: Sú to bežné, prístupné metódy a boli schopné poraziť priemyselné normy pre zmätky.

Neurónové siete sú veľké vrstvené štruktúry uzlov alebo umelé neuróny, ktoré napodobňujú základnú štruktúru mozgu. "Zakladajú sa na zjednodušenom chápaní fungovania neurónov," hovorí McPherson obrátený, "Dajte mu nejaký vstup a neurón buď požiare, alebo nehorí."

Sú tiež schopní „učiť sa“ hrubým vymedzením pojmu. Ak ukážete divokému (úplne nevzdelanému) človeku niečo „červené“ a poviete im, aby vybrali všetky „červené“ veci z vedra, najprv sa budú bojovať, ale časom sa zlepšia. Tak isto s neurónovými sieťami. Strojové učenie znamená len naučiť počítač, aby si vybral „červené“ veci, napríklad z virtuálneho vedra pestrých vecí.

Takto spoločnosť McPherson a spoločnosť vyškolili svoju neurónovú sieť. „V našom systéme vytvárame model - architektúru neurónových sietí, štruktúrovaný súbor týchto umelých neurónov - a potom im dávame veľké množstvo zmätených obrazov,“ hovorí. "Napríklad by sme im mohli dať sto rôznych obrázkov Carol, ktoré boli pixelated, potom sto rôznych obrázkov Bob, ktoré boli pixelated."

Výskumníci potom tieto pixelované obrázky označia a oznámia modelu, ktorý je v každom obrázku. Po spracovaní tohto súboru dát, sieť funkčne vie, čo Pixelated Bob a Pixelated Carol vyzerať. "Potom môžeme dať iný pixelated obrázok Bob alebo Carol, bez etikety," vysvetľuje McPherson, "a to môže urobiť odhad a povedať:" Myslím, že je to Bob s 95 percentnou presnosťou."

Model neobnovuje zmätený obraz, ale skutočnosť, že je schopný poraziť najbežnejšie a predtým najspoľahlivejšie metódy anonymizácie, je sama o sebe znepokojujúca. „Dokážu zistiť, čo je zmätené, ale nevedia, čo to pôvodne vyzeralo,“ hovorí McPherson.

Ale neurónové siete sú stále schopné robiť to lepšie ako ľudia. Keď boli obrazy najviac zmätené pomocou jednej štandardnej techniky, systém bol stále viac ako 50% presný. Pre mierne menej zmätené obrazy sa systém ukázal ako pozoruhodný, s približne 70% presnosťou. Norma YouTube pre rozmazané tváre úplne zlyhala; Dokonca aj tie najostrejšie snímky boli roztrhané neurónovou sieťou, ktorá sa ukázala ako presná na 96%.

Iné, predtým neupravené údaje, textové a obrazové anonymizačné techniky sú tiež nespoľahlivé. „Počas leta sa objavila práca, ktorá sa pozerala na anonymizáciu textu pomocou pixelationu a rozmazania a ukázala, že aj oni mohli byť zlomení,“ hovorí McPherson. A ďalšie kedysi dôveryhodné metódy môžu byť tiež na ceste von. Hoci nevie, aké sú techniky hlasového zahmlievania, ako tie, ktoré sa používajú pri anonymných televíznych rozhovoroch, „by nebol prekvapený“, ak by neurónové siete mohli narušiť anonymizáciu.

McPhersonov objav potom dokazuje, že „metódy zachovania súkromia, ktoré sme mali v minulosti, nie sú až na šnupanie, najmä s modernými technikami strojového učenia.“ Inými slovami, kódujeme sa do irelevancie, tréningových strojov do prekonaj nás vo všetkých sférach.

„S rastúcou silou strojového učenia sa tento kompromis posunie v prospech protivníkov,“ napísali výskumníci.

$config[ads_kvadrat] not found