A.I je rýchly Advance by mal byť desivý, ak platíte pozornosť

$config[ads_kvadrat] not found

P!nk - Try (Official Lyric Video)

P!nk - Try (Official Lyric Video)
Anonim

Pokiaľ ide o identifikáciu existenčných hrozieb, ktoré predstavujú technologické inovácie, populárna predstavivosť vyvoláva vízie terminator, Matrix a Ja, Robot - dystopie ovládané robotnými vládcami, ktorí hromadne využívajú a vyhladzujú ľudí. V týchto špekulatívnych futures kombinácia super-inteligencie a zlých zámerov vedie počítače k ​​zničeniu alebo zotročeniu ľudskej rasy.

Nová štúdia však naznačuje, že to budú banálne aplikácie A.I. v najbližších rokoch povedie k vážnym sociálnym dôsledkom. Správa - „Škodlivé používanie umelej inteligencie“ - autor 26 výskumníkov a vedcov z elitných univerzít a technologicky zameraných think-tankov, načrtáva spôsoby, ktorými súčasná A.I. technológie ohrozujú našu fyzickú, digitálnu a politickú bezpečnosť. Aby sa výskum sústredil, výskumná skupina sa zaoberala iba technológiou, ktorá už existuje alebo je pravdepodobné, že v priebehu nasledujúcich piatich rokov.

Čo štúdia zistila: Ad interim systémy pravdepodobne rozšíria existujúce hrozby, zavedú nové a zmenia ich charakter. Práca správy je, že technologický pokrok spôsobí, že niektoré priestupky budú ľahšie a vhodnejšie. Výskumníci tvrdia, že zlepšenia v A.I. zníži množstvo zdrojov a odborných znalostí potrebných na vykonávanie niektorých kybernetických útokov, čím sa účinne znížia prekážky pre trestnú činnosť: t

Náklady na útoky možno znížiť škálovateľným využívaním systémov AI na plnenie úloh, ktoré by zvyčajne vyžadovali ľudskú prácu, inteligenciu a odborné znalosti. Prirodzeným efektom by bolo rozšíriť súbor aktérov, ktorí môžu vykonávať konkrétne útoky, rýchlosť, ktorou môžu tieto útoky vykonávať, a súbor potenciálnych cieľov.

Správa obsahuje štyri odporúčania:

1 - Tvorcovia politiky by mali úzko spolupracovať s technickými výskumníkmi na vyšetrovaní, prevencii a zmierňovaní potenciálnych škodlivých použití AI.

2 - Výskumní pracovníci a inžinieri v oblasti umelej inteligencie by mali brať vážnosť svojej práce s dvojakým použitím, čo by umožnilo, aby nepresné úvahy ovplyvňovali priority a normy výskumu a aby sa aktívne zúčastňovali na relevantných aktéroch, keď sú škodlivé aplikácie predvídateľné.

3 - Vo výskumných oblastiach by sa mali určiť osvedčené postupy s vyspelejšími metódami na riešenie obáv s dvojakým použitím, ako je počítačová bezpečnosť, a v prípade potreby by sa mali dovážať v prípade AI.

4 - Aktívne sa snažiť rozšíriť okruh zainteresovaných strán a odborníkov v oblasti, ktorí sa zúčastňujú na diskusiách o týchto výzvach

Ako A.I. môže urobiť súčasné podvody múdrejšími: napríklad útoky typu phishing spear, v ktorých kon umelci predstavujú priateľa, člena rodiny alebo kolegu za cieľ získať dôveru a získať informácie a peniaze, sú už hrozbou. Dnes však vyžadujú značné výdavky na čas, energiu a odborné znalosti. Ako A.I. systémy zvyšujú sofistikovanosť, niektoré aktivity potrebné pre útoky typu phishing, ako je zhromažďovanie informácií o cieli, môžu byť automatizované. Phisher by potom mohol investovať podstatne menej energie do každého griftu a zacieliť viac ľudí.

A ak podvodníci začnú integrovať A.I. do svojich online prevodov, môže byť nemožné rozlíšiť realitu od simulácie. „Ako sa AI ďalej rozvíja, presvedčivé chatboty môžu vyvolať ľudskú dôveru tým, že zapojia ľudí do dlhších rozhovorov, a možno sa nakoniec vizuálne oklamajú ako iní ľudia vo videorozhovore,“ uvádza sa v správe.

Už sme videli následky strojovo generovaného videa vo forme Deepfakes. Keďže tieto technológie sa stávajú prístupnejšími a užívateľsky prívetivejšími, výskumníci sa obávajú, že zlí herci budú šíriť vymyslené fotografie, videá a zvukové súbory. To by mohlo viesť k veľmi úspešným kampaniam na hanobenie s politickými dôsledkami.

Za klávesnicou: Potenciálne zneužitie nie je obmedzené na internet. Ako sa pohybujeme smerom k prijatiu autonómnych vozidiel, hackeri by mohli nasadiť protichodné príklady, aby oklamali samo-riadiace autá do nesprávneho vnímania svojho okolia. „Obraz stopky s niekoľkými obrazovými bodmi sa zmenil špecifickým spôsobom, ktorý by ľudia ľahko rozpoznali ako obraz stopky, napriek tomu by mohol byť nesprávne klasifikovaný ako niečo úplne iné systémom AI,“ uvádza sa v správe.

Medzi ďalšie hrozby patria autonómne drony s integrovaným softvérom na rozpoznávanie tváre na účely zacielenia, koordinované útoky DOS, ktoré napodobňujú ľudské správanie, a automatizované hyperaktívne dezinformačné kampane.

Správa odporúča, aby výskumníci zvážili potenciálne škodlivé aplikácie A.I. týchto technológií. Ak nie sú zavedené primerané obranné opatrenia, potom už môžeme mať technológiu na zničenie ľudstva, nevyžadujú sa žiadne vrahové roboty.

$config[ads_kvadrat] not found