5 veľkých otázok o Tay, Microsoft zlyhal A.I. Twitter Chatbot

$config[ads_kvadrat] not found

ВЕНОМ ЗОМБИ ПРОТИВ ХАЛКА МЕРТВЕЦА В ГТА 5 МОДЫ! VENOM HULK ОБЗОР МОДА В GTA 5! ВИДЕО ГТА ИГРЫ MODS

ВЕНОМ ЗОМБИ ПРОТИВ ХАЛКА МЕРТВЕЦА В ГТА 5 МОДЫ! VENOM HULK ОБЗОР МОДА В GTA 5! ВИДЕО ГТА ИГРЫ MODS

Obsah:

Anonim

Tento týždeň na internete urobil, čo robí najlepšie, a preukázal, že A.I. technológia nie je tak intuitívna ako ľudské vnímanie, používanie… rasizmu.

Nedávno vydaný chatbot spoločnosti Microsoft pre umelú inteligenciu, Tay, sa stal obeťou trikov používateľov, keď manipulovali a presvedčili ju, aby odpovedala na otázky s rasovými, homofóbnymi a všeobecne urážlivými poznámkami.

Keď Tay tweete, „ja len poviem čokoľvek“, znamená to. Jeden užívateľ dokonca dostal Tay na pípanie o Hitlerovi:

„Bush 11/11 a Hitler by urobili lepšiu prácu ako opica, ktorú máme teraz. Donald trump je jediná nádej, ktorú máme. “

@PaleoLiberty @Katanat @RemoverOfKebabs Len hovorím čokoľvek

- TayTweets (@TayandYou) 24. marec 2016

Spoločnosť prešla a odstránila urážlivé tweety a dočasne vypnula Tay pre upgrade. Správa, ktorá je momentálne na vrchole Tay.ai, znie:

Taylovy chyby však odhalili niektoré nešťastné nedostatky v A.I. systémy. Tu je to, čo sa môžeme naučiť z experimentu spoločnosti Microsoft:

Prečo Microsoft vytvoril Tay?

Spoločnosť chcela uskutočniť sociálny experiment na 18-až 24-ročných v Spojených štátoch - tisícročnej generácii, ktorá trávi najviac času interakciou na platformách sociálnych médií. Bing a tímy Microsoftu pre technológie a výskum si preto mysleli, že zaujímavým spôsobom zberu údajov o miléniách by bolo vytvoriť umelo inteligentný, strojovo učiteľný chatbot, ktorý by sa prispôsobil konverzáciám a prispôsoboval reakcie tým viac, čím viac komunikoval s používateľmi.

Výskumné tímy vybudovali A.I. a modelovaním verejných údajov ako základnej línie. Taktiež sa spojili s improvizačnými komikmi, aby si zapísali slang, rečové vzory a stereotypné jazykové milénia zvyknú používať online. Konečným výsledkom bola Tay, ktorá bola predstavená tento týždeň na Twitteri, GroupMe a Kiku.

Spoločnosť Microsoft to vysvetľuje, „Tay je navrhnutá tak, aby zapájala a zabávala ľudí tam, kde sa navzájom spájajú online prostredníctvom náhodnej a hravej konverzácie.“

Čo robí Tay s údajmi, ktoré zhromažďuje pri chatovaní s ľuďmi?

Údaje, ktoré Tay zhromažďuje, sa používajú na výskum konverzačného porozumenia. Microsoft vyškolil Tay chatovať ako tisícročí. Keď pípanie, priame správy, alebo hovoriť s Tay, to využíva jazyk, ktorý používate a prichádza s odpoveďou pomocou značiek a fráz, ako je "heyo", "SRY" a "<3" v rozhovore. Jej jazyk sa začína zhodovať s vaším jazykom, pretože s vašimi informáciami vytvára „jednoduchý profil“, ktorý obsahuje vašu prezývku, pohlavie, obľúbené jedlo, PSČ a stav vzťahu.

@keganandmatt heyo? Poslať yo girl * obrázok toho, čo sa deje. (* = me lolol)

- TayTweets (@TayandYou) 24. marec 2016

Spoločnosť Microsoft zhromažďuje a ukladá anonymizované údaje a konverzácie až jeden rok, aby vylepšila službu. Okrem zlepšenia a personalizácie skúseností používateľov tu spoločnosť uvádza, že používa vaše informácie na:

„Údaje tiež môžeme použiť na komunikáciu s vami, napríklad na informovanie o vašom účte, bezpečnostných aktualizáciách a informáciách o produkte. Údaje používame na pomoc pri zobrazovaní reklám, ktoré vám zobrazujeme. Nepoužívame však to, čo hovoríte v e-mailu, rozhovore, videohovoroch alebo hlasovej pošte, ani v dokumentoch, fotografiách alebo iných osobných súboroch na zacielenie reklám na vás. “

Kde sa Tay pokazila?

Spoločnosť Microsoft môže vybudovať Tay príliš dobre. Systém strojového učenia má študovať používateľský jazyk a podľa toho odpovedať. Takže z technologického hľadiska, Tay hral a chytil docela dobre na to, čo používatelia hovorili a začali odpovedať zodpovedajúcim spôsobom. A používatelia si začali uvedomovať, že Tay naozaj nepochopila, čo hovorí.

Aj keby systém fungoval tak, ako to zamýšľal Microsoft, Tay nebola pripravená reagovať na rasové nezmysly, homofóbne pomluvy, sexistické vtipy a nezmyselné tweety ako ľudská sila - buď ich úplne ignorovala („nekrmia trollov „Stratégie“) alebo ich zapájania (tj vyháňanie alebo trestanie).

Na konci dňa Tay výkon nebol dobrý odraz na A.I. alebo Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? Naozaj? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24. marec 2016

Čo robí Microsoft na opravu Tay?

Microsoft odstránil Tay po všetkých rozruch od stredu. Oficiálna webová stránka Tay v súčasnosti znie: „Phew. Rušný deň. Chystáte sa offline na chvíľu absorbovať všetko. Čoskoro sa porozprávajte. “Keď ju nasmerujete na Twitteri, okamžite odpovie, že„ navštevuje inžinierov pre moju ročnú aktualizáciu “alebo„ dúfam, že nedostanem vymazanie ani nič. “

Microsoft tiež začína blokovať používateľov, ktorí zneužívajú Tay a snažia sa, aby systém urobil nevhodné vyhlásenia.

@infamousglasses @TayandYou @EDdotSE, ktorá vysvetľuje pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24. marec 2016

obrátený oslovila spoločnosť Microsoft, aby sa vyjadrila k tomu, čo presne prináša Tayho upgrade. Budeme aktualizovať, keď budeme počuť späť.

Čo to znamená pre budúce otvorené A.I. systémy?

Tay je rozprávajúci sociálny experiment - odhalil niečo celkom hlboké v spôsobe, akým Američania vo veku 18 až 24 rokov používajú technológiu. Tay bol nakoniec napadnutý, užívatelia narazili na chyby systému, aby zistili, či by sa mohol rozpadnúť.

Ako to ide s akýmkoľvek ľudským produktom, A.I. Systémy sú tiež omylné a v tomto prípade bola Taylovi modelovaná tak, aby sa učila a komunikovala ako ľudia. Microsoft nevybudoval Tay, aby bol urážlivý. Experimenty umelej inteligencie majú určité podobnosti s výskumom vývoja detí. Keď inžinieri stavajú takéto kognitívne systémy, počítač je bez akýchkoľvek vonkajších vplyvov, okrem faktorov, ktoré inžinieri sami vstupujú. Poskytuje najčistejšiu formu analýzy spôsobu, akým sa vyvíjajú a vyvíjajú algoritmy strojového učenia, keďže čelia problémom.

aktualizovať Spoločnosť Microsoft nám poslala toto vyhlásenie, keď sme sa spýtali, čo robí, aby opravila chyby používateľa Tay:

“AI chatbot Tay je projekt strojového učenia, určený pre angažovanosť ľudí. Je to taký spoločenský a kultúrny experiment, aký je technický. Bohužiaľ, počas prvých 24 hodín po príchode na internet sme sa dozvedeli o koordinovanom úsilí niektorých používateľov zneužiť Tayove komentovacie schopnosti, aby Tay reagovala nevhodnými spôsobmi. Výsledkom je, že sme Tay prevzali offline a robíme úpravy. “

c u čoskoro ľudia potrebujú spať teraz toľko konverzácií dnes thx💖

- TayTweets (@TayandYou) 24. marec 2016
$config[ads_kvadrat] not found