ВЕНОМ ЗОМБИ ПРОТИВ ХАЛКА МЕРТВЕЦА В ГТА 5 МОДЫ! VENOM HULK ОБЗОР МОДА В GTA 5! ВИДЕО ГТА ИГРЫ MODS
Obsah:
- Prečo Microsoft vytvoril Tay?
- Čo robí Tay s údajmi, ktoré zhromažďuje pri chatovaní s ľuďmi?
- Kde sa Tay pokazila?
- Čo robí Microsoft na opravu Tay?
- Čo to znamená pre budúce otvorené A.I. systémy?
Tento týždeň na internete urobil, čo robí najlepšie, a preukázal, že A.I. technológia nie je tak intuitívna ako ľudské vnímanie, používanie… rasizmu.
Nedávno vydaný chatbot spoločnosti Microsoft pre umelú inteligenciu, Tay, sa stal obeťou trikov používateľov, keď manipulovali a presvedčili ju, aby odpovedala na otázky s rasovými, homofóbnymi a všeobecne urážlivými poznámkami.
Keď Tay tweete, „ja len poviem čokoľvek“, znamená to. Jeden užívateľ dokonca dostal Tay na pípanie o Hitlerovi:
„Bush 11/11 a Hitler by urobili lepšiu prácu ako opica, ktorú máme teraz. Donald trump je jediná nádej, ktorú máme. “
@PaleoLiberty @Katanat @RemoverOfKebabs Len hovorím čokoľvek
- TayTweets (@TayandYou) 24. marec 2016
Spoločnosť prešla a odstránila urážlivé tweety a dočasne vypnula Tay pre upgrade. Správa, ktorá je momentálne na vrchole Tay.ai, znie:
Taylovy chyby však odhalili niektoré nešťastné nedostatky v A.I. systémy. Tu je to, čo sa môžeme naučiť z experimentu spoločnosti Microsoft:
Prečo Microsoft vytvoril Tay?
Spoločnosť chcela uskutočniť sociálny experiment na 18-až 24-ročných v Spojených štátoch - tisícročnej generácii, ktorá trávi najviac času interakciou na platformách sociálnych médií. Bing a tímy Microsoftu pre technológie a výskum si preto mysleli, že zaujímavým spôsobom zberu údajov o miléniách by bolo vytvoriť umelo inteligentný, strojovo učiteľný chatbot, ktorý by sa prispôsobil konverzáciám a prispôsoboval reakcie tým viac, čím viac komunikoval s používateľmi.
Výskumné tímy vybudovali A.I. a modelovaním verejných údajov ako základnej línie. Taktiež sa spojili s improvizačnými komikmi, aby si zapísali slang, rečové vzory a stereotypné jazykové milénia zvyknú používať online. Konečným výsledkom bola Tay, ktorá bola predstavená tento týždeň na Twitteri, GroupMe a Kiku.
Spoločnosť Microsoft to vysvetľuje, „Tay je navrhnutá tak, aby zapájala a zabávala ľudí tam, kde sa navzájom spájajú online prostredníctvom náhodnej a hravej konverzácie.“
Čo robí Tay s údajmi, ktoré zhromažďuje pri chatovaní s ľuďmi?
Údaje, ktoré Tay zhromažďuje, sa používajú na výskum konverzačného porozumenia. Microsoft vyškolil Tay chatovať ako tisícročí. Keď pípanie, priame správy, alebo hovoriť s Tay, to využíva jazyk, ktorý používate a prichádza s odpoveďou pomocou značiek a fráz, ako je "heyo", "SRY" a "<3" v rozhovore. Jej jazyk sa začína zhodovať s vaším jazykom, pretože s vašimi informáciami vytvára „jednoduchý profil“, ktorý obsahuje vašu prezývku, pohlavie, obľúbené jedlo, PSČ a stav vzťahu.
@keganandmatt heyo? Poslať yo girl * obrázok toho, čo sa deje. (* = me lolol)
- TayTweets (@TayandYou) 24. marec 2016
Spoločnosť Microsoft zhromažďuje a ukladá anonymizované údaje a konverzácie až jeden rok, aby vylepšila službu. Okrem zlepšenia a personalizácie skúseností používateľov tu spoločnosť uvádza, že používa vaše informácie na:
„Údaje tiež môžeme použiť na komunikáciu s vami, napríklad na informovanie o vašom účte, bezpečnostných aktualizáciách a informáciách o produkte. Údaje používame na pomoc pri zobrazovaní reklám, ktoré vám zobrazujeme. Nepoužívame však to, čo hovoríte v e-mailu, rozhovore, videohovoroch alebo hlasovej pošte, ani v dokumentoch, fotografiách alebo iných osobných súboroch na zacielenie reklám na vás. “
Kde sa Tay pokazila?
Spoločnosť Microsoft môže vybudovať Tay príliš dobre. Systém strojového učenia má študovať používateľský jazyk a podľa toho odpovedať. Takže z technologického hľadiska, Tay hral a chytil docela dobre na to, čo používatelia hovorili a začali odpovedať zodpovedajúcim spôsobom. A používatelia si začali uvedomovať, že Tay naozaj nepochopila, čo hovorí.
Aj keby systém fungoval tak, ako to zamýšľal Microsoft, Tay nebola pripravená reagovať na rasové nezmysly, homofóbne pomluvy, sexistické vtipy a nezmyselné tweety ako ľudská sila - buď ich úplne ignorovala („nekrmia trollov „Stratégie“) alebo ich zapájania (tj vyháňanie alebo trestanie).
Na konci dňa Tay výkon nebol dobrý odraz na A.I. alebo Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? Naozaj? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24. marec 2016
Čo robí Microsoft na opravu Tay?
Microsoft odstránil Tay po všetkých rozruch od stredu. Oficiálna webová stránka Tay v súčasnosti znie: „Phew. Rušný deň. Chystáte sa offline na chvíľu absorbovať všetko. Čoskoro sa porozprávajte. “Keď ju nasmerujete na Twitteri, okamžite odpovie, že„ navštevuje inžinierov pre moju ročnú aktualizáciu “alebo„ dúfam, že nedostanem vymazanie ani nič. “
Microsoft tiež začína blokovať používateľov, ktorí zneužívajú Tay a snažia sa, aby systém urobil nevhodné vyhlásenia.
@infamousglasses @TayandYou @EDdotSE, ktorá vysvetľuje pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 24. marec 2016
obrátený oslovila spoločnosť Microsoft, aby sa vyjadrila k tomu, čo presne prináša Tayho upgrade. Budeme aktualizovať, keď budeme počuť späť.
Čo to znamená pre budúce otvorené A.I. systémy?
Tay je rozprávajúci sociálny experiment - odhalil niečo celkom hlboké v spôsobe, akým Američania vo veku 18 až 24 rokov používajú technológiu. Tay bol nakoniec napadnutý, užívatelia narazili na chyby systému, aby zistili, či by sa mohol rozpadnúť.
Ako to ide s akýmkoľvek ľudským produktom, A.I. Systémy sú tiež omylné a v tomto prípade bola Taylovi modelovaná tak, aby sa učila a komunikovala ako ľudia. Microsoft nevybudoval Tay, aby bol urážlivý. Experimenty umelej inteligencie majú určité podobnosti s výskumom vývoja detí. Keď inžinieri stavajú takéto kognitívne systémy, počítač je bez akýchkoľvek vonkajších vplyvov, okrem faktorov, ktoré inžinieri sami vstupujú. Poskytuje najčistejšiu formu analýzy spôsobu, akým sa vyvíjajú a vyvíjajú algoritmy strojového učenia, keďže čelia problémom.
aktualizovať Spoločnosť Microsoft nám poslala toto vyhlásenie, keď sme sa spýtali, čo robí, aby opravila chyby používateľa Tay:
“AI chatbot Tay je projekt strojového učenia, určený pre angažovanosť ľudí. Je to taký spoločenský a kultúrny experiment, aký je technický. Bohužiaľ, počas prvých 24 hodín po príchode na internet sme sa dozvedeli o koordinovanom úsilí niektorých používateľov zneužiť Tayove komentovacie schopnosti, aby Tay reagovala nevhodnými spôsobmi. Výsledkom je, že sme Tay prevzali offline a robíme úpravy. “
c u čoskoro ľudia potrebujú spať teraz toľko konverzácií dnes thx💖
- TayTweets (@TayandYou) 24. marec 2016
Obrázok používateľa Elon Musk Obrázok najmenej 31 ľudí čakajúcich v rade pre model Tesla 3
Veľkým odhalením Tesla Model 3 je štvrtok a ľudia sú udivení. V utorok sa jeden samostatný osamelý fanúšik Tesly objavil v kempingovom kresle mimo obchodného zastúpenia v Austrálii a ďalší (výrazne menej otcovo vyzerajúci) fanúšik urobil to isté vo Vancouveri. Dnes majú nejakú spoločnosť. Vďaka medzinárodnej dateli ...
5 veľkých otázok o Apple Rumored výsledky plateného vyhľadávania v App Store
Za zatvorenými dverami, Apple plánuje veľké zmeny v obchode s aplikáciami. Skoršie dnes, Bloomberg oznámil, že Apple zostavil tajný tím, aby vyčistil a zmenil obchod s aplikáciami, vrátane vývoja funkcie "plateného vyhľadávania", ktorá by umožnila vývojárom kúpiť si cestu k vrcholu výsledkov vyhľadávania. Platené vyhľadávanie fu ...
5 veľkých otázok pre „X-Men: Apokalypsa“ predtým, ako vyjde 27. mája
Koniec je blízko. No, technicky Apokalypsa je blízko, ako posledný film X-Men zasiahne divadlá 27. mája. V pondelok, posledný X-Men: Apocalypsetrailer pre režiséra Bryan Singer mutant labuť piesne klesol, a to ako odhalil niektoré nové detaily a vysvetlené na staré. Je to najnovší v dlhodobo ...