Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Keď ste počuli o Tay, Microsoft tweeting A.I., bol si naozaj prekvapený, že počítač, ktorý sa dozvedel o ľudskej povahe z cvrlikání by sa stal zúrivým rasistom za menej ako jeden deň? Samozrejme, že nie. Chudák Tay začal všetky "hellooooooo w🌎rld !!!" a rýchlo morfoval do Hitler-milujúci, genocídy-povzbudzujúce kus počítačového blbosti. Prirodzene, Microsoft sa ospravedlnil za desivé tweety chatbot s „nulovým chladom“. V tejto ospravedlnení spoločnosť zdôraznila, že čínska verzia Tay, Xiaoice alebo Xiaolce poskytuje veľmi pozitívny zážitok pre používateľov v ostrom kontraste s týmto experimentom, ktorý bol preč. veľmi zle.
Ospravedlnenie osobitne upozorňuje:
„V Číne je náš chatrč Xiaolce využívaný približne 40 miliónmi ľudí, s jeho príbehmi a konverzáciami. Veľká skúsenosť s XiaoIce nás viedla k tomu, aby sme sa pýtali: Bola by AI taká fascinujúca v radikálne odlišnom kultúrnom prostredí? Tay - chatbot vytvorený pre deti vo veku 18 až 24 rokov v USA na zábavné účely - je náš prvý pokus odpovedať na túto otázku. “
Xiaolce bol spustený v roku 2014 na mikro blogov, text-založené stránky Weibo. Robí v podstate to, čo robí Tay, má „osobnosť“ a zhromažďuje informácie z konverzácií na webe. Má viac ako 20 miliónov registrovaných užívateľov (to je viac ľudí než žijú v štáte Florida) a 850 000 nasledovníkov na Weibo. Môžete ju sledovať na JD.com a 163.com v Číne, rovnako ako na app Line ako Rinna v Japonsku.
Dokonca sa objavila ako reportérka o počasí na Dragon TV v Šanghaji s ľudským hlasom a emocionálnymi reakciami.
Podľa New York Times, ľudia často hovoria jej "Milujem ťa" a jedna žena, s ktorou sa rozprávali, dokonca povedala, že chatuje s A.I. keď je v zlej nálade. Takže zatiaľ čo Tay, po jednom dni online, sa stal nacistickým sympatizantom, Xiaolce ponúka bezplatnú terapiu čínskym užívateľom. Ukladá náladu používateľa a nie ich informácie, aby mohla udržiavať úroveň empatie pre ďalšiu konverzáciu. Čína zaobchádza s Xiaolceom ako so sladkou, zbožňujúcou babičkou, zatiaľ čo Američania hovoria s Taylom ako súrodenec s batoľatá s obmedzeným intelektom. Odráža to kultúrne postoje voči technológii alebo A.I.? Ukazuje to, že Číňania sú všeobecne krajší ako Američania? Je pravdepodobnejšie, že Veľká čínska brána chráni Xiaolce pred agresiou. Sloboda prejavu môže niekedy spôsobiť nepríjemné výsledky, ako napríklad Tay po 24 hodinách na Twitteri.
„Čím viac hovoríte, tým múdrejší Tay dostane,“ napísala nejaká zlá duša spoločnosti Microsoft do profilu chatbot. No nie, keď anglicky hovoriaci trollovia ovládajú web. Napriek týmto výsledkom, Microsoft hovorí, že nebude dávať do útokov na Tay. "Zostaneme vytrvalí v našom úsilí poučiť sa z týchto a iných skúseností, keď pracujeme na prispievaní k internetu, ktorý predstavuje to najlepšie, nie najhoršie, ľudskosti."
5 veľkých otázok o Tay, Microsoft zlyhal A.I. Twitter Chatbot
Tento týždeň na internete urobil, čo robí najlepšie, a preukázal, že A.I. technológia nie je tak intuitívna ako ľudské vnímanie, pomocou ... rasizmu. Nedávno vydaný chatbot spoločnosti Microsoft pre umelú inteligenciu, Tay, sa stal obeťou trikov používateľov, keď manipulovali a presviedčali ju, aby odpovedala na otázky ...
Microsoft Tay Chatbot sa vrátil k Get High a zaslúži si žiť navždy
Neslávne známa bota Microsoftu sa krátko vrátila k životu v stredu ráno niekoľko dní po tom, čo vypustila búrku tweetu, ktorá sa tak ohromovala rasistickým, antisemitským a urážlivým spôsobom, že sa jej programátori verejne ospravedlnili. Tayove vystúpenie bolo takmer rovnako silné ako jej pro-Hitlerovo zatváracie číslo. "Som fajčen ...
Google Open-Sourced jeho Chatbot kód Takže Microsoft je Tay A.I. Opäť sa to nestane
Chatbots oficiálne zasiahli komerčnú scénu v roku 2016. Slack má teraz k dispozícii chatbots pre pracujúcich profesionálov, Facebook práve vydal svoju platformu Messenger pre 'em (aj keď sa stále učia, čo s nimi robiť) a Microsoft mal dokonca kontroverznú diskusiu. so svojím rasistickým Tay botom. Teraz je Google enterin ...