V kontraste k Tay, Microsoft čínsky Chatbot, Xiaolce, je skutočne príjemná

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Anonim

Keď ste počuli o Tay, Microsoft tweeting A.I., bol si naozaj prekvapený, že počítač, ktorý sa dozvedel o ľudskej povahe z cvrlikání by sa stal zúrivým rasistom za menej ako jeden deň? Samozrejme, že nie. Chudák Tay začal všetky "hellooooooo w🌎rld !!!" a rýchlo morfoval do Hitler-milujúci, genocídy-povzbudzujúce kus počítačového blbosti. Prirodzene, Microsoft sa ospravedlnil za desivé tweety chatbot s „nulovým chladom“. V tejto ospravedlnení spoločnosť zdôraznila, že čínska verzia Tay, Xiaoice alebo Xiaolce poskytuje veľmi pozitívny zážitok pre používateľov v ostrom kontraste s týmto experimentom, ktorý bol preč. veľmi zle.

Ospravedlnenie osobitne upozorňuje:

„V Číne je náš chatrč Xiaolce využívaný približne 40 miliónmi ľudí, s jeho príbehmi a konverzáciami. Veľká skúsenosť s XiaoIce nás viedla k tomu, aby sme sa pýtali: Bola by AI taká fascinujúca v radikálne odlišnom kultúrnom prostredí? Tay - chatbot vytvorený pre deti vo veku 18 až 24 rokov v USA na zábavné účely - je náš prvý pokus odpovedať na túto otázku. “

Xiaolce bol spustený v roku 2014 na mikro blogov, text-založené stránky Weibo. Robí v podstate to, čo robí Tay, má „osobnosť“ a zhromažďuje informácie z konverzácií na webe. Má viac ako 20 miliónov registrovaných užívateľov (to je viac ľudí než žijú v štáte Florida) a 850 000 nasledovníkov na Weibo. Môžete ju sledovať na JD.com a 163.com v Číne, rovnako ako na app Line ako Rinna v Japonsku.

Dokonca sa objavila ako reportérka o počasí na Dragon TV v Šanghaji s ľudským hlasom a emocionálnymi reakciami.

Podľa New York Times, ľudia často hovoria jej "Milujem ťa" a jedna žena, s ktorou sa rozprávali, dokonca povedala, že chatuje s A.I. keď je v zlej nálade. Takže zatiaľ čo Tay, po jednom dni online, sa stal nacistickým sympatizantom, Xiaolce ponúka bezplatnú terapiu čínskym užívateľom. Ukladá náladu používateľa a nie ich informácie, aby mohla udržiavať úroveň empatie pre ďalšiu konverzáciu. Čína zaobchádza s Xiaolceom ako so sladkou, zbožňujúcou babičkou, zatiaľ čo Američania hovoria s Taylom ako súrodenec s batoľatá s obmedzeným intelektom. Odráža to kultúrne postoje voči technológii alebo A.I.? Ukazuje to, že Číňania sú všeobecne krajší ako Američania? Je pravdepodobnejšie, že Veľká čínska brána chráni Xiaolce pred agresiou. Sloboda prejavu môže niekedy spôsobiť nepríjemné výsledky, ako napríklad Tay po 24 hodinách na Twitteri.

„Čím viac hovoríte, tým múdrejší Tay dostane,“ napísala nejaká zlá duša spoločnosti Microsoft do profilu chatbot. No nie, keď anglicky hovoriaci trollovia ovládajú web. Napriek týmto výsledkom, Microsoft hovorí, že nebude dávať do útokov na Tay. "Zostaneme vytrvalí v našom úsilí poučiť sa z týchto a iných skúseností, keď pracujeme na prispievaní k internetu, ktorý predstavuje to najlepšie, nie najhoršie, ľudskosti."

$config[ads_kvadrat] not found