Vykonal Microsoft Tay Fail test Turing? Áno, ale rasizmus nebol problém

$config[ads_kvadrat] not found

50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"

50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"
Anonim

Ak je úspech umelej inteligencie tvorbou umelého osobnosť, A.I. bot, Tay, možno považovať za znamenie pokroku. Ale všeobecnejšie, Tay môže byť posudzovaná ako neúspech.

„Cieľom väčšiny ľudí, ktorí pracujú na konverzačných agentoch tohto druhu, nie je ani to, aby prešli akýmkoľvek testom Turingov, ale aby skutočne používali jazyk, ktorý rozumne reaguje na veci a poskytuje ľuďom prístup k vedomostiam,“ t Miles Brundage, Ph.D. Študent študuje ľudské a sociálne dimenzie vedy a techniky na Arizonskej štátnej univerzite obrátený.

Spoločnosť Microsoft ilustrovala niektoré problémy s konštrukciou A.I. Programy tento týždeň, keď za menej ako 24 hodín, internet obrátil to, čo malo byť ženská, tisícročná, automatizovaná, Twitter osobnosť do ozvučnej dosky pre najviac rasistické a odporné reči, ktoré trollové ponúkali.

Microsoft okamžite zatvoril experiment a ospravedlnil sa: „Sme hlboko ľúto za neúmyselné útoky a škodlivé tweety od Tay, ktoré nepredstavujú, kto sme, alebo za čo stojíme, ani ako sme navrhli Tay.“

Pokiaľ ide o Turingov test, slávny experiment, ktorý sa používa na posúdenie A.I., Brundage hovorí, že vo všeobecnosti ide o dve myšlienkové školy - doslovné a teoretické.

Vyvinutý v roku 1950, Alan Turing sa snažil odpovedať na otázku: „Môžu stroje rozmýšľať?“ Položil stroje pomocou imitačného testu, ktorý vyžaduje, aby pozorovateľ určil pohlavie dvoch opýtaných, z ktorých jeden je A.I. Ak je počítač schopný oklamať určitý počet pozorovateľov, potom prešiel testom.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23. marca 2016

Ak by sme tento test aplikovali doslovne, v inverzný je súkromný rozhovor s Tay, odpovedala na politické otázky výrečne, urobila odkazy na okovy „mannnnn“ v spoločnosti a použila niektoré bežné skratky textových správ a emojis. Brundage povedal, že Tay ukázala tisícročné správanie, ale že tieto druhy A.I. boli predtým vybudované.

"Byť schopný produkovať zdanlivo teenagerish poznámky na Twitteri nie je naozaj búrka širokej jazykovej a intelektuálne schopnosti, ktoré Turing mal na mysli, Brundage hovorí." "To znamená, že ak by sme vlastne mali urobiť Turingov test doslovne, čo si nemyslím, že je to vhodné, jeden variant je, že veľa jej pripomienok bolo zdanlivo ľudských."

Ale ak máme brať širší prístup, ako by navrhol Brundage, potom je zrejmé, že Tay nepreukázala rozumnú ľudskú reč.

Spoločnosť Microsoft testovala, čo nazýva „konverzačné porozumenie“, takže čím viac ľudí hovorí prostredníctvom služby Twitter, GroupMe a Kik, tým viac sa mala učiť a adaptovať. Ale ona skončila jednoducho opakovať to, čo mnohí iní používatelia boli kŕmenie a len zopakovať to späť do sveta.

"Tay" šiel z "ľudia sú super cool" na plnú nazi v <24 hodín a ja nie som vôbec znepokojený budúcnosť AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24. marec 2016

"Väčšina ľudí by po vás neopakovala, všetko, čo ste povedali," hovorí Brundage.

Artikulácia „Bush urobil 11. september“ a „Hitler by urobili lepšiu prácu ako opica, ktorú sme teraz dostali,“ bola možno niečo, čo niekto skutočne napísal Tay, ale nie je to celkom zdvorilá konverzácia.

„Pravdepodobne jeho cieľom pri formulovaní Turingovho testu bolo menej predpísať detaily nejakého testu a viac vyprovokovať ľudí, aby si mysleli,„ v akom momente by ste boli ochotný byť v systéme, ktorý je inteligentný “a otvoriť myslenie ľudí možnosť rozmýšľať, “hovorí Brundage.

$config[ads_kvadrat] not found