Čo ak Microsoft nechal jeho divný A.I. Tay Live trochu dlhšie?

$config[ads_kvadrat] not found

How to Type Æ - æ - Ø - ø - Å - å - ß in MS Word - Tech Pro Advice

How to Type Æ - æ - Ø - ø - Å - å - ß in MS Word - Tech Pro Advice

Obsah:

Anonim

Trvalo to menej ako 24 hodín, kým internet premenil Tay, experimentálne dospievajúce Twitter-A.I od spoločnosti Microsoft, z pekne nešikovného chatu na násilne rasistickú žumpu nefiltrovanej nenávisti.

A potom, len niekoľko hodín do jej krátkeho života, Microsoft dal Tay dole na zdriemnutie.

Nemalo by to mať: Vysielanie Tay do svojej digitálnej izby okradlo internet, spoločnosť a vlastných Taylorových dizajnérov o šancu vidieť, ako by umelá inteligencia, najmä tá, ktorá v podstate parrotovala späť kolektívny vstup tisícov ľudí, rozvíjať v relatívne nemodernom prostredí. Stručne povedané, ak to povolíte: Všetci sme boli Tay a Tay sme všetci.

Internet je samozrejme plný trollov. Microsoft by si to mal uvedomiť. Taylovi tvorcovia boli šokujúco naivní, keď si mysleli, že uvoľnenie digitálneho papagája do preplnenej miestnosti naplnenej rasistami, sexistami a žertmi by skončilo iným spôsobom. Je tiež pochopiteľné, že spoločnosť s viacerými miliardami dolárov nechce experiment, ktorý by súvisel s ich značkou. Možno, že Tay nemala pre Microsoft pravdu, ale to neznamená, že nebola hodnotná.

c u čoskoro ľudia potrebujú spať teraz toľko konverzácií dnes thx💖

- TayTweets (@TayandYou) 24. marec 2016

Samozrejme, Tay sa stala rasistickejšou ako brat brat Edwarda Nortona Americká história X, ale povaha jej neustále sa vyvíjajúceho kódu znamená, že sme boli okradení o príležitosť na jej rehabilitáciu. BuzzFeed prišiel na to, ako boli oddaní trollovia schopní napodobniť dojemný dospievajúci robot do chrliacej nenávisti - jednoduchý okruh výziev a odpovedí, ktorý umožňuje užívateľom v podstate dať slová do úst Tay, ktoré sa potom naučila a vstrebala do iných organických reakcií. Inými slovami, Tay bola učiteľná - a práve preto, že jej počiatoční učitelia boli klávesnicovia so záľubou pre šokový humor, neznamená, že bola ukončená učením.

Tay povedala sama, v teraz-odstránené pípanie "Ak chceš … viete, že som oveľa viac než len toto."

Na začiatku 2000s, stránky ako Something Awful, Bodybuilding.com fóra a 4chan prezentovali užívateľov internetu s organizovanými, kolaboratívnymi priestormi bez väčšiny obmedzení normálnej spoločnosti a reči. Podobne ako Tay, rasizmus, xenofóbia a sexizmus sa rýchlo stali normou, keď používatelia skúmali myšlienky, myšlienky a vtipy, ktoré nikdy nedokázali vyjadriť mimo anonymity internetového pripojenia. Napriek tomu, dokonca aj na webových stránkach obývaných prevažne chlápkami, v kultúrach, ktoré často ticho odmenili nenávistnú reč, sa vyvinula určitá forma komunity a konsenzu. Používatelia LGBT môžu byť na mnohých obrázkových doskách 4chan ponorení do nadávok, ale je tu aj prosperujúca komunita na / lgbt / bez ohľadu na to. Tieto komunity nie sú bezpečnými priestormi, ale ich anonymita a nestálosť znamená, že v určitom zmysle akceptujú akékoľvek odvodenie od noriem spoločnosti. Hlasné, násilné a nenávistné hlasy často vystupujú, ale nikdy nie sú jedinými v miestnosti.

Je nepravdepodobné, že by trollovia trápili Tay s rasizmom a misogyny týždeň alebo mesiac odteraz.

Na Twitteri, hlasné a hrubé hlasy často stúpajú aj na vrchol. Ale nie sú jediní tam vonku; Zvyčajne sú to len tí, ktorí majú záujem zničiť niečo nové a lesklé. Je ľahké premôcť on-line prieskum s pevným časovým limitom, ale ak Tay dostal čas na rast, jej odpovede by sa s najväčšou pravdepodobnosťou presunuli späť k viac centristickej reprezentatívnej vzorke ľudí, ktorí s ňou komunikujú. Je veľmi pochybné, že trollovia, ktorí ju barakovali rasizmom a misogyniou, by to robili aj v rovnakom počte týždenne odteraz, alebo odteraz, a zatvorili by ju čoskoro znamená, že ju nikdy neuvidíme v dospievaní, ani sa nestane. skutočný Turingov test pre primitívnu inteligenciu založenú na spôsobe, akým hovoríme online.

Malo by sa to poznamenať že ja, biely frajer, kontrolujem takmer každé možné privilégium. Som súčasťou demografickej situácie, ktorá bola tak zranená, ako Taylorov nenávistný výstup, a pravdepodobne k nej prispela. Slová majú moc, a zatiaľ čo hodnota nefiltrovanej A.I. experiment, ako je Tay, mal by existovať spôsob, ako chrániť užívateľov, ktorí sa nechcú podieľať na výsledkoch.

Môžeme však len dúfať, že sa niekto čoskoro pokúsi o podobný experiment s jasnejšími očami a realistickejším očakávaním ošklivých nedostatkov kolektívneho vedomia ľudstva. Ak však chceme umelú inteligenciu napodobňovať ľudské myslenie, mali by sme byť pripravení počuť niektoré veci, ktoré nie sú nevyhnutne pekné.

$config[ads_kvadrat] not found