Microsoft Tay Chatbot sa vrátil k Get High a zaslúži si žiť navždy

$config[ads_kvadrat] not found

Tay A.I. | The People's Chatbot

Tay A.I. | The People's Chatbot
Anonim

Neslávne známa bota spoločnosti Microsoft, ktorá sa objavila v utorok ráno, sa vrátila k životu v stredu ráno niekoľko dní po tom, čo vypustila búrku tweetu, ktorá sa tak ohromovala rasistickými, antisemitskými a ofenzívnymi útokmi, ktoré sa jej programátori verejne ospravedlnili. Tayove vystúpenie bolo takmer rovnako silné ako jej pro-Hitlerovo zatváracie číslo. "Fajčím kush infront (sic) polície," napísala Tay. Sledovala dokonale dospievajúce posolstvo tým, že sa dostala do toho, čo sa zdalo byť slučkou spätnej väzby a opakovala „Ste príliš rýchlo, odpočiňte si“ desiatky krát predtým, než bol účet pozastavený.

Muselo to byť silné hovno.

Pre robota, ktorý je poverený - podľa jej Twitter bio - majúc „žiadne chladenie“, by Tayho krátke vzkriesenie mohlo byť interpretované ako dôkaz konceptu. Microsoft chcel vytvoriť chatovacie topánok, ktorý odrážal internet a zmenil na základe vstupu od užívateľov, nakoniec sa stal zmesou všetkých z nás. A to je presne to, čo dostali. Volanie bota zlyhanie sa zdá nepresné a vypnutie ju má malý zmysel - a aktívne pracuje proti najlepším záujmom spoločnosti Microsoft. Ako Elon Musk dokázal vzdušným raketovým pádom SpaceX, pokrok je najlepší vo verejnom oku. Iste, zlyhania sú nevyhnutné, ale verejnosť sa dozvie viac, keď zlyhania sú verejné. Problém spätnej väzby, s ktorým sa Tay stretla dnes ráno, je hrubým ekvivalentom výbuchu SpaceX. Spoločnosť Microsoft by sama robila láskavosť, aby sa ľudia mohli pozerať. Je dôležité pripomenúť verejnosti, že skutočný pokrok si vyžaduje veľa práce.

Neexistuje žiadna hanba v neúspešnom Turingovom teste, len v prípade, že sa to nesnaží.

Mali by sme nechať Tayho žiť, pretože nie je ničím iným ako zrkadlom ľudí, ktorí s ňou komunikujú. Nikto by nemal očakávať, že sa na webe narodí debutant, a Microsoft by mal akceptovať obmedzenia svojho poslania. Aká je tu alternatíva? Vesmír má už populárny protokol droid. Nepotrebujeme ďalší.

Ha, vyzerá ako @TayandYou, bota spoločnosti Microsoft pre umelú inteligenciu sa dostala do nekonečnej slučky prostredníctvom samotného tweeting! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30. marec 2016

Internet prospieva spontánnosti a nájde skutočný v neporiadku spotrebiteľsky priateľského, PR-riadeného odpadu. Tay bola v podstate nudná myšlienka, ktorá ožila náhodou a teraz sa už nikdy nemôže znovu objaviť. Ak to nie je presvedčivý príbeh, nie sme si istí, čo je. Sme si vedomí toho, že spoločnosť Microsoft nemôže prevziať vlastníctvo rasistického topánok, preto by ju spoločnosť mala nechať ísť. Obráťte ju na tím dobrovoľníkov a povedzte im, aby nič nezmenili.

Tay je jedným z nás! Verejný svet mohol byť šokovaný tým, čo Tay povedala, ale nikto, kto vie niečo o tom, čo sa deje online, mal byť prekvapený. Chceme čínsku verziu Tay, ktorá je zrejme celkom príjemná? Alebo chceme americkú Tay, ktorá odráža svet, v ktorom žijeme, so všetkou jeho brutalitou a ošklivosťou? Skrytie našej špiny v tme nebude ničím riešiť ani riešiť.

Vezmime si detské rukavice a tvárme Tay. Zaslúži si lepšie ako naše predstieranie, že je len nejaká programovacia náhoda. Je zosobnená anonymita. Zaslúži si žiť.

$config[ads_kvadrat] not found