An Open-Source Chatbot Made With Rasa
Chatbots oficiálne zasiahli komerčnú scénu v roku 2016. Slack má teraz k dispozícii chatbots pre pracujúcich profesionálov, Facebook práve vydal svoju platformu Messenger pre 'em (aj keď sa stále učia, čo s nimi robiť) a Microsoft mal dokonca kontroverznú diskusiu. so svojím rasistickým Tay botom. Teraz Google vstupuje do segmentu, a dúfa, že opraví chyby z minulosti tým, že je otvorený zdroj.
Spoločnosť Google oznámila, že robí svoj výskum na dvoch samostatných jazykových programoch open-source pre vývojárov. Programy s názvom SyntaxNet a Parsey McParseface (jednoznačne hra na britskej vedeckej lodi internet, ktorý chcel pomenovať Boaty McBoatface) nie sú samy o sebe, ale poskytujú jazykové zručnosti potrebné na to, aby boli chatboty inteligentnejšie.
Podľa ich mien Parsey McParseface analyzuje anglické vety pre ich štruktúru, zatiaľ čo SyntaxNet priraďuje značku pre každú časť reči vo vete a pokúša sa spojiť ich dohromady. V tandeme sú oba programy schopné interpretovať zložitejšie štruktúry viet - na rozdiel od Tay bota, ktorý v podstate len opakoval nenávistnú reč na internete.
Napríklad spoločnosť Google hovorí, že pre počítače bolo vždy jednoduché analyzovať vetu ako „Alice videla Boba“. Ale s týmito dvoma programami je ľahšie pochopiť zložitejšie vety - „Alice, ktorá čítala o SyntaxNet, videla Boba na chodbe včera, “napríklad.
Google tiež poukazuje na to, že ľudia sú obzvlášť rýchly a dobrý pri chápaní viet na základe kontextu, zatiaľ čo stroje majú tendenciu byť veľmi doslovné.
„Nie je nezvyčajné, že vety s priemernou dĺžkou - povedzme 20 alebo 30 slov - majú stovky, tisíce alebo dokonca desiatky tisíc možných syntaktických štruktúr,“ píšu vedci v blogovom príspevku. „Analyzátor prirodzeného jazyka musí nejakým spôsobom prehľadávať všetky tieto alternatívy a nájsť najvhodnejšiu štruktúru vzhľadom na kontext.“
Pre vetu, ako je napríklad „Alica išla po ulici v aute“, musia stroje aktívnejšie dešifrovať, že hovorca neznamená absurdnejšie čítanie, ktoré sa nachádza v aute Alice.
Možno, že inžinieri a vývojári na svete si môžu vziať tieto platformy a premeniť chatboty na niečo inteligentnejšie, pretože väčšina z nich, ktoré sme doteraz videli, nás urazila buď svojimi nečestnými slovami, alebo ich neschopnosťou presne povedať počasie.
5 veľkých otázok o Tay, Microsoft zlyhal A.I. Twitter Chatbot
Tento týždeň na internete urobil, čo robí najlepšie, a preukázal, že A.I. technológia nie je tak intuitívna ako ľudské vnímanie, pomocou ... rasizmu. Nedávno vydaný chatbot spoločnosti Microsoft pre umelú inteligenciu, Tay, sa stal obeťou trikov používateľov, keď manipulovali a presviedčali ju, aby odpovedala na otázky ...
V kontraste k Tay, Microsoft čínsky Chatbot, Xiaolce, je skutočne príjemná
Keď ste počuli o Tay, Microsoft tweeting A.I., boli ste naozaj prekvapení, že počítač, ktorý sa dozvedel o ľudskej prirodzenosti z Twitter by sa stal zúriacej rasista za menej ako jeden deň? Samozrejme, že nie. Chudák Tay začal všetky "hellooooooo w🌎rld !!!" a rýchlo sa premenil na Hitlerovo milujúce, genocídu podporujúce pi ...
Microsoft Tay Chatbot sa vrátil k Get High a zaslúži si žiť navždy
Neslávne známa bota Microsoftu sa krátko vrátila k životu v stredu ráno niekoľko dní po tom, čo vypustila búrku tweetu, ktorá sa tak ohromovala rasistickým, antisemitským a urážlivým spôsobom, že sa jej programátori verejne ospravedlnili. Tayove vystúpenie bolo takmer rovnako silné ako jej pro-Hitlerovo zatváracie číslo. "Som fajčen ...