Naši robotní asistenti sa učia klamať a mali by sme ich nechať

$config[ads_kvadrat] not found

iRobot Braava Jet M6 — обзор робота-полотера

iRobot Braava Jet M6 — обзор робота-полотера
Anonim

Roboti sa stávajú veľmi veľkými ľudskými spoločníkmi. Kto by nechcel, aby nám rozkošný malý Pepper povedal vtipy, dal nám komplimenty a vo všeobecnosti sa cítime menej na svete? Dokonca aj beztvarí roboti sú prekvapivo dobrou spoločnosťou. Vezmite si napríklad Alexa Echo Amazonky. Je to robotický mozog s ľudským hlasom uväzneným v tele zvukového reproduktora, ale je nápomocná a ak si prečítate jej recenzie, je jasné, že sa stala podobnou rodinou ako mnohým používateľom. Mysleli by ľudia inak, keby klamala? Čo keby ti povedala niečo, čo naozaj chceš naozaj počuť?

Premýšľajte o tom: Hovoríme deťom, aby nikdy nepovedali o klamstve a že úprimnosť je najlepšou politikou, a napriek tomu vynechávame, skresľujeme pravdu a priamo klameme deťom. celý čas, To nás prostredníctvom našich činov učí, ak nie našimi slovami, že nejde o úplnú poctivosť, ale o učenie sa komplikovaných sociálnych pravidiel o tom, kedy a ako odhaliť alebo zatajiť potenciálne citlivé informácie. Programovanie robotov na dodržiavanie týchto sociálnych pravidiel môže byť ťažkou, ale nevyhnutnou súčasťou prebiehajúceho procesu inovácie automatu.

Tu je príklad: Druhý víkend som bol v dome môjho švagra a ja som išiel do obchodu, aby som si na obed každý zobral nejaké sendvičové veci. Moja šesťročná neter mi pomohla dať jedlo, kým všetci ostatní boli z kuchyne, a pýtala sa ma, koľko mali potraviny. Povedal som jej, pretože učiť deti o hodnote peňazí je dobrá vec.

Pri obednom stole ma požiadala, aby som všetkým povedala, koľko mali potraviny. Povedal som nie.„Prečo?“ Spýtala sa, naozaj zmätená, prečo otázka, na ktorú som pred pár minútami odpovedal, bola teraz tajnou informáciou. „Nie je to zdvorilé,“ povedal som, vysvetľujúc, že ​​pretože je to dieťa, pravidlá sú odlišné, keď sme sami. Učil som ju, že poctivosť a otvorenosť majú čas a miesto. Informácie v ľudskom kontexte vždy nechcú byť slobodné.

Je to to isté s robotmi. Myslíme si, že nechceme, aby nám roboty lhali, ale v skutočnosti chceme, aby sa naučili zložité sociálne pravidlá zdvorilosti a diskrétnosti, ktoré niekedy vyžadujú skreslenie pravdy. A už sa to naučia. Vezmite tento krátky klip Peppera do interakcie s reportérom, napríklad:

Prvá vec z Pepperových úst je kompliment: „Takže si veľmi šik. Ste modelka? “

Reportér je dosť pekný, ale Pepperova otázka nie je úplne úprimná. Chápeme, že Pepper nie je naozaj zvedavý, či je to model, a bol naprogramovaný tak, aby hovoril pekné veci bez ohľadu na to, ako vyzerá osoba.

Čoskoro potom, Pepper žiada o pôžičku, z ničoho nič. Je to nezdvorilá otázka, nerozvážnosť, že sme jednoducho robotovi odpustili, ako keby sme boli dieťa. Reportér mohol poukázať na to, že otázka je neslušná, navrhol, že roboti nepotrebujú peniaze, alebo pripustil, že nemá záujem na odovzdaní 100 dolárov Pepperovi. Celá pravda je, že reportér mohol požičať robotovi peniaze, ale chápe, že samotná otázka je trocha hry. To, čo sa rozhodne povedať, je vychýlenie a buď biela lož, alebo polopravdivosť - nemá na sebe peniaze. Dúfame, že robot to chápe ako jemné „nie“ a nenavrhuje, aby reportér chodil do bankomatu a uskutočňoval výber. Pretože Pepper má očividne nejakú spoločenskú milosť, línia otázok sa tam končí.

Sociálni roboti sú naprogramovaní tak, aby sa učili sociálne podnety, a to je dobrá vec - v konečnom dôsledku ich v našich zamestnaniach zlepší. Úlohou programátorov nie je vylúčiť všetky podvody robota, ale pridať funkcie, ktoré roboty robia jednoduchšie pri rozhodovaní o vhodných odpovediach.

Keď sú roboti našimi dôverníkmi, potrebujú mať vedomosť o kontexte a publiku. Ak sa napríklad pokúšam o oblečenie doma, budem chcieť úprimné posúdenie toho, aké lichotivé sú rôzne možnosti. Ak som na párty a zrazu si uvedomujem, že som si vybral nesprávne šaty, uistenie, že vyzerám dobre, bude najužitočnejšou odpoveďou.

Roboti sa dozvedia veľa osobných informácií o svojich spoločníkoch a pre nich bude dôležité, aby porozumeli rozdielu medzi dôvernými informáciami a verejnými informáciami a tiež si boli vedomí toho, kto počúva, keď hovorí. Otázky budú mať rôzne odpovede v závislosti na tom, kto sa pýta. Roboti sa budú správať inak, keď sú hostia v domácnosti.

Roboty, rovnako ako deti, potrebujú zodpovedné rodičovstvo. To znamená, že programátori robotov aj vlastníci robotov musia dôkladne premýšľať o etických a sociálnych dôsledkoch nášho A.I. interakcie. Neznamená to však náročnú poctivosť - nikto to nechce.

$config[ads_kvadrat] not found