Tento robot sa naučil, ako povedať „nie“ ľudským požiadavkám

$config[ads_kvadrat] not found

Интервью с роботом Pepper

Интервью с роботом Pepper
Anonim

Roboti, rovnako ako ľudia, sa musia učiť, keď povedať „nie“. Ak je požiadavka nemožná, spôsobila by škodu, alebo by ju odviedla od úlohy, ktorá je v ruke, potom je to v najlepšom záujme „topánok a jeho človeka“. pre diplomatické nie ďakujem byť súčasťou konverzácie.

Ale kedy by mal stroj hovoriť? A za akých podmienok? Inžinieri sa snažia zistiť, ako vštepiť tento zmysel pre to, ako a kedy vzdorovať rozkazom v humanoidoch.

Pozrite sa na to Nao robot odmietnuť chodiť dopredu, pretože vedel, že by to spôsobilo, že by spadol z okraja tabuľky:

Jednoduché veci, ale určite nevyhnutné pre konanie ako kontrola ľudskej chyby. Výskumní pracovníci Gordon Briggs a Matthias Scheutz z Tufts University vyvinuli komplexný algoritmus, ktorý umožňuje robotovi vyhodnotiť, čo ho človek požiadal, aby rozhodol, či by to mal urobiť, a odpovedať primerane. Výskum bol prezentovaný na nedávnom stretnutí Asociácie pre rozvoj umelej inteligencie.

Robot sa pýta sériu otázok týkajúcich sa toho, či je úloha vykonateľná. Viem, ako to urobiť? Som fyzicky schopný to urobiť teraz? Som normálne fyzicky schopný to urobiť? Môžem to urobiť práve teraz? Som na základe svojej sociálnej úlohy povinný to urobiť? Porušuje to nejaký normatívny princíp?

Výsledkom je robot, ktorý sa zdá byť nielen rozumný, ale jeden deň dokonca aj múdry.

Všimnite si, ako Nao zmení svoju myseľ o tom, že sa kráča dopredu po tom, čo ľud sľubuje, že ho chytí. Bolo by ľahké predstaviť si iný scenár, v ktorom robot povie: "V žiadnom prípade, prečo by som ti mal veriť?"

Nao je však spoločenským stvorením. Ak chcete potešiť ľudí je v jeho DNA, tak vzhľadom k informáciám, že človek má v úmysle ho chytiť, on kroky slepo dopredu do priepasti. Iste, ak by človek mal oklamať svoju dôveru, bol by ho chytiť, ale aj tak verí. Je to Nao.

Ako sa robotní spoločníci stávajú sofistikovanejšími, robotní inžinieri sa budú musieť s týmito otázkami stretnúť. Roboti sa budú musieť rozhodnúť nielen pri zachovaní vlastnej bezpečnosti, ale aj pri väčších etických otázkach. Čo ak človek požiada robota, aby zabil? Páchať podvody? Zničiť iného robota?

Myšlienka strojovej etiky sa nedá oddeliť od umelej inteligencie - dokonca aj naše vozidlá bez vodiča budúcnosti budú musieť byť navrhnuté tak, aby sme v našom mene urobili rozhodnutia o živote alebo smrti. Táto konverzácia bude nevyhnutne zložitejšia, než len vydávanie pochodových príkazov.

$config[ads_kvadrat] not found