Stereotypovanie robotov Gruzínska Tech je budúcnosťou AI, nie rasizmu

$config[ads_kvadrat] not found

ЭВОЛЮЦИЯ РОБОТА ГИГАНТА, МАКСИМАЛЬНЫЙ УРОВЕНЬ! | Idle Robot Inc

ЭВОЛЮЦИЯ РОБОТА ГИГАНТА, МАКСИМАЛЬНЫЙ УРОВЕНЬ! | Idle Robot Inc
Anonim

Na uši, ktoré sú citlivé na popredajné špeciality a semináre rôznorodosti, to bude znieť zle, ale chceme, aby roboty robili rýchle rozhodnutia na základe vzhľadu. Prekonanie predsudkov je dobré, ale neschopnosť stereotypu zmenšuje inteligenciu - umelú a inú. Alan Wagner, Ph.D., robotista v spoločnosti Georgia Tech, je hlavným zástancom stereotypovej technológie. Tvrdí, že tento druh logiky sa nemusí vzťahovať na rasu alebo pohlavie, len na situácie a správanie.

V ranom teste svojho stereotypového algoritmu Wagner vyškolil naivného robota, aby urobil závery z toho, čo videl. Robot sa naučil a stal sa vnímavým, čo Wagnerovi umožnilo kriticky sa zamyslieť nad etikou robotických predpokladov, najmä predprogramovaných. Hovoril obrátený o jeho práci a jej dôsledkoch.

Prejdite mi, ako experiment pracoval.

Robot spolupracuje s rôznymi typmi jednotlivcov - hasičmi, EMT, alebo čo nie - ale nemá žiadne predchádzajúce skúsenosti s niektorou z týchto kategórií jednotlivcov. Je to v podstate zážitkové učenie.

Myšlienkou bolo ukázať, že robot mohol používať percepčné funkcie od jednotlivca na predpovedanie ich potrieb z hľadiska použitia nástrojov. Spôsob fungovania algoritmu robota robota vnímal rôzne aspekty toho, čo jednotlivec vyzeral - ich jednotnú farbu, napríklad či mali bradu a farbu vlasov.

Tiež by sa ich pýtali na otázky, ako vyzerajú. Samozrejme, kladenie otázok nie je to, čo chcete robiť v teréne, ale vnímanie robota je teraz tak obmedzené. Potrebovali sme spôsob, ako spúšťať proces učenia sa o osobe. Osoba by si vybrala nástroj a potom by robot vybral nástroj a časom by sa robot dozvedel, aký nástroj uprednostňuje každý typ osoby.

Očakávali ste, že sa robot dozvie, že odznak znamená policajt alebo ťažký reflexný kabát znamená hasič?

Očakávali sme to. Ale boli aj nejaké prekvapujúce veci.Robot napríklad falošne poznal, že sa s vousom predpovedá hasič - to bolo zvláštne, ale keď sa pozriete na dáta, nebolo to prekvapujúce. Prvými niekoľkými ľuďmi, ktorí s ním spolupracovali, boli hasiči, ktorí mali vousy. Takže tvrdíme, že je potrebná percepčná rôznorodosť, myšlienka, že ak by robot videl veľké, široko odlišné typy jednotlivcov v kategórii, lepšie by sa vyvíjal a chápal kategóriu.

Povedali by ste, že autonómni roboti by mali byť vyškolení na to, aby tieto vtipy vyplienili, takže robot si nebude myslieť, či má táto osoba bradku, je to hasič?

Absolútne. Je dôležité, aby sme tieto veci vyžehli. Je dôležité, aby sme mali týchto robotov, ktorí pracujú z rôznych skupín jednotlivcov.

Ako by mohlo toto učenie vyzerať?

To by umožnilo robotovi zamerať sa na veci, ktoré lepšie charakterizujú hasičov. Napríklad hasič nemusí mať ani na sebe bundu. Robot si potom všimol iné aspekty hasenia, možno topánky, možno rukavice, možno helmy. Povedalo by to: „OK, táto osoba naozaj je hasič v tomto prostredí. “

Ak ste mali dosť ľudí, mohlo by to byť schopný rozpoznať hasičov pri požiari proti hasičovi na Halloweenskej párty. Je to jemné detaily vnímania, ako je rozdiel medzi kvalitou typov uniforiem alebo kontextovým prostredím.

Okrem toho, ako bol tento algoritmus úspešný, okrem spájania fúzy s hasičmi?

Boli sme dve veci, na ktoré sme sa chceli pozrieť: Jedna, čo s tým môžete urobiť? Ak roboti môžu rozpoznať hasičov, skutočne to nejakým spôsobom pomáha? Papier ukázal, že vám umožnilo zúžiť vyhľadávanie. Namiesto toho, aby ste sa pozerali na brady na farbu vlasov, hľadali farbu očí alebo čokoľvek iné, čo by ste mohli hľadať, môžete sa zamerať na funkcie, na ktorých skutočne záleží. Má človek na sebe hasičský kabát? To by mohlo proces urýchliť.

Ďalšia veľmi dôležitá vec, na ktorú sme sa pozreli, je, čo keď je kategória, ktorú robot predpovedá, nesprávna? Ako to ovplyvňuje vás? Môžete si predstaviť, že prostredie pre pátranie a záchranu môže byť chaotické: Možno pracujete v dymových podmienkach, robot nemusí byť schopný všetko dobre vnímať, môže mať chyby. Môžete si predstaviť horší prípad, keď si robot myslí, že osoba je obeťou, keď sú v skutočnosti hasičmi. Takže sa snaží zachrániť hasičov. To by bolo hrozné. Chceli sme vidieť, kde sa rozbije, ako sa rozbije, aké vlastnosti to najviac ovplyvňujú a aké sú rôzne druhy chýb.

Tento prístup môžete použiť rôznymi spôsobmi - ak nevidia osobu vôbec, ale môžu vidieť akcie, ktoré vykonávajú. Ak vidím osobu, ktorá si vyberá sekeru, potom môžem predpovedať, že majú helmu.

Ako pristupujete k tomu, aby robot robil hodnotenie kontextu a robil predpoveď?

Snažili sme sa pozrieť na niekoľko rôznych typov prostredia - reštauráciu, školu a dom s opatrovateľskou službou. Snažili sme sa zachytiť vlastnosti o životnom prostredí a o tom, aké objekty sú v prostredí, aké akcie osoba vyberá a ako vyzerajú ľudia v prostredí a snažiť sa ich využiť na vytváranie sociálnych predpovedí. Napríklad v školskom prostredí ľudia zdvihnú ruky skôr, ako sa rozprávajú. Takže ak vidím akciu, ktorú ľudia zdvíhajú, aký typ objektov by som očakával v životnom prostredí? Očakávam, že uvidím tabuľu; očakávam, že uvidím stôl? Očakávam, že uvidím deti.

Dúfam, že tieto informácie použijeme. Ak robot vykonáva evakuačnú procedúru, zistí, aké typy ľudí sú tam a kde by mohli byť.

Povedzme, že je tu robot, ktorý prichádza k vašim dverám a hovorí: „Prosím, nasledujte ma k východu.“ Niečo ako zdanlivo jednoduché, čo je vlastne veľmi zložité. Ak robot zaklopá na dvere v bytovom dome, neviete, s kým budete pracovať. Môže to byť štvorročné dieťa, môže to byť 95-ročná osoba. Radi by sme robili robota, aby prispôsobil svoje interaktívne správanie typu osoby, ktorú vidí, aby ich zachránil. Berieme niektoré z týchto kontextových lekcií a snažíme sa túto aplikáciu vyvinúť.

Používate podobnú definíciu „stereotypu“ pre robotov a ľudí, alebo sa deje niečo iné?

Termín stereotypizácia má negatívny kontext. Spôsob, akým ho používame, je jednoducho rozvíjať kategórie ľudí a používať kategorické informácie na predpovedanie vlastností osoby. Poznám psychológiu, veľa práce sa zameriava na stereotypy tváre a rodové stereotypy. Nič také nerobíme. Je proces rovnaký? Neviem. Žiadny nápad.

Máte strach, že ľudia môžu mať mylné predstavy o vašej práci?

Pred niekoľkými rokmi sme vyvinuli túto myšlienku robotov, ktorí by mohli ľudí oklamať. V médiách bol trochu mylný názor, že by to viedlo k tomu, že roboti kradnú peňaženky ľudí.

Chcel by som využiť núdzovú evakuačnú situáciu: nechcete byť vždy úprimný voči osobe v evakuácii, však? Napríklad, ak sa vás niekto spýtal: „Je moja rodina v poriadku?“ Bolo by hrozné, keby robot povedal: „Nie, všetci zomreli. Prosím, nasledujte ma na výjazd. “Existujú situácie, keď robot musí byť v krátkosti nečestný. Ale moja skúsenosť bola, že ľudia sa cítili, akoby sme sa snažili viesť ku koncu sveta.

Vždy sa zaujímame o prosociálne aspekty týchto techník človek-robot. Snažíme sa pomáhať ľuďom, nie byť zlým.

$config[ads_kvadrat] not found