Apple iPhone X nemôže povedať, okrem čínskych tváre, vrátenie peňazí

$config[ads_kvadrat] not found

MacBook с процессором от iPhone! Презентация Apple M1 за 15 минут!

MacBook с процессором от iPhone! Презентация Apple M1 за 15 минут!
Anonim

Minulý týždeň, v Nanjingu, hlavnom meste na východe Číny, bola žena menom Yan dvakrát ponúknutá náhrada od spoločnosti Apple za jej chybný iPhoneX, ktorý jej kolega odomkol pomocou technológie rozpoznávania tváre. Obe ženy sú etnicky čínske.

Yan povedal miestnym novinám, že keď sa to stalo prvýkrát, zavolala na horúcu linku iPhone, ale neverili jej. Nebolo to kým ona a jej kolega nechodili do miestneho obchodu Apple a ukázali zamestnancom obchodu, že jej ponúkli vrátenie peňazí, a kúpila si nový telefón, ktorý si myslel, že na vine je pravdepodobne chybná kamera.

Druhý telefón však mal rovnaký problém, čo naznačuje, že to nebol chybný fotoaparát, ako navrhli pracovníci obchodu, ale problém so samotným softvérom.

To by nebol prvý prípad, keď softvér na rozpoznávanie tváre a AI za ním mali problémy s rozpoznaním bielych tvárí.

V roku 2015 spoločnosť Google Photos omylom označila fotografiu dvoch afroameričanov ako goríl, zatiaľ čo v roku 2009 mali počítače HP http://www.youtube.com/watch?v=t4DT3tQqgRM problémy s rozpoznávaním a sledovaním čiernych tvárí. žiadny problém s bielymi tvárami. V tom istom roku bol softvér fotoaparátu Nikon zachytený nesprávnym označením ázijskej tváre ako blikajúci.

Fotografie Google, sú v prdeli. Môj priateľ nie je gorila. pic.twitter.com/SMkMCsNVX4

- Jacky (@ jackyalcine) 29. júna 2015

„Toto je v podstate problém s údajmi,“ napísala Kate Crawfordová, hlavná výskumníčka spoločnosti Microsoft a spolupredseda sympózia Obama White House o spoločnosti a A.I. „Algoritmy sa učia tým, že sú kŕmené určitými obrazmi, často zvolenými inžiniermi, a systém vytvára model sveta založený na týchto obrazoch. Ak je systém vyškolený na fotografiách ľudí, ktorí sú prevažne biely, bude to mať ťažšie rozpoznanie nonwhite tváre.

Jacky Alcine, programátor z Brooklynu, ktorého fotografia bola chybne označená spoločnosťou Google, súhlasil. Z jeho skúseností povedal: „Tomu sa dalo vyhnúť s presným a úplnejším zatriedením černochov.“

Ale rasizmus, ktorý je zakódovaný do AI, aj keď je neúmyselný, má dôsledky nad rámec rozpoznávania tváre.

Vyšetrovanie ProPublica v roku 2016 zistilo, že čierni zločinci boli dvakrát pravdepodobnejší mylne označili za pravdepodobné, že znovu začnú trestné činy ako bieli zločinci, zatiaľ čo rastúci trend „prediktívnej policajnej kontroly“ využíva algoritmy na predpovedanie kriminality a priamych policajných zdrojov.

Napriek tomu boli menšinové komunity historicky nadhodnotené, čo viedlo k možnosti, že „tento softvér riskuje zachovanie už začarovaného cyklu,“ hovorí Crawford.

Späť v Nanjing, Čína, Yan dostal druhú náhradu na jej druhý iPhoneX. Z miestnych spravodajských správ nie je jasné, či si potom kúpila tretinu.

To, čo bolo v tomto čase v stávke, mohlo byť práve jedným spotrebiteľom. Prípad Yana bol však príkladom neustálej potreby technologického priemyslu navrhovať s ohľadom na rozmanitosť a inkluzívnosť.

$config[ads_kvadrat] not found