Apple iPhone X ne može reći osim kineskih lica, povrat novca

$config[ads_kvadrat] not found

Обзор iPhone X

Обзор iPhone X
Anonim

Prošlog tjedna u Nanjingu, glavnom gradu na istoku Kine, žena po imenu Yan dvaput je dobila povrat novca od Applea za svoj neispravni iPhoneX, koji je njezin kolega otključao tehnologijom prepoznavanja lica. Obje žene su etnički Kinezi.

Yan je za lokalne vijesti rekao da je prvi put kad se to dogodilo nazvala iPhone telefon, ali joj nisu vjerovali. Tek kad su ona i njezin kolega otišli u lokalnu trgovinu Apple i pokazali zaposlenicima u trgovini da su joj ponudili povrat novca, kupila je novi telefon, misleći da je kriva možda neispravna kamera.

No, drugi telefon je imao isti problem, sugerirajući da to nije neispravan fotoaparat, kao što su radnici u trgovini sugerirali, nego problem sa samim softverom.

To ne bi bio prvi slučaj u kojem bi softver za prepoznavanje lica i AI iza njega imali problema s prepoznavanjem nebijelih lica.

U 2015. godini, Google fotografije su slučajno označile fotografiju dviju Afroamerikanaca kao gorile, dok su 2009. godine HP računala http://www.youtube.com/watch?v=t4DT3tQqgRM) imala problema s prepoznavanjem i praćenjem crnih lica - nema problema s bijelim licima. Iste godine, Nikonov softver za fotoaparate je uhvaćen u pogrešnom označavanju azijskog lica kao trepćući.

Google fotografije, sjebali ste se. Moj prijatelj nije gorila. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29. lipnja 2015

"To je u osnovi problem s podacima", napisala je Kate Crawford, glavna istraživačica u Microsoftu i supredsjedateljica Simpozija o društvu i A.I. „Algoritmi uče tako što se hrani određene slike, koje inženjeri često biraju, a sustav gradi model svijeta temeljen na tim slikama. Ako je sustav treniran na fotografijama ljudi koji su pretežno bijeli, bit će mu teže prepoznati lica bez bjeline."

Jacky Alcine, programer iz Brooklyna, čija je fotografija Google pogrešno označio, složio se. O svom iskustvu rekao je: "To je moglo biti izbjegnuto preciznim i potpunijim klasificiranjem crnih ljudi."

Ali rasizam koji je kodiran u AI, čak i ako je nenamjeran, ima implikacije izvan samo prepoznavanja lica.

Istraga ProPublica iz 2016. otkrila je da su crni kriminalci dvostruko vjerojatniji pogrešno označene kao da će vjerojatno ponovno počiniti zločine od bijelih kriminalaca, dok rastući trend „predviđanja policijskog rada“ koristi algoritme za predviđanje kriminala i na odgovarajući način usmjerava policijska sredstva.

Ipak, manjinske su zajednice povijesno pretjerano kontrolirane, što je dovelo do mogućnosti da “ovaj softver riskira ovjekovječivanje već začaranog kruga”, kaže Crawford.

Još u Nanjingu u Kini, Yan je dobio drugi povrat novca na svoj drugi iPhoneX. Iz lokalnih novinskih izvješća nije jasno je li kupila treću.

Ono što je u pitanju, ovaj put, možda je samo jedan potrošač. Ali Yanov slučaj bio je primjer kontinuirane potrebe da se tehnološka industrija osmisli s obzirom na raznolikost i inkluzivnost.

$config[ads_kvadrat] not found