Apple iPhone X не може да разкаже различни китайски лица, възстановяване

$config[ads_kvadrat] not found

НА ЧТО ГОТОВЫ ДЕВУШКИ БЛИЗНЕЦЫ РАДИ iPHONE 12 ! ** ЧЕЛЛЕНДЖ 24 ЧАСА**

НА ЧТО ГОТОВЫ ДЕВУШКИ БЛИЗНЕЦЫ РАДИ iPHONE 12 ! ** ЧЕЛЛЕНДЖ 24 ЧАСА**
Anonim

Миналата седмица в Нанджинг, голям град в източната част на Китай, една жена на име Ян е била два пъти предлагана от Apple за възстановяване на нейния дефектен iPhoneX, който нейният колега отключи с помощта на технологията за разпознаване на лице. И двете жени са етнически китайци.

Ян каза пред местните новини, че за първи път, когато това се случи, тя се обади на горещата телефонна линия на iPhone, но не й повярваха. Докато тя и нейният колега не отидоха в местния магазин на Apple и не показаха на персонала на магазина, че са й предложили възстановяване, тя закупи нов телефон, смятайки, че може би е виновен един дефектен фотоапарат.

Но вторият телефон имаше същия проблем, предполагайки, че това не е дефектна камера, както предложиха работниците в магазина, а проблем със самия софтуер.

Това няма да е първият случай, в който софтуерът за разпознаване на лица и ИИ зад него са имали проблеми с разпознаването на не-бели лица.

През 2015 г. Google Фото случайно маркира снимка на двама афро-американци като горили, докато през 2009 г. компютри от HP http://www.youtube.com/watch?v=t4DT3tQqgRM) имат проблеми с разпознаването и проследяването на черните лица - няма проблем с белите лица. През същата година софтуерът на Nikon за фотоапарат бе заловен като етикет на азиатско лице като мигащ.

Google Фото, вие сте прецакали. Моят приятел не е горила. pic.twitter.com/SMkMCsNVX4

- Джаки (@jackyalcine) 29 юни 2015 г.

„Това е основно проблем с данните“, пише Кейт Крофърд, главен изследовател в Microsoft и съпредседател на Симпозиума на Обама в Белия дом за обществото и A.I. „Алгоритмите се учат, като се хранят определени изображения, често избрани от инженерите, и системата изгражда модел на света, базиран на тези изображения. Ако една система е обучена на снимки на хора, които са преобладаващо бели, ще му е по-трудно да разпознае белите лица."

Джаки Алкин, програмистът от Бруклин, чиято снимка е бил етикетиран от Google, се съгласи. От неговия опит той каза: „Това можеше да бъде избегнато с точна и по-пълна класификация на чернокожите“.

Но расизмът, кодиран в ИИ, дори и да е непреднамерен, има последици отвъд самото разпознаване на лицето.

Проучване на ProPublica през 2016 г. установи, че черните престъпници са два пъти по-склонни да бъдат погрешно отбелязва, че е вероятно да възобновят престъпления, отколкото белите престъпници, докато нарастващата тенденция на „предсказуема полиция“ използва алгоритми за прогнозиране на престъпността и съответно насочване на полицейските ресурси.

И все пак малцинствените общности в миналото са прекомерно контролирани, което води до възможността „този софтуер да рискува да запази вече порочен кръг“, казва Крауфорд.

Обратно в Нанкин, Китай, Ян получава второ възстановяване на втория си iPhoneX. От местни новинарски съобщения не е ясно дали тя е закупила трета.

Това, което беше заложено на карта, този път, може би е било само един потребител. Случаят на Ян е пример за продължаващата необходимост технологичната индустрия да проектира с разнообразие и инклузивност.

$config[ads_kvadrat] not found