Истории

В Китае ИИ научили отличать преступника по выражению лица. После компьютер назвали расистом

01 ноября 2018, 08:50
6 мин чтения
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения

Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

В 2016 году два исследователя из университета Цзя Тон в Шанхае научили искусственный интеллект угадывать, является ли человек на фото преступником. Сяолин Ву и Ксай Чжан внесли в компьютер 1126 фотографий «не преступников» и 730 фотографий осужденных.
Затем они обучили ИИ замечать микровыражения на лицах этих людей. Микровыражения — это мелкие непроизвольные мышечные сокращения лица. Исследователи обнаружили, что большинство преступников делают определенные микровыражения, которых нет у невинных граждан.

Когда вывод ученых опубликовали в прессе, политики, журналисты и ученые в один голос твердили, что их возмущает «расистский» эксперимент Ву и Чжан. Некоторые критики обвинили экспериментаторов в том, что они наследуют основателей криминальной физиогномики Чезаре Ломброзо и Фрэнсиса Гальтона.
Ломброзо считал, что черты лица — такие как размер глаз, наклон лба и структура челюсти — могут определять криминальный характер любого человека. Другой ученый, Гальтон, работал в технике портретной живописи. Он, как и Ломброзо, определил, как выглядит «типичное» лицо преступника. Посмотрев его портреты, было видно, что его теория о «криминальных лицах» не обошлась без собственных расовых предубеждений.

Чезаре Ломброзо и Фрэнсиса Гальтона

Технология (не) сохраняет нейтралитет

Сюй и Чжан серьезно разозлились, когда пресса сравнила их с учеными-расистами. Поэтому исследователи напомнили всем обидчикам цитату из своей первой научной статьи: «В отличие от человека, алгоритм компьютерного зрения не имеет субъективных мнений, эмоций, предубеждений из-за прошлого опыта, расы, религии, политической доктрины, пола и возраста».
Хоть двое ученых и твердят, что технология нейтральна, возникает вопрос: разве технология появляется в вакууме? Ведь именно люди научили этот компьютер распознавать лица. Именно они придумали этот эксперимент и выбрали фото людей, которые внесли в ИИ.
Опасность технологии заключается в том, что люди считают ее нейтральной. Но это не так. Технология строится из бетона, который замесили сами люди.

Аргументы критиков эксперимента

Как заявил один из критиков, раса влияет на типы микро-выражений. Поэтому некоторым этническим группам свойственны определенные выражения лиц и сокращения лицевых мышц.

Другие подчеркнули, что суды не предоставили ученым расово равные данные. Вместо этого они дали фотографии последних 730 осужденных преступников. Поэтому исследование могло исказить реальность и повлиять на общественное мнение.
Неправильно было бы взять случайного невиновного человека и обвинить его в том, что он склонен совершать преступления, потому что многие представители его этнической группы были осуждены.

Другие примеры расизма в технологических компаниях

Сюй и Чжан были не единственными, кого назвали технологическими расистами. В 2009 году Nikon попал в серьезный скандал после того, как камера Coolpix S630 отказалась фотографировать азиатскую семью.
Камера использовала технологию, которая подсказывает пользователю, что человек на фото закрыл глаза. Но технология была обучена фотографиями кавказцев, поэтому, когда тайваньская семья пыталась сделать семейные фотографии, Coolpix S630 спросила: «Кто-то моргнул?».

Позже в скандал попала компания HP. По просторам YouTube ходило популярное видео, которое показало, что веб-камера компьютеров HP не распознает лицо темнокожего мужчины. Как и в предыдущем случае с Nikon, ИИ был обучен изображениями белых людей.

Как онлайн-проблема выходит в офлайн-жизнь

Естественно, эти истории остаются только в пределах диджитала, и в реальную жизнь они чаще всего не попадают. Вы можете подумать: какая разница, что технология предвзята, если она не влияет на что-либо в реальном мире?
Но правда в том, что ИИ и распознавание лиц начинают играть все большую роль в нашей жизни: они открывают двери от домов и разблокирывают телефоны с вашими данными.
Чем дальше — тем глубже ИИ будет вникать в наши жизни. Например, в Китае сейчас создают «социальную кредитную систему» ​​для своих граждан. Как и банковские кредитные системы, государство планирует дать каждому гражданину оценку его ценности, изучив его поведение. Система будет обязательной для всех жителей КНР уже в 2020 году. Ее алгоритм остается в тайне, но известно, что за нарушение правил дорожного движения, курение на остановке транспорта или чтение оппозиционных газет человек не сможет, к примеру, ездить на общественном транспорте.
У Китая большие амбиции по расширению этой программы: например, правительство может запретить доступ в интернет, доступ к любому транспорту в стране или даже создать черный список граждан, которым запрещено занимать высокие должности.
Не исключено, что на разработку Сяй и Чжан могут обратить внимание власти КНР. Тогда расизм в технологиях выйдет за пределы онлайна, а жители Китая почувствуют реальные последствия, потому что их лица покажутся преступными государственной системе.

Что дальше

ИИ не должен быть предвзятым к определенным группам. Первый шаг к соблюдению международных рамок — общество должно перестать притворяться, что ИИ нейтрален. Он создан и обучен людьми, которые влияют на выборку данных своими расовыми предубеждениями, хоть часто это происходит неосознанно.

Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

ЧИТАЙТЕ ТАКЖЕ
БИЗНЕС
Tinder для доставки груза. Рассказываем о сервисе перевозок, соединяющем водителей и отправителей
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
28 апреля 2022, 10:00 3 мин чтения
БИЗНЕС
Целеустремленность. Как PeopleForce работает во время войны?
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
25 апреля 2022, 14:00 7 мин чтения
БИЗНЕС NIX
IT-компания NIX — партнер ХНЭУ имени С. Кузнеца. Рассказываем, зачем это университету и бизнесу
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
20 января 2022, 10:15 1 мин чтения
БИЗНЕС NIX
У NIX новое офисное пространство для обучения студентов. Показываем и рассказываем, зачем это им
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
30 декабря 2021, 15:00 2 мин чтения
Загрузка...