Многие люди никогда бы об этом не подумали, если только вы не цветной человек. Программное обеспечение для распознавания лиц, или, по крайней мере, программное обеспечение Microsoft, было запрограммировано в основном с лицами европеоидных мужчин. Это означает, что ему труднее распознавать темные лица, особенно женщин. Но Microsoft объявляет, что они улучшили ситуацию.
Расистская сторона программного обеспечения для распознавания лиц
Ранее в этом году Face API от Microsoft, основанный на Azure, подвергся критике в исследовательской работе. Они изучили частоту ошибок при попытках определить пол цветных людей и обнаружили, что она достигает 20,8 процента, особенно при попытке идентифицировать женщин с более темным оттенком кожи. А вот с «более светлыми мужскими лицами» процент ошибок составил ноль процентов.
Это потому, что технология искусственного интеллекта и есть искусственная. Ее должны программировать люди, а это значит, что результаты будут зависеть от того, насколько хорошо была запрограммирована технология и какие данные для этого использовались.
Когда Microsoft разрабатывала свое программное обеспечение, у нее не было достаточно изображений людей с более темным оттенком кожи. Это привело к более высокому уровню ошибок у цветных людей, особенно у женщин.
Расизм — важная тема, которую следует учитывать. Microsoft, конечно, не ставила перед собой задачу быть расистской, но, разрешив программирование программного обеспечения преимущественно белым мужчинам, возникает вопрос, не проявили ли программисты непреднамеренно свои собственные расовые предубеждения.
Исправление
Независимо от того, почему Microsoft в конечном итоге создала программное обеспечение, демонстрирующее предвзятость его создателей/программистов, ей необходимо это исправить. После того, как они это исправили, компания заявила, что смогла снизить частоту ошибок для темнокожих людей до двадцати раз. Для женщин, независимо от цвета кожи, процент ошибок снизился в девять раз.
Чтобы снизить уровень ошибок, команда Face API внесла три изменения. Очевидно, что необходимо пересмотреть и расширить обучение и данные для их контрольных показателей. Особое внимание они уделяли тону кожи, полу и возрасту.
«Мы обсуждали различные способы выявления предвзятости и обеспечения справедливости», — сказала Ханна Уоллак, старший научный сотрудник нью-йоркской исследовательской лаборатории Microsoft, а также эксперт в области справедливости, подотчетности и прозрачности в системах искусственного интеллекта. «Мы говорили об усилиях по сбору данных, чтобы диверсифицировать данные обучения. Мы говорили о различных стратегиях внутреннего тестирования наших систем перед их развертыванием».
Корнелия Карапчеа, главный менеджер программы в команде Cognitive Services, сказала, что в конечном итоге группа Уоллаха дала «более тонкое понимание предвзятости» и помогла ее команде разработать набор данных, «который позволил нам учитывать различные оттенки кожи».
Двигаемся дальше
«Если мы обучаем системы машинного обучения имитировать решения, принимаемые в предвзятом обществе, используя данные, генерируемые этим обществом, то эти системы обязательно будут воспроизводить его предвзятости», — сказал Уоллах.
Это имеет смысл. Нравится нам это или нет, но расизм существует в нашем обществе. Возможно, нам не нравится думать, что это так, но иногда мы просто не можем этого отрицать. То же самое общество также создает технологии, которые мы используем, а это означает, что они также могут быть предвзятыми на расовой почве. Если мы хотим, чтобы наши технологии работали лучше, нам самим нужно добиваться большего.
Что вы думаете о том, что Microsoft создает программное обеспечение, основанное на предубеждениях ее разработчиков? Изменит ли это ваше мнение о компании? Как, по вашему мнению, это отражается на обществе? Выскажите свое мнение в разделе комментариев ниже.