Эта статья является своего рода продолжением. Шесть месяцев назад мы опубликовали новость о том, что Microsoft работает над исправлением своего программного обеспечения для распознавания лиц, которое было сочтено расово предвзятым. Теперь та же компания просит регулировать распознавание лиц, чтобы предотвратить предвзятость. Итак, их поймали на предвзятом программном обеспечении, и теперь они хотят, чтобы вся индустрия регулировалась, чтобы не допустить использования кем-либо еще программного обеспечения с расовой предвзятостью.
Первоначальная проблема
Как мы сообщали в июне, Face API от Microsoft, основанный на Azure, подвергся критике в исследовательской работе. Программному обеспечению было трудно распознавать цветных людей и женщин. Уровень ошибок достигал 20,8 %, но для «более светлых мужских лиц» уровень ошибок составлял ноль процентов.
Причина такой разницы в распознавании заключается в том, что искусственный интеллект должен был программироваться людьми. Результаты будут настолько хороши, насколько хороши люди, которые занимались программированием. Программисты Microsoft использовали недостаточное количество людей с более темным оттенком кожи или женщин.
Microsoft работала над решением этой проблемы, диверсифицируя данные обучения и приступив к внутреннему тестированию своих систем перед их развертыванием. Им удалось снизить частоту ошибок для темнокожих людей до двадцати раз, а для женщин — в девять раз.
Продвижение законодательства
Прошло шесть месяцев, и Microsoft просит правительства принять закон, требующий независимого тестирования технологии распознавания лиц, чтобы гарантировать ее точность, предотвратить предвзятость и защитить права пользователей.
«Джин распознавания лиц, так сказать, только выходит из бутылки», – объяснил в своем блоге Брэд Смит, главный юрисконсульт Microsoft.
«Если мы не примем меры, мы рискуем проснуться через пять лет и обнаружить, что услуги по распознаванию лиц распространились таким образом, что усугубляют социальные проблемы. К тому времени эти проблемы будет гораздо труднее решить».
Компания просит, чтобы результаты распознавания лиц проверялись людьми, а не оставляли эту задачу компьютерам.
«Это включает в себя случаи, когда решения могут создать риск телесного или эмоционального вреда для потребителя, когда это может иметь последствия для прав человека или основных прав или когда личная свобода или неприкосновенность частной жизни потребителя могут быть ущемлены», — пояснил он.
Кроме того, Смит предположил, что те, кто использует распознавание лиц, должны «признавать, что они не освобождаются от обязанности соблюдать законы, запрещающие дискриминацию отдельных потребителей или групп потребителей».
Он также хотел быть уверенным, что использование правительством системы распознавания лиц не посягает на демократические свободы и права человека.
«Мы должны сделать так, чтобы 2024 год не был похож на страницу из романа «1984», — заключил он.
Более того
Конечно, Microsoft права. Просто интересно, что шесть месяцев назад они не осознавали необходимости быть осторожными, чтобы их программное обеспечение не дискриминировало, а теперь они не только осознают это, но и хотят быть уверены, что никто другой не сможет совершить те же ошибки. они это сделали.
Независимо от ситуации, сложившейся ранее, имеет ли Microsoft право требовать законодательного регулирования и регулирования распознавания лиц? Поделитесь с нами своими мыслями по поводу запроса Microsoft в разделе комментариев ниже.