С сегодняшними технологиями и общественным сознанием больше нельзя демонстрировать какую-либо предвзятость в отношении продукта или услуги, независимо от того, намеренно это или нет. Вот почему на Твиттер тычут пальцем после того, как его алгоритм обрезки изображений обнаруживает расовую предвзятость.
Есть ли в Твиттере расовая предвзятость?
Twitter исследует свой алгоритм обрезки изображений после того, как пользователи заметили, что черные лица не всегда отображаются при предварительном просмотре изображения в мобильной ОС, когда на изображении одновременно изображено черное и белое лицо.
Twitter сообщил, что не обнаружил никаких доказательств расовой и гендерной предвзятости при тестировании своего алгоритма, но в то же время понимает, что еще предстоит провести дополнительное тестирование.
Технологический директор социальной сети Параг Агравал сообщил, что модель обрезки изображений была проанализирована при ее выпуске, но ценит, что общественность помогает протестировать ее вживую. «Мне нравится этот публичный, открытый и строгий тест, и я хочу извлечь из него уроки», — сказал он.
Руководитель университета в Ванкувере Колин Мэдланд начал это предприятие, заметив, что, когда он масштабирует изображение чернокожего коллеги, голова другого мужчины исчезает. Создавалось впечатление, что программа увидела темную голову как часть фона, поэтому удалила ее.
Мэдланд увидел более глубокую проблему, когда написал об этом в Твиттере. Он написал в Твиттере вопрос, знает ли кто-нибудь, что происходит с исчезновением лица его коллеги. Однако, как только он опубликовал в Zoom фотографию, на которой было изображено и его лицо, и отсутствующее лицо его коллеги, Twitter обрезал изображение, чтобы показать только Мэдленда, а не другого человека.
Он обнаружил в Zoom, что можно добиться появления лица чернокожего мужчины, если поместить белый шар за его головой, как будто этого было достаточно, чтобы отделить его от фона. Тем не менее, Twitter также обрезал это. Он обрезал человека с отсутствующей головой, а также обрезал изображение с головой, видимой перед земным шаром.
Дэнтли Дэвис, главный дизайнер Twitter, считает, что проблему можно было бы решить, если бы Мэдланду пришлось снять волосы с лица и очки.
«Я знаю, что ты думаешь, что это весело — замочить меня, но меня это раздражает так же, как и всех остальных. Однако я в состоянии это исправить, и я это сделаю», — сказал Дэвис. «Это 100 процентов наша вина. Никто не должен говорить обратное».
Пользователи Твиттера провели эксперименты, чтобы доказать эту теорию. Они обнаружили, что алгоритм отдает предпочтение лидеру большинства в Сенате США Митчу Макконнеллу, а не бывшему президенту США Бараку Обаме. Даже на стандартной фотографии был изображен белый мужчина, а не черный.
Твиттер не одинок
Это не единичная ситуация с Twitter. То же самое произошло с Microsoft, IBM и Amazon с их системами распознавания лиц. Они не смогли идентифицировать цветных людей так же хорошо, как и белых.
В Microsoft заявили, что предприняли шаги для устранения проблемы после того, как поняли, что при обучении системы в основном участвовали белые лица. Системе не было показано достаточно цветных людей, чтобы научиться правильно их идентифицировать. Позже Microsoft предложила регулировать распознавание лиц, чтобы предотвратить предвзятость.
IBM заявила, что запустит новую версию своего сервиса. Система Amazon Rekognition иногда даже идентифицирует чернокожих женщин как чернокожих мужчин, но с белыми женщинами такой проблемы нет.
Проблема, как отметил Мэдланд в своем аккаунте в Твиттере, заключается в том, что это не всегда так безобидно, как собрание в Zoom. Правоохранительные органы используют Rekognition. Эта система может ошибочно идентифицировать людей и обвинить их в совершении преступления. А это само по себе является преступлением.
Изображение предоставлено: Twitter и общественное достояние Колина Мидленда