Вот так это и должно работать. Twitter был предупрежден о проблеме, он проанализировал проблему и теперь ее устраняет. Услышав жалобы на то, что его автоматический алгоритм обрезки фотографий демонстрирует расовую предвзятость, Twitter потратил некоторое время на анализ, а затем решил удалить инструмент и позволить людям самостоятельно обрезать фотографии.
Жалобы на предвзятость обрезки фотографий
В октябре прошлого года пользователи Twitter жаловались, что алгоритм обрезки фотографий не относится ко всем одинаково. Сайт социальной сети объявил, что проведет анализ своего инструмента, и продолжал делать это в течение следующих нескольких месяцев. Согласно сообщению в блоге, написанному Румманом Чоудхури, директором по разработке программного обеспечения Twitter, были внесены улучшения в то, как оценивается потенциальная предвзятость.
Это была совместная работа группы по этике, прозрачности и подотчетности машинного обучения ((META) и группы исследования понимания контента. Команда задалась вопросом, является ли машинное обучение лучшим инструментом для обрезки фотографий, алгоритм был протестирован на предмет были поставлены под сомнение гендерные и расовые предубеждения, а также возможность пользователям делать собственный выбор.
Твиттер внедрил алгоритм обрезки фотографий в 2018 году. В то время целью было «улучшить согласованность размера фотографий в вашей хронике и позволить вам сразу видеть больше твитов», говорится в сообщении в блоге.. Алгоритм значимости был разработан для определения того, что читатель хочет видеть на фотографии, чтобы можно было обрезать неважные части и сделать фотографию более видимой.
В анализе Twitter были рассмотрены три области, которые могут привести к потенциальному вреду. Первыми были жалобы на то, что алгоритм заметности отдает предпочтение белым людям перед чернокожими и мужчинам перед женщинами. Еще одна проанализированная область заключалась в том, выбрал ли алгоритм грудь или ноги женщины среди других объектов на фотографии. Третья проблема заключалась в том, что эта функция не позволяла пользователям выражать себя так, как они хотели, поскольку им не разрешалось обрезать собственные фотографии.
В ходе анализа была обнаружена «разница на 8 % от демографического паритета в пользу женщин» по сравнению с мужчинами, «разница на 4 % от демографического паритета в пользу белых» по сравнению с чернокожими, «разница на 7 % от демографического паритета в пользу белых женщин» по сравнению с чернокожими женщинами и «разница в 2% от демографического паритета в пользу белых мужчин» по сравнению с чернокожими мужчинами.
Хотя алгоритм значимости также проверял «мужской взгляд», они не обнаружили никаких признаков предвзятости объективации.
В конечном итоге Twitter знал, что может скорректировать алгоритм обрезки фотографий, чтобы устранить предвзятость, но был «обеспокоен репрезентативным вредом автоматизированного алгоритма, когда людям не разрешается представлять себя так, как они хотят на платформе». Также считалось, что существуют «другие потенциальные вредные последствия, выходящие за рамки данного анализа, включая нечувствительность к культурным нюансам.
Удаление смещенного алгоритма
Придя к выводу, что, возможно, лучше всего позволить пользователям выражать себя так, как они хотят, Twitter «начал тестировать новый способ полного отображения фотографий со стандартным соотношением сторон на iOS и Android – то есть без обрезки алгоритма заметности.». Предоставляя пользователям больше контроля над изображениями, Twitter также хотел улучшить «удобство просмотра людьми изображений в своей хронике».
Для максимального контроля пользователи увидят предварительный просмотр обрезанного изображения перед его публикацией. В Твиттере все ясно, поскольку он не полагается на машинное обучение и позволяет пользователям самостоятельно собирать данные.
Читайте дальше, чтобы узнать об усилиях Twitter по монетизации платформы с помощью плана возможной оплаты за вирусные твиты, а также о критике со стороны пользователей, объявляющих «RIP Twitter», когда они узнали об этом плане.