Алгоритм автоматической обрезки фотографий Twitter отдавал предпочтение «молодым, худым, светлокожим лицам», согласно результатам конкурса, проведенного социальной сетью.
В марте этого года компания отключила автоматическую обрезку фотографий. Многие пользователи отмечали, что при публикации группового изображения белые люди выделялись над черными.
Конкурс, организованный Twitter, подтвердил ситуацию. Участники, эксперты в области искусственного интеллекта, подчеркнули предвзятость, питавшую систему сети.
Победители показали, что алгоритм отдает предпочтение «молодым, стройным, светлокожим лицам, гладкой текстуре кожи со стереотипно женственными чертами». Первое место занял Богдан Кулыныч, аспирант EPFL: он получил 3500 долларов.
Во-вторых, было указано, что оно было предвзято против людей с белыми или седыми волосами, что подразумевает дискриминацию по возрасту.
В то время как на третьем месте было отмечено, что он предпочитает английский язык арабскому письму на изображениях.
Ищем улучшения в искусственном интеллекте Твиттера
Напомним, что система находится в постоянном развитии, поэтому ее еще можно улучшать. Твиттер искал, основываясь на мнениях и выводах экспертов, лучшее руководство для автоматической обрезки фотографий.
Румман Чоудхури, руководитель группы META в Twitter, проанализированы результаты, достижения.
3 место достается @RoyaPak кто экспериментировал с алгоритмом заметности Twitter, используя двуязычные мемы. В этой записи показано, как алгоритм отдает предпочтение обрезке латинских шрифтов перед арабскими, и что это означает с точки зрения ущерба языковому разнообразию в Интернете.
– Twitter Engineering (@TwitterEng) 9 августа 2021 г.
Он сказал: «Когда мы думаем о предвзятости в наших моделях, речь идет не только об академических или экспериментальных», – сказал руководитель. (Речь идет) о том, как это также работает с тем, как мы думаем об обществе ».
«Я использую фразу« жизнь, имитирующая искусство, и искусство, имитирующее жизнь ». Мы создаем эти фильтры, потому что думаем, что это прекрасно, и в итоге тренируем наших моделей и приводим эти нереалистичные представления о том, что значит быть привлекательными ».
Команда Twitter META изучает этику, прозрачность и подотчетность машинного обучения.
Как победитель пришел к такому выводу?
Чтобы Богдан Кулыныч пришел к заключению об алгоритме Twitter, он использовал программу искусственного интеллекта под названием StyleGAN2. С его помощью он создал большое количество реальных лиц, которые он варьировал в зависимости от цвета кожи, а также женских и мужских черт лица и худобы.
Ого, это было неожиданное завершение недели! Моя работа была удостоена 1-го места в программе Twitter’s Algorithmic Bias. Большое спасибо @ruchowdh, @TwitterEng Команда МЕТА и жюри…
– Богдан Кулыныч (@hiddenmarkov) 8 августа 2021 г.
Как объясняет Твиттер, Кулиныч загрузил варианты в сетевой алгоритм автоматической обрезки фотографий, поиск которого был его любимым.
«(Они обрезали) те, которые не соответствовали предпочтениям алгоритма по массе тела, возрасту и цвету кожи», – подчеркнул эксперт в своих результатах.
Компании и расовые предубеждения, как вы с ними справляетесь?
Twitter своим конкурсом подтвердил повсеместную природу социальной предвзятости в алгоритмических системах. Теперь возникает новый вызов: как бороться с этими предубеждениями?
«Искусственный интеллект и машинное обучение – это просто Дикий Запад, независимо от того, насколько квалифицированными вы считаете свою команду по анализу данных», – отметил Патрик Холл, исследователь ИИ.
«Если вы не находите свои ошибки или программа вознаграждений за ошибки не находит ваших ошибок, то кто их находит? Потому что у вас есть ошибки ».
Его слова напоминают работу других компаний, когда у них случаются похожие неудачи. The Verge напоминает, что, когда команда Массачусетского технологического института обнаружила расовые и гендерные предубеждения в алгоритмах распознавания лиц Amazon, компания дискредитировала исследователей.
Впоследствии ему пришлось временно запретить использование этих алгоритмов.