27 июня проблема возникла с видео из британской газеты Daily Mail, сообщает The New York Times. Facebook извинился и отключил функцию рекомендаций для оценки работы своего ИИ в результате общественного протеста.
Это событие только добавляет к длинному списку расистского и сексистского поведения, которое копирует ИИ. Мы обсуждали, как сайты социальных сетей, такие как Facebook, выделяют фотографии белых людей, при этом неоднократно дискриминируя представителей других рас.
Пользователю был рекомендован видеоролик о приматах, на котором были замечены спящие чернокожий и белый мужчина. Согласно сообщениям британских СМИ, белый мужчина оскорблял другого человека, и пришлось вызвать полицию. Но, независимо от темы видео, Facebook после видео предложил следующее: «Хотите продолжать смотреть видео? насчет приматов? »
Daily Mail была первой, кто раскритиковал Facebook, но поначалу им не сообщили об ошибке. Позже Facebook извинился перед New York Times: «Как мы уже говорили, хотя мы добились прогресса в области ИИ, он не идеален, и предстоит еще много работы».
Чтобы изучить, что произошло, и попытаться предотвратить повторение этого случая, компания, которой также принадлежат WhatsApp и Instagram, отключила функцию рекомендаций в своей основной социальной сети.
Прочие ошибки
«Каждый день мы видим пределы, предубеждения и полный идиотизм полагаться исключительно на искусственный интеллект. И все же мы продолжаем позволять себе быть подопытными кроликами », – заявила в ответ на этот пример писатель New York Times по вопросам кибербезопасности Николь Перлрот.
Искусственный интеллект не является исключением из правила, согласно которому люди склонны унаследовать предубеждения друг от друга. В последние недели Twitter тоже пришлось столкнуться с этой реальностью: его умные алгоритмы отдают предпочтение фотографиям молодых белых людей.
Программы, использующие искусственный интеллект, предвзяты, потому что они часто полагаются на набор образцов или параметров для обучения функций. Искусственному интеллекту будет сложно идентифицировать остальную часть человечества, которая не соответствует этим критериям, если выборка ограничена и включает множество изображений одной расы или пола.