Споры Google о том, что ИИ-близнецы проснулись, недавно вызвали дебаты об ограничениях ИИ и его борьбе за баланс разнообразного представления с исторической точностью.
Полемика привела к дебатам о потенциальных предубеждениях в ИИ, а также к вопросам о балансе между целями разнообразия и фактическим представлением. Вот все подробности…
Искусственный интеллект Gemini вызвал споры: все, что вам нужно знать
Споры начались, когда Google позволил Gemini AI создавать изображения людей. ИИ часто изображал цветных людей в исторически белых контекстах (например, изображения викингов, изображаемых исключительно черными). Это привело к обвинениям в неточностях и спорам о роли целей разнообразия в системах ИИ. В ответ Google временно отключил возможность генератора изображений создавать изображения людей.
Что пошло не так с ИИ Gemini?
Google недавно признала свою модель искусственного интеллекта Gemini».промахнулся«. Споры разворачиваются вокруг изображений, создаваемых искусственным интеллектом, в которых приоритет отдается расовому и гендерному разнообразию, даже если в жертву приносится историческая точность. Это приводило к таким ситуациям:
- Викинги изображались исключительно как чернокожие люди.
- Джордж Вашингтон был изображен черным.
- Папы показаны небелыми.
- Неспособность создать изображения белых исторических деятелей, таких как Авраам Линкольн.
Голоса в дебатах
Споры о пробуждении искусственного интеллекта Близнецов вызвали ряд реакций. Правые комментаторы рассматривают эту проблему как свидетельство антибелой предвзятости в крупных технологических компаниях, часто используя ситуацию в качестве оружия для политической выгоды. Эксперты по искусственному интеллекту, такие как Гэри Маркус, считают это провалом самого программного обеспечения, подчеркивая отсутствие детального понимания в генеративных системах искусственного интеллекта.
Признавая проблему, Google объясняет ее попыткой заставить Gemini отразить свою глобальную базу пользователей. Они работают над исправлениями и подчеркивают необходимость большего количества нюансов в интерпретации и представлении исторического контекста.
Что такое алгоритм Gemini AI?
Gemini AI — мощный инструмент от Google AI, который создает оригинальные изображения на основе текстовых описаний. Это часть более крупного семейства моделей Gemini, известного своими расширенными возможностями. Gemini AI использует обработку естественного языка (NLP) для понимания запросов пользователей и применения своих обширных знаний, создавая визуальные эффекты, соответствующие введенным ключевым словам.
Как использовать Gemini AI?
В настоящее время доступ к Gemini AI ограничен. Однако аналогичные инструменты создания изображений часто выполняют следующие шаги:
- Предоставьте текстовое описание: будьте как можно более подробными и креативными для достижения наилучших результатов.
- Установить параметры (необязательно): некоторые инструменты позволяют выбирать стиль изображения, разрешение или соотношение сторон.
- Генерировать: ИИ обрабатывает ваш запрос и создает несколько вариантов изображения на основе вашего описания.
Проблемы представления ИИ
Инцидент с пробуждением искусственного интеллекта Gemini подчеркивает сложность балансирования положительных целей, таких как инклюзивность и разнообразие, с возможными искажениями. В этой ситуации возникает несколько ключевых проблем, в том числе возможность усиления вредных стереотипов, если ИИ неточно изображает определенные группы населения в исторически доминирующих ролях. Это также может подорвать доверие, если пользователи почувствуют, что ИИ игнорирует истины реального мира в пользу социальной повестки, которая необходима для широкого внедрения и полезного использования систем ИИ.
Наконец, эти неточности часто отражают предвзятость данных, на которых обучалась система ИИ, подчеркивая широко распространенную проблему в системах ИИ, которую необходимо постоянно решать, чтобы уменьшить вероятность вредных искажений.
Путь вперед
Опыт Google с Gemini AI предоставляет возможность обучения. Вот что подчеркивает этот инцидент:
- Прозрачность: Компаниям необходимо обеспечить большую прозрачность данных обучения и этических соображений в своих алгоритмах.
- Улучшенные наборы данных: Расширение наборов данных, чтобы они были более репрезентативными для реального мира, может помочь уменьшить ошибки в алгоритмах.
- Человеческий надзор: Системы искусственного интеллекта никогда не должны заменять человеческое суждение, особенно в областях, чувствительных к предвзятости.
Дебаты о пробуждении искусственного интеллекта Близнецов подчеркивают, что даже передовые инструменты искусственного интеллекта сталкиваются со сложностями человеческих ценностей. Технологии должны быть инструментом прогресса, но только при условии постоянных и неустанных усилий по устранению предвзятости в их творениях.
Предоставленное изображение предоставлено: Близнецы
Source: Google останавливает Gemini AI из-за проблем с точностью изображений