Наблюдательный совет Meta, полунезависимый совет, ответственный за рассмотрение политических решений компании, недавно сосредоточил свое внимание на обработке откровенных изображений, созданных искусственным интеллектом, в Instagram и Facebook.
Этот шаг стал ответом на опасения по поводу эффективности систем модерации Meta в обнаружении и реагировании на нежелательный контент.
Давайте углубимся в детали этих расследований и более широкие последствия, которые они несут.
Всматриваясь в дела
В соответствии с Отчет TechCrunchВ одном случае пользователь сообщил о сгенерированной искусственным интеллектом обнаженной фигуре публичного деятеля в Instagram, однако системы Meta не смогли оперативно удалить ее. Несмотря на многочисленные сообщения, нежелательный контент сохранялся до вмешательства Наблюдательного совета.
Аналогичным образом, в Facebook группа, ориентированная на искусственный интеллект, поделилась явным изображением, созданным с помощью ИИ, напоминающим общественного деятеля США. Хотя Meta в конечном итоге удалила изображение, остаются вопросы относительно эффективности процессов модерации.
Наблюдательный советВыборка дел из Индии и США подчеркивает более широкую обеспокоенность по поводу политики платформы Meta и правоприменительной практики. Изучая глобальное влияние контента, созданного искусственным интеллектом, особенно на безопасность женщин, совет стремится обеспечить справедливую защиту во всех регионах.
Дипфейк — чума нашей эпохи
Распространение дипфейкового порно и гендерного насилия в Интернете добавляет еще один уровень сложности. Поскольку инструменты искусственного интеллекта позволяют создавать откровенный контент, платформы сталкиваются с проблемами быстрого обнаружения и удаления вредоносных материалов. В таких регионах, как Индия, где резко возросло количество дипфейков, нацеленных на актрис, становится очевидной необходимость принятия жестких мер регулирования.
Эксперты подчеркивают необходимость принятия жестких мер по сдерживанию распространения откровенного контента, созданного ИИ. Упреждающие меры имеют решающее значение для снижения вреда: от ограничения выходных данных модели ИИ до введения маркировки по умолчанию для облегчения обнаружения. Тем не менее, правовая среда остается фрагментированной: лишь несколько юрисдикций принимают законы, конкретно касающиеся порнографии, созданной ИИ.
Помните сагу «Креветка Иисус»?
В ходе этих расследований Facebook оказывается втянутым в своеобразную сагу — появление изображений, созданных искусственным интеллектом, включая изображения Иисуса в виде креветки. Эти сюрреалистические творения, часто созданные на основе взломанных страниц, подчеркивают пересечение технологий искусственного интеллекта и манипуляций в социальных сетях.
Мотивы этого потока контента, созданного ИИ, остаются неоднозначными. В то время как некоторые размышляют о потенциальном мошенничестве, другие рассматривают это как стремление к вирусной славе. Тем не менее, сохраняется обеспокоенность по поводу злоупотребления синтетическими изображениями для кампаний по дезинформации.
Шаг, который необходимо сделать
Расследование Наблюдательного совета изображений, созданных искусственным интеллектом на платформах Meta, проливает свет на меняющиеся проблемы модерации контента в эпоху цифровых технологий. По мере развития технологий и повышения доступности инструментов искусственного интеллекта необходимость защиты пользователей от вредоносного контента становится все более актуальной. Платформы, подобные Facebook, обязаны принять упреждающие меры и создать более безопасную онлайн-среду для всех пользователей.
Автор избранного изображения: Мета