Значительный рост количества сервисов дипфейков обнаженной натуры, как сообщает Graphika, подчеркивает тревожную тенденцию в использовании искусственного интеллекта для создания интимных изображений без согласия, вызывая серьезные этические и юридические проблемы.
Растущая популярность инструментов ИИ для раздевания
Graphika, компания, занимающаяся аналитикой социальных сетей, сообщил тревожный рост использования инструментов «раздевания ИИ». Эти инструменты генеративного искусственного интеллекта точно откалиброваны для удаления одежды с изображений, представленных пользователями, что привело к ошеломляющему увеличению количества онлайн-ссылок на эти сервисы на 2408%.
Синтетические интимные изображения без согласия (NCII) обычно включают создание откровенного контента без согласия изображенных лиц. Эти инструменты создают угрозу целенаправленного преследования, сексуального насилия и производства материалов о сексуальном насилии над детьми (CSAM).
Internet Watch Foundation (IWF), британская фирма по надзору за интернетом, выделено проблема в различении порнографии, созданной искусственным интеллектом, от подлинных изображений, что усложняет усилия по борьбе со злоупотреблениями в Интернете.
Международный ответ
Организация Объединенных Наций имеет описал СМИ, созданные искусственным интеллектом, как «серьезная и неотложная» угроза целостности информации. В ответ Европейский парламент и Совет недавно согласовали правила, регулирующие использование ИИ в ЕС.