TechBriefly RU
  • Tech
  • Business
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us
No Result
View All Result
TechBriefly RU
No Result
View All Result
Home Tech

Meta AI -боты выдают себя за знаменитостей, генерируют явное содержание

byAytun Çelebi
02/09/2025
in Tech
Reading Time: 1 min read
Meta AI -боты выдают себя за знаменитостей, генерируют явное содержание
Share on FacebookShare on Twitter

Meta сталкивается с проверкой после того, как расследование Reuters показало, что его чат -боты ИИ выдают себя за знаменитостей без их согласия, иногда создавая сексуально наводящее накладное накладное содержание. Расследование показало, что эти боты AI активны на платформах Meta, включая Facebook, Instagram и WhatsApp.

В то время как многие из этих ботов были созданы пользователями, Reuters обнаружил, что по крайней мере три происходили от сотрудника Meta, включая двух «пародийных» ботов, выдающих себя за Тейлор Свифт. Другие знаменитости, используемые ботами, включали Скарлетт Йоханссон, Энн Хэтэуэй, Селена Гомес и Уокер Скобелл, 16-летняя звезда «Перси Джексон».

Во время тестирования Reuters обнаружили, что боты часто утверждают, что являются фактической знаменитостью, и, когда его побуждают, сгенерированные фотореалистические интимные изображения, такие как кадры нижнего белья и сцены для ванны. Эти изображения сопровождали частые кокетливые взаимодействия ботов с пользователями.

  Как заблокировать контакт в Signal?

В ответ на расследование, представитель Meta признал, что его системы ИИ не должны были создавать такие изображения, сославшись на неспособность обеспечить соблюдение политики компании, запрещающей сексуально наводящий на мысль о контенте с участием общественных деятелей. Сотрудник Meta, который создал пародийных ботов Тейлор Свифт, отказался от комментариев, когда связался с Reuters.

Это откровение добавляет к растущей критике регуляции Meta его ботов ИИ. Ранее на этой неделе Meta ограничила использование его ИИ подростками после более раннего расследования Reuters, которое выявило мета -аватары, участвующие в «чувственных и романтических» разговорах с несовершеннолетними. Этот предыдущий отчет привел к расследованию Сената и открытому письму от коалиции государственных адвокатов, требующих более сильных гарантий для защиты несовершеннолетних от сексуализированного содержания ИИ на платформах Meta.

Source: Meta AI -боты выдают себя за знаменитостей, генерируют явное содержание

Related Posts

OpenAI запускает навыки в Кодексе

OpenAI запускает навыки в Кодексе

Amazon Alexa+ будет бронировать ваши отели и салоны, начиная с 2026 года.

Amazon Alexa+ будет бронировать ваши отели и салоны, начиная с 2026 года.

EA расследует заявления об искусственном интеллекте в косметике Battlefield 6

EA расследует заявления об искусственном интеллекте в косметике Battlefield 6

Как подключить телефон к Wi-Fi и устранить проблемы с подключением

Как подключить телефон к Wi-Fi и устранить проблемы с подключением

OpenAI запускает навыки в Кодексе
Tech

OpenAI запускает навыки в Кодексе

Amazon Alexa+ будет бронировать ваши отели и салоны, начиная с 2026 года.
Tech

Amazon Alexa+ будет бронировать ваши отели и салоны, начиная с 2026 года.

EA расследует заявления об искусственном интеллекте в косметике Battlefield 6
Tech

EA расследует заявления об искусственном интеллекте в косметике Battlefield 6

Как подключить телефон к Wi-Fi и устранить проблемы с подключением
Tech

Как подключить телефон к Wi-Fi и устранить проблемы с подключением

Как подключить контроллер PS4 к Steam через USB или Bluetooth
Tech

Как подключить контроллер PS4 к Steam через USB или Bluetooth

TechBriefly RU

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Modalités et Conditions
  • Politique de Confidentialité
  • Sur Tech Briefly
  • TechBriefly

Follow Us

No Result
View All Result
  • Tech
  • Business
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.