Статья Ars Technica от сентября 2025 года под названием «Отчет о безопасности AI Deepmind исследует опасности смещенного ИИ», охватывает исследования Google DeepMind и перспективу безопасности искусственного интеллекта. Отчет уделяет особое внимание искусственному общему интеллекту (AGI) и рискам, связанным с смещенными системами ИИ, где цели ИИ противоречит человеческим ценностям или намерениям. В статье описывается подход DeepMind к ответственному развитию ИИ, подчеркивая приверженность технической безопасности, оценке рисков и сотрудничеству в сообществе ИИ для управления потенциальными рисками. Эта стратегия особенно ориентирована на опасности, которые могут возникнуть из мощных систем AGI. Центральной частью этих усилий является пограничная структура безопасности DeepMind, протокол, созданный для активной идентификации и смягчения серьезных рисков, связанных с моделями Frontier AI. Также подробно описаны органы внутреннего управления в DeepMind, включая Совет ответственности и безопасности и Совет по безопасности AGI. Эти группы несут ответственность за контроль за исследованиями и разработками для устранения этических, технических рисков и рисков безопасности, связанных с передовыми технологиями ИИ. Обсуждаемая значительная задача – смещенная ИИ. Такие системы могут причинить вред, если их оперативные цели противоречат социальному благополучию, даже если они, по-видимому, функционируют с узкой технической точки зрения. Чтобы решить эту проблему, DeepMind подчеркивает важность прозрачности, внешнего сотрудничества и проактивных исследований безопасности как неотъемлемых для ответственного создания AGI.
Source: DeepMind подробно описывает безопасность AGI через Frontier Safety Framework





