Сэм Альтман, генеральный директор OpenAI, предлагает создать международное агентство по надзору за контролем технологий искусственного интеллекта (ИИ). По словам Альтмана, учитывая быструю эволюцию искусственного интеллекта, агентский подход будет лучше, чем негибкие законы.
Сравнивая ИИ с самолетами, Альтман подчеркивает необходимость системы испытаний на безопасность. Он отмечает, что системы искусственного интеллекта могут иметь негативные последствия, выходящие за пределы границ страны.
Он также подчеркивает, что такие мощные системы должны быть проинспектированы международным агентством и подвергнуты разумным тестам безопасности.
Сэм Альтман призывает к глобальному надзору для обеспечения безопасной разработки искусственного интеллекта
Сэм Альтман объясняет необходимость регулирования ИИ, сравнивая его с безопасностью самолетов. Он говорит, что система испытаний на безопасность для предотвращения человеческих жертв, как в самолетах, имеет важное значение для ИИ. Альтман говорит, что садясь в самолет, он предполагает, что там будет безопасно, и такое же доверие следует оказывать и ИИ.
Сэм Альтман утверждает, что более гибкие решения по регулированию ИИ могут предложить международные агентства, а не национальные законы. Он подчеркивает, что такого рода регулирование важно для такой быстро меняющейся технологии, как искусственный интеллект. Альтман утверждает, что действующие законы не могут должным образом регулировать ИИ и могут стать недействительными в течение нескольких месяцев.
В марте этого года Европейский Союз одобрил Закон об искусственном интеллекте, целью которого является классификация рисков ИИ и запрет неприемлемых случаев использования. В то же время президент США Джо Байден подписал указ, требующий большей прозрачности крупнейших в мире моделей искусственного интеллекта. По данным, штат Калифорния также продолжает лидировать в регулировании ИИ в этом году: законодательный орган рассмотрел более 30 законопроектов. Блумберг.
Альтман утверждает, что международное регулирование технологий искусственного интеллекта должно быть достаточно гибким, чтобы адаптироваться к событиям в этой области и установить глобальный стандарт безопасности. Такое международное сотрудничество может иметь решающее значение для минимизации потенциальных глобальных рисков, связанных с ИИ.
Контроль над ИИ имеет решающее значение как для устойчивости технологических инноваций, так и для социальной безопасности. Без надлежащего регулирования системы ИИ могут вести себя неожиданным образом, причиняя непредвиденный вред. В частности, мощные приложения искусственного интеллекта, такие как автономное оружие, могут представлять серьезную угрозу международной безопасности, если их не остановить.
С другой стороны, чрезмерное регулирование ИИ может задушить инновации и замедлить технологическое развитие. Чрезмерно строгие законы могут помешать компаниям и исследователям разрабатывать новые приложения ИИ, что может привести к отставанию в глобальной экономической и технологической конкуренции. Таким образом, регулирование ИИ должно основываться на сбалансированном подходе между технологическими инновациями и защитой прав общества и личности.
Как предположил Сэм Альтман, международное агентство могло бы обеспечить стандартизированный глобальный надзор за технологиями искусственного интеллекта, одновременно стимулируя инновации и минимизируя потенциальные риски. Поощряя международное сотрудничество и обмен информацией, этот подход максимизирует положительный потенциал ИИ и минимизирует риски. Другими словами, правильное и эффективное регулирование технологий искусственного интеллекта имеет решающее значение как для стимулирования новых разработок, так и для предотвращения вреда обществу.
Предоставленное изображение предоставлено: Эмилиано Витториози / Unsplash
Source: Сэм Альтман выступает за единый глобальный подход к регулированию ИИ