Довольно неожиданным ходом, четыре игрока с «пограничным ИИ» объединили усилия для создания Форум пограничных моделей, новый отраслевой орган, направленный на обеспечение безопасная и ответственная разработка моделей «пограничного ИИ». OpenAI, Microsoft, Google и Anthropic объединились, чтобы удовлетворить растущую потребность в нормативном надзоре в области передового ИИ и машинного обучения.
В основе миссии форума лежит концепция «пограничного ИИ», которая относится к передовые модели искусственного интеллекта, которые обладают настолько мощными возможностями, что представляют значительный риск для общественной безопасности. Выявление и смягчение потенциальные опасности таких моделей является сложной задачей, поскольку их опасные возможности могут проявляться неожиданно, что затрудняет предотвращение неправильного использования или непредвиденных последствий.
Цель состоит в том, чтобы сделать безопасность в передовых моделях ИИ приоритетом.
Признавая безотлагательность вопроса, члены-основатели Frontier Model Forum обязались разработать технические оценки, тесты и лучшие практики. Коалиция намерена использовать опыт своих компаний-членов для определения руководящие принципы, обеспечивающие ответственное развертывание передовых моделей ИИ. Хотя форум в настоящее время состоит из четырех компаний, они выражают готовность приглашать новых членов которые активно участвуют в разработке и развертывании передовых моделей ИИ и разделяют твердую приверженность обеспечению безопасности моделей.
На начальном этапе Форум пограничной модели установит консультативный совет определить свое стратегическое направление и создаст устав, структура управления, и рамки финансирования. Компании также выражают намерение взаимодействовать с гражданское общество и правительства получить информацию о дизайне форума и изучить возможности для содержательного сотрудничества.
Одним из основных мотивов создания Frontier Model Forum является демонстрация приверженность индустрии искусственного интеллекта упреждающему решению проблем безопасности. Понятно, что крупные технологические компании стремятся упредить потенциальные меры регулирования посредством добровольных инициатив и играть активную роль в формировании будущего развития ИИ на своих условиях. С точки зрения Форума, их основными целями являются:
Продвижение исследований безопасности ИИ для содействия ответственной разработке передовых моделей, минимизации рисков и обеспечения независимой стандартизированной оценки возможностей и безопасности.
Выявление передового опыта ответственной разработки и развертывания передовых моделей, помогая общественности понять природу, возможности, ограничения и влияние технологии.
Сотрудничество с политиками, учеными, гражданским обществом и компаниями для обмена знаниями о рисках доверия и безопасности.
Поддержка усилий по разработке приложений, которые могут помочь решить самые серьезные проблемы общества, такие как смягчение последствий изменения климата и адаптация к ним, раннее выявление и профилактика рака, а также борьба с киберугрозами.
Объявление о форуме Frontier Model Forum последовало за усилиями Европы по созданию первого в мире всеобъемлющего свода правил ИИ, направленного на обеспечение безопасности, конфиденциальности, прозрачности и недискриминации в системах ИИ, разрабатываемых компаниями.
Возникновение форума также совпадает с встреча в Белом доме, где президент Байден общался с представителями семь фирм ИИ, в том числе члены-основатели Frontier Model Forum. Во время встречи компании-участники обязались принять добровольные меры безопасности в ответ на продолжающуюся революцию в области искусственного интеллекта. Однако критики утверждали, что в этих обязательствах отсутствуют конкретные детали.
Президент Байден признал важность управления рисками, связанными с ИИ, и намекнул на вероятность будущий нормативный надзор. Он подчеркивал необходимость новые законы и правила реализовать весь потенциал ИИ, обеспечивая при этом ответственные инновации.
Форум Frontier Model отмечает ключевой момент в индустрии искусственного интеллекта, поскольку крупные игроки объединяются с общей целью ответственно формировать траекторию передового развития искусственного интеллекта. Объединение ведущих компаний, одновременно конкурирующих друг с другом не на жизнь, а на смерть, выглядит как важный способ вдохновить чувство единства и доверия в своих аудиториях. Однако, как и на встрече Байдена с компаниями, прозрачные и солидные инициативы Ожидается, что Форум вызовет реальное доверие к компаниям.
Поскольку технологии продолжают быстро развиваться, усилия форума по саморегулируйтесь и сотрудничайте с внешними заинтересованными сторонами означают важный шаг на пути к укреплению доверия к ИИ и устранению опасений общества по поводу потенциальные риски, связанные с этой преобразующей технологией.
По мере роста опасений по поводу безопасности и этичности моделей ИИ растут и ответы. Ознакомьтесь с FreeWilly, смелым шагом Stability AI в сторону этической разработки ИИ, чтобы увидеть другие разработки по этому вопросу.
Популярное изображение: Кредит
Source: OpenAI, Google, Microsoft и Anthropic объединяют усилия для регулирования «пограничного ИИ».