CrowdStrike и Meta представили Cybersoceval, ориентир с открытым исходным кодом, предназначенный для оценки производительности моделей искусственного интеллекта в центрах безопасности (SOCS). Эта инициатива проходит в критическое время в ландшафте кибербезопасности, где искусственный интеллект одновременно подпитывает сложные угрозы и инновационную защиту. Этот инструмент направлен на то, чтобы расширить возможности предприятий для навигации по распространению решений для кибербезопасности, основанных на AI, гарантируя, что они выбирают модели, которые обеспечивают ощутимые преимущества против атак реального мира. Партнерство между лидером кибербезопасности Crowdstrike и Meta, пионером в области искусственного интеллекта с открытым исходным кодом, рассматривает насущную проблему: огромное разнообразие доступных инструментов ИИ, каждый из которых имеет различные возможности и затраты. Как заявил Crowdstrike в пресс -релизе, «Без четких критериев трудно понять, какие системы, варианты использования и стандарты производительности обеспечивают истинное преимущество искусственного интеллекта против реальных атак». Cybersoceval заполняет этот пробел, тестируя крупные языковые модели (LLMS) на важные задачи кибербезопасности, включая реакцию инцидентов, понимание анализа угроз и тестирование вредоносных программ. Эти критерии предоставляют организациям структурированный способ оценить сильные и слабые стороны различных систем ИИ, выходящих за рамки смутных утверждений к эмпирическим данным. Помимо оценки, структура предлагает более широкие последствия для экосистемы развития ИИ. Рассказывая, как корпоративные клиенты развертывают LLMS в контекстах кибербезопасности, Cybersoceval дает разработчикам представление о создании более специализированных и эффективных моделей. Это может ускорить достижения в области искусственного интеллекта, адаптированные для безопасности, в конечном итоге укрепляя защиту в среде высоких ставок, таких как финансовые услуги. Запуск подчеркивает эскалаторную «гонку цифровых вооружений» в кибербезопасности, где ИИ обеспечивает как нападавшие, так и защитники. Злоусовеченные актеры используют ИИ для новых угроз, таких как автоматизированное пароль грубого перерыва, в котором используется машинное обучение, чтобы взломать учетные данные на беспрецедентных скоростях. В ответ SOC интегрируют ИИ в свои операции для обнаружения аномалий, анализа угроз и автоматизации ответов. Это отражает биологические гонки вооружений, такие как битва иммунной системы с развивающимися патогенами, где защита должна постоянно адаптироваться, чтобы оставаться впереди. Данные в реальном мире подчеркивают ставки и потенциальные награды. Недавний опрос MasterCard и долготы Financial Times показал, что фирмы по финансовым услугам сэкономили миллионы долларов, развернув инструменты с использованием AI для борьбы с мошенничеством с AI с AI. Эти сбережения связаны с более быстрым обнаружением угроз и снижению ручного вмешательства, демонстрируя, как ИИ может преобразовать кибербезопасность из центра затрат в стратегическое преимущество. Тем не менее, без надежных критериев, таких как Cybersoceval, организации рискуют инвестировать в недостаточные инструменты, которые не могут противостоять появлению рисков. Приверженность Meta к принципам с открытым исходным кодом является центральным в этом проекте. В отличие от проприетарных моделей, таких как модели от OpenAI, подход с открытым исходным кодом позволяет разработчикам получить доступ к весам моделей, а в некоторых случаях-исходный код, способствуя совместным инновациям. Эта прозрачность обеспечивает быструю итерацию и настройку, что жизненно важно в области, где угрозы развиваются ежедневно. Винсент Гонгет, директор по продукту Generative AI в отделении Labs Superintelligence Meta, подчеркнул, что совместный потенциал: «С этими критериями и открытыми для обеспечения безопасности и сообщества ИИ, мы можем быстрее работать в качестве отрасли, чтобы раскрыть потенциал ИИ в защите от передовых атак, включая угрозы на основе искусственного интеллекта».
Время киберсочевала особенно актуально, поскольку предприятия готовятся к прогнозируемому всплеску 2025 года в киберугрозах, управляемых искусственным интеллектом. Эксперты ожидают роста сложных атак, в том числе фишинговых и оптимизированных вредоносных ПО. Предоставляя стандартизированный метод оценки, Suite помогает специалистам по кибербезопасности определять приоритетные инструменты, которые преуспевают в реальных сценариях, таких как триопленки во время инцидента с вымогательными программами или анализ фишинговых кампаний. Доступность является ключевой особенностью инициативы. Cybersoceval свободно доступен на GitHub, приглашая взносы в Global Security Security Communities. Дополнительные ресурсы, в том числе подробные эталонные спецификации и руководства по использованию, размещены на специальном веб -сайте проекта. Эта открытая модель контрастирует с закрытыми экосистемами, потенциально демократизирующим доступ к высококачественным инструментам безопасности ИИ и снижением барьеров для небольших организаций. Поскольку роль ИИ в кибербезопасности углубляется, такие инициативы, как Cybersoceval, представляют собой ключевой шаг к ответственным инновациям. Они не только помогают в выборе инструментов, но и способствуют общему пониманию ограничений и возможностей ИИ в защите от все более разумного противника. Для предприятий, борющихся за перегрузку инструментов, этот бензовый набор предлагает четкий путь к более информированным решениям, потенциально предотвращая дорогостоящие нарушения и повышение общей устойчивости. Таким образом, сотрудничество между Crowdstrike и Meta Signals созревает рынок кибербезопасности AI, где тесты стимулируют ответственность и прогресс. С умножением угроз, такие инструменты, как Cybersoceval, необходимы для обеспечения того, чтобы ИИ служил щитом, а не уязвимостью.





