Nvidia объявила о графическом процессоре «Rubin CPX» на Summit AI Infra, специализированном акселераторе из будущего семейства «Рубин», предназначенного для моделей AI с массивным контекстом. Ожидается, что к концу 2026 года чип доставляет 30 Petaflops NVFP4 вычислить на монолитном матрице с 128 ГБ памяти GDDR7. Эта монолитная конфигурация является отходом от пакетов с двойным GPU нынешних архитектур Blackwell и Blackwell Ultra и того, чем последуют остальная часть семьи Рубин. Рубин CPX рассматривает вычислительные узкие места в сценариях с расширенным контекстом, обрабатывая миллионы токенов одновременно для таких приложений, как комплексный анализ программной базы и часовая обработка видео, которые могут потребовать до одного миллиона токенов. Процессор интегрирует четыре NVENC и четыре видео-кодера NVDEC на чипе, что позволяет оптимизированным мультимедийным рабочим процессам. NVIDIA заявляет, что Rubin CPX в три раза превышает скорость обработки внимания своих нынешних систем GB300 Blackwell Ultra Accelerator. В архитектуре используется оптимизированный затрат подход для однократного DIE, чтобы потенциально снизить сложность производства при сохранении вычислительной плотности. Хотя спецификации полосы пропускания памяти нераскрыты, 512-битный интерфейс может дать пропускную способность около 1,8 ТБ/с с помощью 30 Гбит/с чипов памяти GDDR7. NVIDIA планирует интегрировать процессоры Rubin CPX в платформу CPX Vera Rubin NVL144, объединяя традиционные графические процессоры Rubin со специализированными вариантами CPX. Эта гибридная установка направлена на 8 экзафлопс заполнительных вычислений и 1,7 PB/с полосы пропускания памяти через полное развертывание стойки. Стойка “Kyber” будет включать в себя сетевые адаптеры ConnectX-9 с сетью 1600G, Spectrum6 с коммутацией 102,4T и совместной оптической оптикой. NVIDIA маркетинг Rubin CPX как одноразовый в семействе Рубин для справки со сложности систем искусственного искусственного интеллекта для масштабирования времени тестирования. По мере того, как модели превращаются в сложные агенты по мышлению, выводы между вычислительными контекстами разрыва вывода между вычислительной обработкой контекста и генерацией токенов в зависимости от пропускания памяти. Конструкция CPX оптимизирован для этих двойных требований, обрабатывая операции префиллов контекста для корпоративных чат -ботов с 256 000 токенов или анализом кода, превышающим 100 000 строк. Эта специализация имеет решающее значение для систем искусственного интеллекта, которые нуждаются в постоянной памяти в рамках расширенных взаимодействий, которые Nvidia стремится легко обеспечить с этим оборудованием. Быстрый цикл развития Nvidia повысил свои финансовые показатели, и компания в последнем квартале сообщила, что компания сообщила о продажах центров обработки данных 41,1 млрд. Долл. США.
Source: NVIDIA объявляет GPU Rubin CPX для длинного контекста AI
