NVIDIA представляет суперкомпьютер Vera Rubin POD с 40 стойками для агентных рабочих нагрузок
Iris Coleman 19:48, 16 марта 2026
NVIDIA анонсирует Vera Rubin POD с 1 152 GPU в 40 стойках, обеспечивающий 60 эксафлопс и производительность вывода в 10 раз лучше на ватт, чем Blackwell.
NVIDIA только что представила спецификации своего самого амбициозного инфраструктурного проекта в области ИИ. Vera Rubin POD включает 1 152 GPU Rubin в 40 стойках, обеспечивая 60 эксафлопс вычислительной мощности и 10 петабайт в секунду общей пропускной способности масштабирования. Производственные единицы поставляются во второй половине 2026 года.
Цифры здесь поражают: 1,2 квадриллиона транзисторов, почти 20 000 кристаллов NVIDIA, все спроектированы для функционирования как единый согласованный суперкомпьютер. NVIDIA заявляет о 4-кратном улучшении производительности обучения и 10-кратном улучшении производительности вывода на ватт по сравнению с текущей архитектурой Blackwell — при этом стоимость токенов снижается до одной десятой текущего уровня.
Пять специализированных стоечных систем
POD объединяет пять различных систем масштаба стойки, каждая из которых нацелена на конкретные узкие места в современных рабочих нагрузках ИИ:
Vera Rubin NVL72 служит основным вычислительным движком. Каждая стойка интегрирует 72 GPU Rubin и 36 CPU Vera, соединенных через NVLink 6, который обеспечивает пропускную способность 3,6 ТБ/с на GPU — больше общей пропускной способности, чем весь глобальный интернет, согласно NVIDIA. Система нацелена на все четыре закона масштабирования ИИ: предварительное обучение, постобучение, масштабирование времени тестирования и агентное масштабирование.
Стойки Groq 3 LPX решают проблему задержки. С 256 блоками обработки языка на стойку, использующими архитектуру только SRAM, они работают в паре с NVL72 для обеспечения того, что NVIDIA называет 35-кратным увеличением токенов и 10-кратной возможностью дохода для моделей с триллионом параметров по сравнению с Blackwell.
Стойки Vera CPU предоставляют песочницы для тестирования агентов. Одна стойка поддерживает более 22 500 одновременных сред обучения с подкреплением — критически важных для проверки выходных данных агентного ИИ перед развертыванием.
Стойки BlueField-4 STX представляют то, что NVIDIA называет "хранилищем, ориентированным на ИИ", через платформу контекстной памяти CMX. Перенося KV-кеш на выделенное высокоскоростное хранилище, система заявляет о 5-кратном увеличении токенов в секунду и 5-кратной энергоэффективности по сравнению с традиционными подходами.
Сетевые стойки Spectrum-6 SPX связывают все вместе с коммутаторами 102,4 Тб/с с совмещенной оптикой.
Аргумент экономики токенов
NVIDIA формулирует это вокруг конкретной рыночной реальности: потребление токенов теперь превышает 10 квадриллионов ежегодно, а переход от взаимодействия человек-ИИ к взаимодействию ИИ-ИИ резко ускорит этот рост. Современные агентные системы генерируют массивные объемы токенов рассуждений, расширяя при этом требования к KV-кешу — именно то узкое место, на которое нацелена эта архитектура.
Сторонние тесты SemiAnalysis InferenceMax, цитируемые NVIDIA, показывают, что текущие системы Blackwell уже обеспечивают 50-кратную производительность на ватт и 35-кратное снижение стоимости на токен по сравнению с H200. Vera Rubin стремится расширить это преимущество.
Тепловая и энергетическая инженерия
Архитектура стоек MGX третьего поколения представляет интеллектуальное сглаживание мощности с 6-кратным увеличением энергии хранения на уровне стойки (400 джоулей на GPU) по сравнению с предыдущими поколениями. Это снижает пиковые требования к току до 25% и устраняет необходимость в массивных батареях.
Все стойки работают при температуре теплой воды на входе 45°C, позволяя центрам обработки данных во многих климатических зонах использовать охлаждение окружающим воздухом. NVIDIA утверждает, что это высвобождает достаточно мощности для добавления 10% дополнительных стоек в рамках того же энергетического бюджета объекта.
Взгляд в будущее
Помимо первоначальной конфигурации POD, NVIDIA представила Vera Rubin Ultra NVL576 с масштабированием до 576 GPU в восьми стойках и архитектуру следующего поколения Kyber, нацеленную на NVL1152 со 144 GPU на стойку. Дорожная карта предполагает, что NVIDIA видит многостоечные домены NVLink как будущее инфраструктуры ИИ — не просто более крупные GPU, а принципиально другие системные архитектуры.
Для предприятий, планирующих инвестиции в инфраструктуру ИИ, сообщение ясно: экономика вычислений ИИ смещается от оптимизации на уровне чипа к оптимизации на уровне объекта. Те, кто строят центры обработки данных сейчас, сталкиваются с выбором между системами текущего поколения и ожиданием доступности Vera Rubin в конце 2026 года.
Источник изображения: Shutterstock- nvidia
- инфраструктура ИИ
- vera rubin
- центры обработки данных
- корпоративный ИИ



