Хуан Жэньсюнь CES2026 последняя речь: три ключевые темы, «монстр-чип»

Автор: Ли Хайлунь Су Ян

Московское время 6 января, генеральный директор NVIDIA Хуанг Жэньсюнь снова вышел на главную сцену CES2026 в характерной кожаной куртке.

На CES 2025 NVIDIA продемонстрировала серийное производство чипов Blackwell и полный стек физических AI-технологий. На мероприятии Хуанг подчеркнул, что начинается эпоха «физического AI». Он нарисовал яркое будущее: автомобили с автоматическим управлением смогут делать выводы, роботы — понимать и размышлять, AIAgent (интеллектуальный агент) сможет обрабатывать задачи с длинным контекстом в миллионы токенов.

Прошёл год, и индустрия AI претерпела значительные изменения и развитие. В ходе презентации Хуанг вспомнил об открытых моделях.

Он отметил, что такие открытые модели для рассуждений, как DeepSeek R1, заставили всю отрасль понять: когда открытое сотрудничество по всему миру действительно запускается, распространение AI происходит очень быстро. Хотя открытые модели по возможностям всё ещё уступают передовым моделям примерно на полгода, каждые шесть месяцев они приближаются, а количество загрузок и использование уже взорвалось.

В отличие от 2025 года, когда больше демонстрировались видения и возможности, в этот раз NVIDIA систематически стремится решить вопрос «как реализовать»: вокруг рассуждающего AI, обеспечить необходимую для долгосрочной работы вычислительную мощность, сеть и инфраструктуру хранения, значительно снизить стоимость рассуждений и встроить эти возможности прямо в реальные сценарии — автоматическое управление и роботов.

В выступлении Хуана на CES выделяются три основные линии:

●На уровне систем и инфраструктуры NVIDIA перестроила архитектуру вычислений, сети и хранения для долгосрочных требований к рассуждению. В центре — платформа Rubin, NVLink 6, Spectrum-X Ethernet и платформа памяти для рассуждений внутри контекста, что напрямую решает узкие места высокой стоимости рассуждений, сложности с поддержанием и масштабированием контекста, а также ограничений по масштабируемости, — и помогает решить проблему «много думать, считать и долго работать».

●На уровне моделей NVIDIA сосредоточилась на рассуждающем AI (Reasoning / Agentic AI). С помощью моделей и инструментов Alpamayo, Nemotron, Cosmos Reason и других, она переводит AI из стадии «генерации контента» в стадию «постоянных размышлений», превращая его из «одноразовой реакции» в «долгосрочного интеллектуального агента».

●На уровне приложений и внедрения эти возможности напрямую интегрируются в физические сценарии — автоматическое управление и роботы. Будь то автоматическая система на базе Alpamayo или робототехническая экосистема GR00T и Jetson — все это реализуется через облачные платформы и корпоративные решения, способствуя масштабированию.

01 От дорожной карты к серийному производству: Rubin впервые полностью раскрывает показатели производительности

На этом CES NVIDIA впервые полностью раскрыла технические детали архитектуры Rubin.

В ходе выступления Хуанг начал с концепции Test-time Scaling (масштабирование во время тестирования), что можно понять как: чтобы AI стал умнее, недостаточно просто заставлять его «больше учиться», — нужно дать ему «подумать чуть дольше, когда сталкиваешься с проблемой».

Ранее развитие возможностей AI в основном зависело от увеличения вычислительных ресурсов на этапе обучения — делали модели всё больше и больше. А сейчас новая тенденция — даже без увеличения размера модели, если при каждом использовании дать ей больше времени и ресурсов для размышлений, результат становится заметно лучше.

Как сделать «больше думать» экономически целесообразным? Новая платформа AI-вычислений следующего поколения на базе Rubin — решение этой задачи.

Хуанг рассказал, что это полноценная система следующего поколения, объединяющая Vera CPU, Rubin GPU, NVLink 6, ConnectX-9, BlueField-4, Spectrum-6, — и благодаря их совместной работе достигается революционное снижение стоимости рассуждений.

Графический процессор Rubin GPU — ключевой чип архитектуры Rubin, предназначенный для AI-вычислений, — нацелен на значительное снижение стоимости единицы при рассуждениях и обучении.

Проще говоря, основная задача Rubin GPU — «делать AI более экономичным и умным».

Ключевая особенность Rubin GPU — возможность выполнять больше задач за один раз. Он способен обрабатывать больше рассуждений, запоминать более длинный контекст, а коммуникация с другими GPU — быстрее. Это означает, что многие сценарии, ранее требовавшие «многокарточной системы», теперь можно реализовать с меньшим количеством GPU.

В результате — рассуждения становятся быстрее и значительно дешевле.

Хуанг на месте напомнил параметры аппаратного обеспечения Rubin NVL72: 220 триллионов транзисторов, пропускная способность 260 ТБ/с, — это первая в отрасли платформа для масштабных конфиденциальных вычислений.

В целом, по сравнению с Blackwell, GPU Rubin показывает прорыв по ключевым показателям: производительность рассуждений NVFP4 выросла до 50 PFLOPS (в 5 раз), производительность обучения — до 35 PFLOPS (в 3,5 раза), пропускная способность HBM4 — до 22 ТБ/с (в 2,8 раза), а межGPU соединение NVLink — удвоено до 3,6 ТБ/с.

Эти улучшения позволяют одному GPU выполнять больше задач, обрабатывать более длинные контексты и уменьшить зависимость от количества GPU.

Vera CPU — ключевой компонент, предназначенный для перемещения данных и обработки агентных задач, основан на 88 собственных ядрах Olympus NVIDIA, с 1,5 ТБ системной памяти (в 3 раза больше, чем у предыдущего поколения Grace CPU), и обеспечивает согласованный доступ к памяти между CPU и GPU через NVLink-C2C со скоростью 1,8 ТБ/с.

В отличие от обычных универсальных CPU, Vera сосредоточена на сценариях рассуждения и управления данными для AI — это системный координатор, обеспечивающий эффективную работу «многих мыслей» AI.

NVLink 6 с пропускной способностью 3,6 ТБ/с и возможностями сетевого взаимодействия позволяет 72 GPU архитектуры Rubin работать как единый суперGPU — это основа для снижения стоимости рассуждений.

Благодаря этому, данные и промежуточные результаты при рассуждениях быстро передаются между GPU, исключая задержки, копирование и повторные вычисления.

В архитектуре Rubin NVLink-6 отвечает за внутреннее взаимодействие GPU, BlueField-4 — за управление контекстом и данными, а ConnectX-9 — за высокоскоростное внешнее сетевое соединение. Это обеспечивает эффективную коммуникацию системы с другими стойками, дата-центрами и облачными платформами, что важно для масштабных обучающих и рассуждающих задач.

По сравнению с предыдущим поколением, NVIDIA приводит конкретные показатели: по сравнению с платформой Blackwell, стоимость токена на этапе рассуждений может быть снижена в 10 раз, а количество GPU для обучения моделей MoE — в 4 раза.

Официально NVIDIA заявила, что Microsoft уже планирует развернуть сотни тысяч чипов Vera Rubin в следующем поколении суперфабрики Fairwater AI, а Cloud-провайдеры, такие как CoreWeave, начнут предоставлять Rubin-инстансы во второй половине 2026 года. Эта инфраструктура, позволяющая AI «много думать», переходит от демонстраций к масштабному коммерческому внедрению.

02 Как решить «проблему хранения»?

Чтобы AI мог «думать чуть дольше», возникает важная техническая проблема: где хранить контекстные данные?

Когда AI обрабатывает сложные задачи с многократными диалогами и многошаговыми рассуждениями, он генерирует большое количество контекстных данных (KV Cache). Традиционные архитектуры либо загружают их в дорогую и ограниченную по объему память GPU, либо хранят в обычных хранилищах (слишком медленно). Эта «проблема хранения» при её нерешенности тормозит работу даже самых мощных GPU.

Для решения этой задачи NVIDIA впервые на этом CES полностью раскрыла платформу хранения памяти для рассуждений — Inference Context Memory Storage Platform, основанную на BlueField-4. Основная цель — создать «третьий уровень» между памятью GPU и традиционными хранилищами. Он должен быть достаточно быстрым, иметь большой объем и поддерживать долгосрочную работу AI.

С технической точки зрения, эта платформа — результат совместного проектирования нескольких компонентов:

BlueField-4 ускоряет управление и доступ к контекстным данным на аппаратном уровне, снижая объем перемещений данных и системные издержки;

Spectrum-X Ethernet обеспечивает высокопроизводительную сеть, поддерживающую обмен данными через RDMA;

Программные компоненты DOCA, NIXL и Dynamo отвечают за оптимизацию планирования, снижение задержек и повышение общей пропускной способности системы.

Можно понять, что эта платформа расширяет возможности хранения контекстных данных, которые раньше помещались только в память GPU, — создавая отдельный, быстрый и совместно используемый «слой памяти». Это разгружает GPU и одновременно позволяет быстро обмениваться данными между несколькими узлами и интеллектуальными агентами.

По данным NVIDIA, в конкретных сценариях эта технология позволяет увеличить количество обрабатываемых токенов в секунду в 5 раз и повысить энергоэффективность на том же уровне.

Хуанг неоднократно подчеркивал, что AI эволюционирует из «одноразового диалога» в полноценного интеллектуального партнера: он должен понимать реальный мир, постоянно рассуждать, использовать инструменты для выполнения задач и одновременно хранить краткосрочную и долгосрочную память. Это и есть ключевая характеристика Agentic AI. Платформа хранения контекстных данных — именно для такого долгосрочного, многократного размышления AI — расширяет объем контекста, ускоряет обмен между узлами и делает многопроходные диалоги и сотрудничество нескольких агентов более стабильными и быстрыми, исключая «замедление работы».

03 Новое поколение DGX SuperPOD: 576 GPU работают вместе

На этом CES NVIDIA объявила о запуске нового поколения DGX SuperPOD на базе архитектуры Rubin, расширяющегося от одного стойки до полноценного дата-центра.

Что такое DGX SuperPOD?

Если Rubin NVL72 — это «супер-стойка» с 72 GPU, то DGX SuperPOD — это соединение нескольких таких стоек, образующих крупный кластер для AI-вычислений. В новой версии используется 8 стоек Vera Rubin NVL72, что в сумме даёт 576 GPU, работающих совместно.

Когда масштаб задач AI продолжит расти, одного такого кластера из 576 GPU может оказаться недостаточно. Например, для обучения очень больших моделей, обслуживания тысяч Agentic AI или обработки сложных задач с миллионами токенов контекста. Тогда потребуется кооперация нескольких стоек, и именно для таких сценариев предназначена стандартная платформа DGX SuperPOD.

Для предприятий и облачных провайдеров DGX SuperPOD — это «готовое к использованию» масштабное решение для инфраструктуры AI. Не нужно самостоятельно разрабатывать, как соединить сотни GPU, как настроить сеть или управлять хранилищами.

Пять ключевых компонентов нового DGX SuperPOD:

○8 стоек Vera Rubin NVL72 — основной вычислительный блок, каждая со 72 GPU, всего 576 GPU;

○Расширенная сеть NVLink 6 — обеспечивает взаимодействие 8 стоек как одного мощного GPU;

○Spectrum-X Ethernet — соединяет разные SuperPOD и подключается к хранилищам и внешним сетям;

○Платформа хранения контекстных данных — для длительных рассуждений и обмена контекстом;

○Программное обеспечение NVIDIA Mission Control — управление системой, мониторинг и оптимизация.

Обновление основано на архитектуре NVL72, каждая из которых — полноценный суперкомпьютер для AI, внутри соединенная NVLink 6, что позволяет выполнять масштабные рассуждения и обучение. Новая система объединяет несколько таких стоек в кластер, способный работать длительное время.

При расширении с «одной стойки» до «многих» возникает новая проблема — как эффективно и стабильно передавать огромные объемы данных между стойками. В рамках CES NVIDIA также представила новые коммутаторы Ethernet на базе Spectrum-6 и впервые внедрила технологию «совместной упаковки оптики» (CPO).

Проще говоря, это — интеграция оптических модулей прямо в чип коммутатора, что сокращает длину сигнала с нескольких метров до нескольких миллиметров, снижая энергопотребление и задержки, а также повышая стабильность системы.

04 Открытие AI «семейства» NVIDIA: от данных до кода

На этом CES Хуанг объявил о расширении экосистемы открытых моделей (Open Model Universe), добавив и обновив ряд моделей, датасетов, кодовых баз и инструментов. Эта экосистема охватывает шесть областей: биомедицинский AI (Clara), физическое моделирование AI (Earth-2), Agentic AI (Nemotron), физический AI (Cosmos), роботы (GR00T) и автоматическое управление (Alpamayo).

Обучение модели AI требует не только вычислительных ресурсов, но и качественных датасетов, предобученных моделей, кода для обучения и оценки. Для большинства компаний и исследовательских институтов создание всего этого с нуля — очень долго.

Конкретно NVIDIA открыла шесть уровней контента: платформы вычислений (DGX, HGX и др.), датасеты для обучения в разных областях, предобученные базовые модели, кодовые библиотеки для рассуждений и обучения, полные сценарии обучения и шаблоны решений.

Особое внимание уделено серии Nemotron, охватывающей четыре направления применения.

В области рассуждений — Nemotron 3 Nano, Nemotron 2 Nano VL и другие миниатюрные модели, а также инструменты для обучения с подкреплением NeMo RL, NeMo Gym. В области RAG (Retrieval-Augmented Generation) — Nemotron Embed VL (векторные встраивания), Nemotron Rerank VL (перестановка), датасеты и библиотека NeMo Retriever. В области безопасности — Nemotron Content Safety и соответствующие датасеты, библиотека NeMo Guardrails.

В области речи — Nemotron ASR (автоматическое распознавание речи), датасет Granary и библиотека NeMo для обработки речи. Это означает, что компании, желающие создать AI-чатбот с RAG, могут сразу использовать уже обученные и открытые NVIDIA модели, не тратя время на собственное обучение.

05 Физический AI — на пути к коммерческому внедрению

В области физического AI также произошли обновления моделей — Cosmos для понимания и генерации видео физического мира, универсальные модели роботов Isaac GR00T, модели визуально-языкового-движения для автоматического управления Alpamayo.

Хуанг заявил на CES, что «момент ChatGPT» для физического AI уже близок, но есть и много вызовов: физический мир слишком сложен и изменчив, сбор реальных данных — медленный и дорогой, и этого всегда недостаточно.

Что делать? Один из путей — синтезировать данные. Поэтому NVIDIA представила Cosmos.

Это открытая базовая модель физического AI мира, предварительно обученная на огромных объемах видео, реальных данных по вождению и робототехнике, а также 3D-симуляциях. Она умеет понимать, как работает мир, связывать язык, изображения, 3D и действия.

Хуанг отметил, что Cosmos способен реализовать множество физических навыков: генерацию контента, рассуждения, предсказание траекторий (даже по одной картинке). Он может создавать реалистичные видео по сценам, моделировать движения по физическим законам, генерировать панорамные видео из симуляторов, с нескольких камер или по текстовому описанию. Даже редкие сценарии можно воссоздать.

Также он официально представил Alpamayo — открытый инструментальный комплекс для автоматического вождения и первый открытый модель для визуально-языкового-движения (VLA) рассуждений. В отличие от предыдущих решений, где открывался только код, NVIDIA открыла полный набор ресурсов — от данных до развертывания.

Главное достижение Alpamayo — это «рассуждающая» модель автоматического вождения. Традиционные системы — это «распознавание — планирование — управление», реагирующие на красный свет или пешеходов по заранее заданным правилам. Alpamayo вводит «рассуждение», понимает причинно-следственные связи в сложных сценариях, предсказывает намерения других машин и пешеходов, а также принимает решения, требующие многопроходных размышлений.

Например, на перекрестке он не просто распознает «машина впереди», а делает вывод «эта машина, вероятно, повернет налево, поэтому мне стоит подождать». Такой уровень понимания позволяет автоматическому управлению перейти от «следовать правилам» к «думать как человек».

Хуанг объявил, что система NVIDIA DRIVE уже вышла на стадию серийного производства, и первым автомобилем станет новый Mercedes-Benz CLA, который планируют запустить в США в 2026 году. В нем будет установлена система автоматического управления уровня L2++, основанная на «гибридной архитектуре» — сочетании AI-моделей и традиционных систем.

В робототехнике также есть реальные достижения.

Хуанг отметил, что ведущие мировые компании — Boston Dynamics, Franka Robotics, LEM Surgical, LG Electronics, Neura Robotics и XRlabs — используют платформу NVIDIA Isaac и базовые модели GR00T для разработки продуктов в сферах промышленной робототехники, хирургии, гуманоидных роботов и потребительских устройств.

На презентации за спиной Хуанга стояли роботы разных форм и назначения, собранные на многоуровневой сцене: гуманоиды, двухногие и колесные сервисные роботы, промышленные манипуляторы, строительная техника, беспилотники и хирургические помощники — создавая «экосистему роботов».

От физических приложений AI до платформы RubinAI, платформы хранения рассуждений и открытого AI «семейства».

Все эти действия, продемонстрированные NVIDIA на CES, формируют её нарратив о инфраструктуре AI эпохи рассуждений. Как неоднократно подчеркивал Хуанг, когда физический AI требует постоянного размышления, долгосрочной работы и реального внедрения в реальный мир, вопрос уже не только в вычислительных мощностях, а в том, кто сможет построить всю систему.

На CES 2026 NVIDIA уже дала свой ответ.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$3.57KДержатели:1
    0.00%
  • РК:$3.6KДержатели:1
    0.00%
  • РК:$3.62KДержатели:2
    0.00%
  • РК:$4.18KДержатели:2
    2.73%
  • РК:$3.61KДержатели:2
    0.00%
  • Закрепить