黄仁勳CES2026最新のスピーチ:三つの重要なテーマ、「チップモンスター」

作者:李海伦 苏扬

北京时间 1月 6 日、英伟达 CEO 黄仁勋は、象徴的なレザージャケットを着て再びCES2026のメインステージに立った。

2025年のCESで、英伟达は量産されたBlackwellチップと完全な物理AI技術スタックを展示した。会議で、黄仁勋は「物理AI時代」が始まっていると強調した。彼は想像力に満ちた未来像を描いた:自動運転車は推論能力を備え、ロボットは理解し思考でき、AIAgent(インテリジェントエージェント)は百万単位のトークンの長いコンテキストタスクを処理できる。

一年が過ぎ、AI業界は大きな変革と進化を経験した。黄仁勋は発表会でこの一年の変化を振り返り、特にオープンソースモデルに焦点を当てた。

彼は、DeepSeek R1のようなオープンソース推論モデルが、オープンでグローバルな協力が本格的に始まると、AIの拡散速度が非常に速くなることを業界全体に認識させたと述べた。オープンソースモデルは全体的な能力では最先端モデルより約半年遅れているが、六ヶ月ごとに追いつきつつあり、ダウンロード数と使用量は爆発的に増加している。

2025年に比べて、ビジョンと可能性の展示が多かった今回、英伟达は「どう実現するか」の問題に体系的に取り組み始めた:推論型AIを中心に、長期運用に必要な計算能力、ネットワーク、ストレージインフラを整備し、推論コストを大幅に削減し、これらの能力を自動運転やロボットなどの実世界シナリオに直接組み込む。

今回のCESでの黄仁勋のスピーチは、三つの主軸に沿って展開された。

●システムとインフラ面では、英伟达は長期推論ニーズに応じて計算能力、ネットワーク、ストレージアーキテクチャを再構築した。Rubinプラットフォーム、NVLink 6、Spectrum-Xイーサネット、推論コンテキストメモリストレージプラットフォームを核に、これらのアップデートは推論コストの高さ、コンテキストの持続性とスケーラビリティの制限といったボトルネックを直撃し、「AIの多想い」「計算できる」「長く動かせる」問題を解決する。

●モデル面では、英伟达は推論型AI(Reasoning / Agentic AI)を中心に据えた。Alpamayo、Nemotron、Cosmos Reasonなどのモデルとツールを通じて、AIを「コンテンツ生成」から「継続的に思考できるインテリジェントエージェント」へと進化させる。

●応用と実装面では、これらの能力が自動運転やロボットなどの物理AIシナリオに直接導入されている。Alpamayo駆動の自動運転システムや、GR00TとJetsonのロボットエコシステムは、クラウド事業者や企業向けプラットフォームと連携し、スケール展開を推進している。

01 ロードマップから量産へ:Rubinが初めて完全な性能データを公開

今回のCESで、英伟达はRubinアーキテクチャの技術詳細を初めて完全に公開した。

スピーチの中で、黄仁勋はTest-time Scaling(推論時の拡張)から話を始めた。これは、AIを賢くしたい場合、「もっと努力して読む」だけではなく、「問題に直面したときにもう一度考える」ことに頼るという概念だ。

過去、AI能力の向上は主に訓練段階でより多くの計算資源を投入し、モデルを大きくしてきた。しかし今、新たな変化は、モデルが大きくならなくても、使用時に少し多めの時間と計算力を与えるだけで、結果が明らかに良くなることだ。

「AIにもう一度考えさせる」ことを経済的に実現するにはどうすればいいか?新世代のAI計算プラットフォーム、Rubinアーキテクチャはこの問題を解決するために設計された。

黄仁勋は、これは次世代のAI計算システムの完全なセットであり、Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6の協調設計によって、推論コストの革命的な低減を実現すると紹介した。

英伟达のRubin GPUは、Rubinアーキテクチャの中核となるAI計算用チップであり、推論と訓練の単位コストを大幅に削減することを目標としている。

要するに、Rubin GPUの主な役割は「AIをより省エネで賢く使えるようにする」ことだ。

Rubin GPUのコア能力は、同じGPUでより多くの作業をこなせる点にある。一度により多くの推論タスクを処理し、より長いコンテキストを記憶し、他のGPUとの通信も高速化されている。これにより、多くの「マルチカード硬堆積」が必要だったシナリオも、少ないGPUで対応できるようになる。

結果として、推論はより高速になり、コストも明らかに安くなる。

黄仁勋は現場で、RubinアーキテクチャのNVL72ハードウェアパラメータを復習した:220兆個のトランジスタ、帯域幅260TB/秒、業界初のラック規模の秘密計算プラットフォーム。

全体として、Blackwellと比較して、Rubin GPUは重要指標で世代を超えた飛躍を実現している:NVFP4推論性能は50 PFLOPS(5倍)、訓練性能は35 PFLOPS(3.5倍)、HBM4メモリ帯域は22TB/秒(2.8倍)、単一GPUのNVLinkインターコネクト帯域は倍増し3.6TB/秒となった。

これらの向上により、単一GPUでより多くの推論タスクと長いコンテキストを処理できるようになり、GPUの数への依存が根本的に減少した。

Vera CPUは、データ移動とAgentic処理に特化したコアコンポーネントで、英伟达独自設計のOlympusコア88個を搭載し、1.5TBのシステムメモリ(前世代のGrace CPUの3倍)を備える。1.8TB/秒のNVLink-C2C技術により、CPUとGPU間の一貫性のあるメモリアクセスを実現している。

従来の汎用CPUと異なり、VeraはAI推論シナリオにおけるデータスケジューリングと多段階推論ロジック処理に特化しており、「AIにもう一度考えさせる」ためのシステム調整役だ。

NVLink 6は3.6TB/秒の帯域とネットワーク内計算能力を持ち、Rubinアーキテクチャの72GPUが超大規模GPUのように協調して動作できる。これが推論コスト低減のための重要なインフラだ。

こうして、推論時に必要なデータや中間結果はGPU間を迅速に流れ、待ち時間やコピー、再計算を避けられる。

Rubinアーキテクチャでは、NVLink-6がGPU内部の協調計算を担い、BlueField-4がコンテキストとデータのスケジューリングを行い、ConnectX-9がシステム外の高速ネットワーク接続を担当する。これにより、Rubinシステムは他のラックやデータセンター、クラウドプラットフォームと効率的に通信でき、大規模な訓練と推論の運用が可能となる。

前世代と比較して、英伟达は具体的な数値も示した:NVIDIA Blackwellプラットフォームと比べて、推論段階のトークンコストを最大10倍削減し、混合専門家モデル(MoE)の訓練に必要なGPU数を4分の1に減らす。

英伟达公式は、現在Microsoftが次世代Fairwater AIスーパー工場に数十万のVera Rubinチップを導入することを約束し、CoreWeaveなどのクラウドサービスも2026年下半期にRubinインスタンスを提供予定だと述べている。この「AIにもう一度考えさせる」インフラは、技術デモから商用規模へと進化している。

02 「ストレージのボトルネック」解決策は?

AIに「もう一度考えさせる」には、もう一つの重要な技術課題がある:コンテキストデータはどこに置くべきか?

AIが複雑な多回対話や多段推論を処理する際、多くのコンテキストデータ(KVキャッシュ)が生成される。従来のアーキテクチャでは、それらを高価で容量制限のあるGPUメモリに詰め込むか、普通のストレージに置く(アクセスが遅い)しかなかった。この「ストレージのボトルネック」を解決しなければ、どんなに強力なGPUでも足を引っ張られる。

この問題に対し、英伟达は今回のCESで、BlueField-4駆動の推論コンテキストメモリストレージプラットフォーム(Inference Context Memory Storage Platform)を初めて完全に公開した。核心は、GPUメモリと従来のストレージの間に「第三層」を作ることだ。高速で容量も十分、長期運用も支えられる。

技術的には、このプラットフォームは単一のコンポーネントではなく、協調設計の結果だ。

BlueField-4は、ハードウェアレベルでコンテキストデータの管理とアクセスを高速化し、データの移動とシステム負荷を削減する。

Spectrum-Xイーサネットは高性能ネットワークを提供し、RDMAベースの高速データ共有をサポート。

DOCA、NIXL、Dynamoなどのソフトウェアコンポーネントは、システムレベルでのスケジューリング最適化、遅延低減、全体的なスループット向上を担う。

このプラットフォームのアプローチは、GPUメモリにしか置けなかったコンテキストデータを、独立した高速で共有可能な「記憶層」に拡張することだ。一方でGPUの負荷を解放し、他のノードや複数のAIインテリジェントエージェント間でこれらのコンテキスト情報を迅速に共有できる。

実際の効果として、英伟达は特定シナリオで、毎秒処理できるトークン数を最大5倍に増やし、同等のエネルギー効率を実現できると示した。

黄仁勋は発表の中で、AIは「一回性の対話チャットボット」から、真のインテリジェント協働体へと進化していると何度も強調した。これらは現実世界を理解し、継続的に推論し、ツールを呼び出し、短期・長期記憶を保持しながらタスクを完遂する必要がある。これがAgentic AIの核心特徴だ。推論コンテキストメモリストレージは、こうした長期運用・反復思考型AIのために設計されており、コンテキスト容量を拡大し、ノード間の共有を高速化することで、多回対話や多エージェント協調をより安定させ、「遅くなる」ことを防ぐ。

03 新世代DGX SuperPOD:576GPUの協調運用

英伟达は今回のCESで、Rubinアーキテクチャを基盤とした新世代のDGX SuperPOD(超ノード)を発表した。これにより、Rubinを単一ラックからデータセンター全体の完全なソリューションへと拡張した。

DGX SuperPODとは何か?

Rubin NVL72が72GPU搭載の「スーパーラック」だとすれば、DGX SuperPODは複数のラックを連結し、より大規模なAI計算クラスターを形成するものだ。今回のリリースは、8つのVera Rubin NVL72ラックから構成され、合計576GPUが協調して動作する。

AIタスクの規模が拡大し続ける中、単一ラックの576GPUでは不十分になることもある。例えば、超大規模モデルの訓練、数千のAgentic AIの同時運用、または数百万トークンのコンテキストを必要とする複雑なタスクなどだ。このような場合、複数ラックの協調運用が必要となり、DGX SuperPODはこうしたシナリオ向けの標準化ソリューションだ。

企業やクラウドサービス事業者にとって、DGX SuperPODは「すぐに使える」大規模AIインフラの提案だ。何百ものGPUをどうつなぐか、ネットワークやストレージの管理はどうするかといった問題を自分たちで解決する必要はない。

新世代DGX SuperPODの五つのコアコンポーネント:

○8台のVera Rubin NVL72ラック - 計算能力の核、各ラック72GPU、合計576GPU;

○NVLink 6拡張ネットワーク - これら8ラック内のGPUを超大規模GPUのように協調させる;

○Spectrum-Xイーサネット拡張ネットワーク - 異なるSuperPOD間やストレージ、外部ネットワークとの接続;

○推論コンテキストメモリストレージプラットフォーム - 長時間推論タスクのための共有コンテキストデータストレージ;

○英伟达Mission Controlソフトウェア - システム全体のスケジューリング、監視、最適化を管理。

今回のアップグレードでは、SuperPODの基盤はDGX Vera Rubin NVL72システムを中心とする。各NVL72は、72GPUのRubinを内蔵し、NVLink 6で接続されているため、大規模推論と訓練を一つのラック内で完結できる。新しいDGX SuperPODは複数のNVL72から構成され、長期運用可能なシステムクラスターとなる。

計算規模が「単一ラック」から「複数ラック」へ拡大すると、新たなボトルネックが出現:ラック間で大量データを安定・効率的に伝送する方法だ。この課題に対し、英伟达はSpectrum-6チップを用いた新世代イーサネットスイッチをCESで同時に発表し、「共封装光学(CPO)」技術も初導入した。

簡単に言えば、従来の差し込み式光モジュールをスイッチチップの横に直接封入し、信号伝送距離を数メートルから数ミリに短縮、消費電力と遅延を大幅に削減し、システム全体の安定性も向上させている。

04 英伟达オープンソースAI「フルセット」:データからコードまで一通り揃う

今回のCESで、黄仁勋はオープンソースモデルエコシステム(Open Model Universe)の拡充を発表し、一連のモデル、データセット、コードライブラリ、ツールを追加・更新した。このエコシステムは、バイオメディカルAI(Clara)、AI物理シミュレーション(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、ロボット(GR00T)、自動運転(Alpamayo)の六大分野をカバーしている。

AIモデルの訓練には、計算資源だけでなく、高品質なデータセット、事前訓練済みモデル、訓練コード、評価ツールなどのインフラが必要だ。多くの企業や研究機関にとって、ゼロからこれらを構築するのは時間がかかりすぎる。

具体的には、英伟达は六つの層のコンテンツをオープンソース化した:計算プラットフォーム(DGX、HGXなど)、各分野の訓練データセット、事前訓練済みの基礎モデル、推論・訓練用コードライブラリ、完全な訓練フロースクリプト、エンドツーエンドのソリューションテンプレート。

Nemotronシリーズは今回のアップデートのハイライトで、四つの応用分野をカバーしている。

推論分野では、Nemotron 3 Nano、Nemotron 2 Nano VLなどの小型推論モデルや、NeMo RL、NeMo Gymなどの強化学習訓練ツールを提供。RAG(検索強化生成)分野では、Nemotron Embed VL(ベクトル埋め込みモデル)、Nemotron Rerank VL(再ランキングモデル)、関連データセット、NeMo Retriever Library(検索ライブラリ)を用意。安全性分野では、Nemotron Content Safety(コンテンツ安全モデル)とそのデータセット、NeMo Guardrails(ガードレールライブラリ)も公開。

音声分野では、Nemotron ASR(自動音声認識)、Granary Dataset(音声データセット)、NeMo Library(音声処理ライブラリ)を提供。これにより、企業はRAGを備えたAIカスタマーサポートシステムを自前で訓練せずとも、英伟达が既に訓練・オープンソース化したコードをそのまま使える。

05 物理AIの商用化と実用化へ

物理AI分野でもモデルのアップデートが進む。Cosmosは物理世界の動画理解と生成に使われ、ロボットの汎用基礎モデルIsaac GR00Tや、自動運転のビジョン・言語・行動モデルAlpamayoも登場。

黄仁勋はCESで、物理AIの「ChatGPT時代」が近いと宣言したが、多くの課題も指摘した。物理世界は複雑で変化が激しく、実データの収集も遅く高価で、常に不足している。

どうすればいいか?合成データが一つの解決策だ。そこで英伟达はCosmosを発表した。

これはオープンソースの物理AI基礎モデルで、膨大な動画、実走行・ロボットデータ、3Dシミュレーションを用いて事前訓練済みだ。世界の仕組みを理解し、言語・画像・3D・動作を結びつけることができる。

黄仁勋は、Cosmosはコンテンツ生成、推論、軌跡予測(たとえ一枚の画像だけでも)など、多くの物理AIスキルを実現できると述べた。3Dシーンからリアルな動画を生成し、運転データから物理法則に沿った動きを作り出し、シミュレータや多カメラ映像、テキスト記述からパノラマ動画も生成できる。稀なシナリオも再現可能だ。

また、Alpamayoも正式にリリースされた。Alpamayoは自動運転向けのオープンソースツールチェーンで、初のビジョン・言語・行動(VLA)推論モデルだ。従来のコード公開に加え、データから展開までの完全な開発リソースも公開された。

Alpamayoの最大の革新は、「推論型」自動運転モデルである点だ。従来の自動運転は「感知-計画-制御」のパイプラインで、赤信号で停止、歩行者を見たら減速といったルールに従うものだった。しかし、Alpamayoは因果関係を理解し、複雑なシナリオの予測や、多段階の意思決定も可能にした。

例えば交差点では、「前方に車がいる」だけでなく、「あの車は左折しそうだから、先に通過させるべきだ」と推論できる。この能力により、自動運転は「ルール通りに走る」から「人のように考える」へと進化する。

黄仁勋は、英伟达のDRIVEシステムが量産段階に入り、最初の適用例として新型メルセデス・ベンツCLAを2026年に米国で公道走行させる計画を発表した。この車はL2++レベルの自動運転システムを搭載し、「エンドツーエンドAIモデル+従来のパイプライン」のハイブリッド構造を採用している。

ロボット分野も実質的な進展を見せている。

黄仁勋は、Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics、XRLabsなどの世界的ロボットリーディング企業が、英伟达のIsaacプラットフォームとGR00T基礎モデルを基に、産業用ロボット、手術ロボット、人型ロボット、消費者向けロボットなど多岐にわたる製品を開発していると述べた。

発表会場では、さまざまな形態・用途のロボットが舞台に並び、展示された:人型ロボット、二足歩行・車輪型サービスロボット、産業用ロボットアーム、建設機械、ドローン、手術支援装置など、多彩なロボットエコシステムの姿が見られる。

物理AIの応用からRubinAI計算プラットフォーム、推論コンテキストメモリストレージ、オープンソースAI「フルセット」まで。

英伟达がCESで示したこれらの動きは、推論時代のAIインフラに関する英伟达のストーリーを構成している。黄仁勋が繰り返し強調するように、物理AIが継続的に思考し、長期運用され、実世界に入り込むとき、問題はもはや計算能力だけではなく、「誰がシステム全体を本当に構築できるか」に変わる。

CES2026で、英伟达はその答えをすでに示している。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン