NvidiaがAIの未来を正確に示した――しかしほとんど全ての人がその意味を誤解している

NVIDIA・ジェンスンフアン
この記事は約18分で読めます。

CES 2026は単なる家電見本市ではなく、AI産業の次なる工業化段階への転換点となった。NvidiaはRubinプラットフォームを発表し、AI推論処理を10分の1のコストで実現する「AIファクトリー」構想を打ち出した。一方OpenAIは26ギガワット規模の計算リソース確保契約を締結し、需要爆発への備えを整えた。週間8億人のユーザーを抱えるChatGPTの推論負荷は、もはや単発の訓練コストを遥かに凌駕している。今やAI業界の焦点は、チップ単体の性能競争から、電力・メモリ・ネットワークを統合したラックスケールの「ファクトリー競争」へと移行している。Nvidiaは依然として最大手であり続けるが、需要があまりに巨大なため、AMD、Broadcom、GoogleのTPUなど複数のエコシステムが共存する多極化の時代が到来しつつある。

NVIDIA told us exactly where AI is going — and almost everyone heard it wrong
My site: Story w/ Prompts:

AIの工業化段階が始まった

CESは通常、家電製品のスペクタクルとして扱われますが、時折それ以上のものになります。次の産業サイクルのための調整イベントになるのです。そしてそれがまさに今年のCES 2026で起こっていることなんです。

OEMの予算、データセンターの建設計画、パートナーのロードマップが全て一年分まとめて固められる、まさにそのタイミングで開催されています。そして誰もが知っているように、今年はスケールの年です。ですから、企業は今年単にガジェットを展示しているわけではありません。サプライチェーンがそのスケールを実現するために何を最適化すべきかを示そうとしているのです。

CESの最初の数日間から明らかなのは、サプライチェーンが今やまさに一つのことに最適化されているということです。常時稼働のAIを、安価に、信頼性高く、大規模に提供することです。

Nvidiaの打ち出し方はこの点について異例なほど明確です。彼らはAIが工業段階に入ったと言っています。工業的であるということは、電力を考え、スケールを考え、電気を考え、大型機械を考えることを意味します。そしてそれがまさに今週のCESにおける正しいメンタルモデルなのです。

最も重要な発表は、実際には新しいデバイスについてではありません。それらはAIファクトリーの部品なんです。コンピューティング、メモリ、ネットワーキング、セキュリティ、電力、デプロイメントの速度。なぜならそれが、誰が大規模にインテリジェンスを提供できるかを決定するからです。

推論需要のショックが起きている

ですからCESは、その工業的な姿勢が製品の形で目に見えるようになる場所なのです。いくつかの例を見ていきましょう。

まず、私たちは今まさに需要ショックを経験しています。AIバブルについて質問するのが人気になっていることは知っていますが、CESを見れば認めざるを得ません。AI関連の日々のデータを見ている人は皆、需要に対して大幅に遅れているかのように行動しており、需要が過剰になっているようには全く行動していません。

推論処理が今や、未来のアーキテクチャを決定するコストセンターになっています。なぜなら推論処理こそが、モデルを大規模に提供する方法だからです。そして私たちは需要に対して不足しているのです。

誰もが取り組んでいる根本的な事実は、大規模な利用があるということです。ですから、Sam Altmanが昨年10月にChatGPTが週間アクティブユーザー8億人に達したと言った時、それは今ではもっと増えています。私たちは、AIの単一の訓練実行のコストを遥かに上回る、恒久的な提供負荷の下にあるのです。

そしてそれが業界の最適化目標を本当にひっくり返すわけです。訓練は依然として戦略的に重要です。なぜならそれが新しい能力を生み出すからであり、また個々の訓練実行がかなり大規模だからです。しかし推論処理がチップセットの運用上の現実を支配しているのです。

それは継続的です。レイテンシーに縛られています。容赦なくコストに敏感です。ですからシステム的な問いは、レイテンシーと信頼性をSLA内に保ちながら、どうやってトークンあたりのドルを下げるかということになっています。それが、私たちがCESで追跡しているチップメーカーの動きの背後にある、あなたが追うべき核心的なプロットラインです。

NvidiaはAIファクトリーを販売している

CES 2026の真の見出しは、NvidiaがもはやGPU世代だけでなく、AIファクトリーを販売しているということです。ですから最も重要な話は、Rubin自体の発売やRubinが存在するということではありません。それがNvidiaの新しいチップセットです。

実際には、Nvidiaがより大きなAIエコシステムの中で新しいチップセットをどのように位置づけているかということなんです。Rubinはラックスケールのプラットフォームです。単なる個別のチップではなく、トークンエコノミクスを第一に考えて設計されています。なぜなら推論負荷を提供することを意図しているからです。

NvidiaはCESでRubinプラットフォームを、Vera CPU、Rubin GPU、NVLink 6スイッチ、ConnectX9、Super NICを含む6チップの極めて設計されたシステムとして発表しました。他にも色々言えますし、あなたは恐らく信じてくれると思います。頭字語を言うだけですからね。でも私の言葉を信じてください。

本質的に、Nvidiaは推論トークン生成コストを10分の1に削減しながら、推論負荷を遥かに遥かに速く提供するラックスケールのチップセットを発表したのです。ですから彼らが最適化しているのは、非常に大規模なモデルと非常に大きなコンテキストウィンドウの極めて効率的な提供なんです。

Rubinチップは1,000万トークンのコンテキストウィンドウを処理できるようになります。Rubinチップセットは、Gemini 2.0 Proのようなモデルを、今日提供できるよりも遥かに遥かに速く提供できるようになります。

推論時代の最大の進化:コンテキストメモリ管理

どうしてこれが分かるのでしょうか。NvidiaがRubinチップセットで推論コンテキストメモリを製品化したからです。最も推論時代的な動きは、Nvidiaの推論コンテキストメモリストレージプラットフォームです。これはキーバリューキャッシュとコンテキストをGPU自体から押し出してストレージ層に入れようという試みで、常に再計算するのではなく再利用できるようにするためです。

Nvidiaの開発者向け説明書は、これを、より大きなコンテキストウィンドウを提供する際にKVキャッシュの成長がスケーリング制約になることとして直接的にフレーミングしています。知らない方のために説明すると、KVキャッシュは次トークン生成を提供する際に計算しなければならないものです。なぜならKVキャッシュがコンテキストウィンドウの一部として与えられたトークンを吸収するからです。

これは大きな概念的シフトです。コンテキストは、古典的なWebスタックでキャッシュやデータベース層が管理されるのと同じように、この時点で管理されるリソースになったのです。プラットフォームベンダーがそれを製品にするということは、基本的に、推論スケーリングが今やコンピューティング問題であると同時に、メモリとデータ移動の問題であるという認識なんです。

そしてそれは、彼らがラックスケールチップセットを設計した方法に表れています。NVLink 6スイッチ、ConnectX9、これらは単なるランダムな頭字語ではありません。これらはNvidiaがテーブルにもたらすファームウェアとハードウェアの優位性の一部であることが分かります。なぜならそれらは、ラックスケール全体のチップセットが機能し、データを大規模に提供できるようにする相互接続とデータスループットを提供するよう設計されているからです。そして本当に、遥かに大きなコンテキスト負荷を大規模に機能させ提供するためなんです。

OpenAIはAIファクトリー時代の参照顧客

Rubinが実際に展開される様子の最も完全なエンドツーエンドのストーリーを知りたいなら、OpenAIをAIファクトリー時代の参照顧客として扱ってください。OpenAIが書いた2025年のインフラストラクチャ契約は、スタック全体を記述しており、今日において含意を持っています。コンピューティング供給が並行して工業化されつつあり、OpenAIがその道を先導しているのです。

さあNvidiaについて、今話していました。OpenAIとNvidiaは、少なくとも10ギガワットのNvidiaシステムを配備するという意向書を発表しました。最初の1ギガワットは2026年後半にこれらのVera Rubinチップで計画されており、Nvidiaは配備規模が進むにつれて最大1,000億ドルを投資する意向です。

電力で枠組みされていることに注目してください。10ギガワットだということに注目してください。私たちは今やヘッドラインレベルでトークンあたりのドルで考えているのです。これが産業的AIです。

第2のレーンでは、彼らはNvidiaとのパートナーシップだけで終わっていません。OpenAIとAMDは、別の6ギガワットのAMD配備のためのパートナーシップを発表しました。そしてAMDは明らかに、配備マイルストーンに紐付けられた1億6,000万株のワラントをOpenAIに発行しました。

そして彼らも、今年2026年の後半に最初の1ギガワットをオンラインにすることを目指しています。繰り返しますが、彼らは電力で測定しています。Nvidiaよりは小さいです。これはOpenAIが自社モデルのために先に見ているであろう需要がどれほど大きいかを強調しています。

彼らは、Nvidiaがプレミアプロバイダーであるにもかかわらず、Nvidiaから十分に得ることができないのです。そして私たちはまだ終わっていません。なぜならOpenAIとBroadcomは、別の10ギガワットのOpenAI設計のAIアクセラレータとラックシステムを配備するコラボレーションを発表したからです。

そしてそれは2026年後半に開始され、2029年末までに完了することを目標としています。ですからOpenAIは必ずしもここでチップを選んでいるわけではありません。本質的に、私たちは非常に大きく需要は非常に高いと言っているのです。私たちは供給のポートフォリオを構築しています。なぜなら制約は理論的なコンピューティングではないからです。制約は、大規模に私たちのユーザーに配信されるコンピューティングなのです。

Sam Altmanは、企業に配信する1兆トークンサイズのパッケージを見つけられないという事実について非常にオープンにしてきました。そして彼はそれらを必要としており、企業に配信するために10兆、100兆トークンパッケージを必要とするでしょう。なぜなら2025年の昨年、個々の開発者が時に100億トークンを使っていたからです。

ですから一人の開発者が100億できるなら、恐ろしく速く兆に積み重なるのです。しかし私たちはまだOpenAIをファクトリーとして見る話で終わっていません。キャパシティはクラウド契約としても購入されています。

ですからOpenAIの380億ドルのAWS契約は、より長期的なAIファクトリーが徐々にオンラインになる間のキャパシティロックとして読むのが最適です。彼らは今クラウドを確保しています。そうすることで、Nvidia GPUキャパシティを拡大し、AMDを拡大するなどのこのより大きな合意を構築している間も、提供し続けることができるのです。

そして私たちはまだ終わっていません。なぜなら彼らはまた、推論のために提供するのをCoreweaveが手助けできるAIキャパシティを構築するために、Coreweaveと数十億ドル規模の契約を結んだからです。

根本的に、AIファクトリーの未来について話す時、他の誰もがこれについて話しているのは、OpenAIが今後数年間の自身の未来を確保する契約を書いた後なんです。

OpenAIの戦略的な先手

それはOpenAIの側の本当に賢明な動きでした。それは彼らに、何が起ころうとも2026年と2027年のテーブルでの場所を保証するでしょう。そしてそれは彼らに、テーブルに遅れてきたプレイヤーよりも少ないボトルネックで、自社モデルを成長させ、スケールさせ、提供し続ける余地を与えるでしょう。

さて、これがほとんどの人が見逃しがちな部分です。OpenAIはまた、SamsungとSK Hynixが月間90万枚のDRAMウェーハを目標にStargateプロジェクトに参加すると発表しました。これはOpenAIのモデルを動かすメモリを可能にするために重要です。

NvidiaのCESでの動きは、本質的に推論コンテキストメモリストレージを正式なものにし、それはOpenAIがSK Hynix契約を確保することによって行っていることへのプラットフォームレベルの鏡なんです。

ですから私があなたに理解してほしいのは、Vera Rubinチップセットで何をNvidiaが発表したかというヘッドラインを見る時、あなたが見るべきなのは、未来のAIファクトリーの簡素化されパッケージ化された絵だということです。そして私たちは、OpenAIが昨年まとめた個々の契約の中に、そのファクトリーの全ての部品が集まってくるのを見ることができます。

メモリ不足が新たなボトルネック

問題は、他の誰もがNvidiaのチップセットを必要とするだろうということです。なぜなら、より広い市場は既にOpenAIの契約によって生み出された希少性を反映しているからです。

Reutersは、AI需要が従来の供給を逼迫させたため、DRAM価格が第4四半期に300%以上上昇していると報じています。Reutersはまた、2025年第3四半期のバンド幅メモリシェアが、わずか2つのプレイヤー、SamsungとSK Hynix、まさにOpenAIが契約を結んだプレイヤーによって信じられないほど支配されていたと指摘するCounterpointを引用しています。

HBMレースは、AI競争の他の多くの部分と同様に、わずか数社のベンダーの供給をめぐるボトルネック化した競争に変わりつつあります。これはZeissで見られ、NvidiaとそのGPUで見られ、SK Hynixで見られ、ASMLで見られます。根本的に、AI経済全体にわたってより広範な不足があります。なぜなら私たちは非常に需要に制約されているからです。

AI需要の不足はありません。そして繰り返しますが、私は指摘します。それは典型的なバブルがどのように見えるかではありません。私は2000年にそこにいました。そしてその時の問題は、インターネット上にトラフィックが多すぎたということではありませんでした。しかし今はそれが問題なのです。

Nvidia支配への挑戦者たち

ですから当然、Vera Rubinの発表後に尋ねるべき質問は、誰かが本当にNvidiaの支配を脅かしている兆候があるかということです。脅威がNvidiaが今後1年から18ヶ月でデフォルトプラットフォームとして置き換えられることを意味するなら、圧倒的な証拠はノーと言っています。

OpenAI自身の10ギガワットのNvidiaコミットメントが良い例です。しかし私はまた、脅威がNvidiaの推論支出シェアが時間とともに減少するかもしれないことを意味するなら、潜在的にはイエスだということも指摘したいです。そしてそのメカニズムは本当に構造的で需要主導です。

今Nvidiaには3つの本当の圧力があります。第一に、AMDのようなセカンドソースのハイパースケールGPUです。ですからGoogleのAMD契約は、まさに大規模なセカンドエコシステムを実行可能にするアンカー顧客コミットメントの種類です。そしてOpenAIは本当にこれを行っています。なぜなら彼らの需要が非常に大きいため、セカンドパートナーが必要だからです。

これは今度、Nvidiaと並行してセカンドの代替エコシステムの存在を触媒することができます。これは私に、AWSが当初クラウドで唯一のゲームだった時のことを非常に思い出させます。時間とともに顧客のニーズが成長するにつれ、MicrosoftはAzureを持ち、Google Cloud Platformが立ち上がり始めました。そして今では、一部の顧客がマルチクラウドで、一部の顧客がそれらの個々のクラウドの一つを選んでいる状況があります。

しかし関係なく、AWSを含むそのシステムの個々のプレイヤーは、総クラウド支出における相対的シェアが時間とともに変化しても、成長を続けることができています。

Nvidiaへのもう一つの圧力は、予測可能にワークロードを提供するためのカスタムアクセラレータです。これがOpenAIとのBroadcom契約の全てです。推論量が非常に高く、大規模なチップレベルでの専門化を正当化すると予想しない限り、カスタムシリコンに取り組むことはありません。それがBroadcom契約が行うことです。

ですからそれは、本質的にOpenAIが、私たちの需要量は非常に大きいので専門化したチップが必要だと言っているケースです。他の方法ではできないのです。

そして最後に、ハイパースケーラーは社内チップを輸出しています。ですからAnthropicのGoogleからのTPU拡張は、価格対性能と可用性が十分に説得力があるとき、大規模ラボが非Nvidiaシリコンでトレーニングとサービングをするという非常にクリーンなシグナルです。

そして予測は、Anthropicが2026年に1ギガワット以上のTPUキャパシティをオンラインにするだろうというものです。私は依然として、Googleがあまりにも多くのTPUを外に出すことを許さないと予想しています。なぜならGeminiにとっての社内TPUアドバンテージが競争優位性として非常に説得力があるからです。

とは言え、GoogleはAnthropicの投資家です。Anthropicのモデルと品質に投資することは間違いなく彼らの利益になります。そして彼らがTPUをそこに置くのは理にかなっていると思います。

多極共存の未来

ですから私たちは、ミニウィナーの現実を持つ未来を見ていると思います。そしてこれが多くの要約が見逃しているニュアンスです。需要が非常に高いため、Nvidiaは最大の絶対的な勝者であり続けるでしょう。そして私は依然として業界の第二のプレイヤーにとって意味のあるスケールを見ています。なぜなら需要が非常に速く爆発しているからです。

ですから競争は、この場合、別のプレイヤーからの退位のようなものではなく、複数エコシステムの共存、言うならばマルチクラウド環境のように見えます。特に推論では、不均一性が運用上非常に許容可能で、コスト圧力が極端です。

同じチップセットでトレーニングすることができ、クリーンなトレーニング実行を確保するために遥かに遥かに好ましいです。しかし推論は少し緩くて柔軟で、設定すれば複数の異なるチップセットからモデルを提供できます。

物理的AIの台頭

さて、CESには常にそれに伴ういくつかの楽しいものがあり、皮肉なことにそれは同じ産業的ストーリーの一部として大々的に書かれています。ですからCESは、AIがデータセンターから脱出し、物理的AIとして、アンビエントインテリジェンスとして現れていることを理解可能にしているため、このより大きなシフトを読み取り可能にしています。そしてそれは推論需要を増加させ続け、AIが動作する場所を多様化するでしょう。

ストーリーは、需要がコンピューティングよりも先を走っているということです。実際、NvidiaのCESプレゼンテーションは、Rubinをロボティクスと自律運用のためのオープンモデルに明示的にリンクさせ、より広いプラットフォームストーリーの一部として、AIがどこに現れるかのMercedes CLAデモでAI定義の運転をショーケースしました。

そしてこれは重要です。なぜなら物理的AIは非常にレイテンシーに縛られているからです。非常に信頼性に縛られており、推論最適化の価値を増加させます。それがまさにRubinが目指しているところなんです。

そして本当にここで私が語っているより大きなストーリーは、OpenAIも行っていることです。Legoのスマートブリックのような消費者向けのエンボディメントは、恐らく一般の人々がこのシフトの一部に気づく方法でしょう。

しかし私が望む本当の推進力は、産業インフラストラクチャです。AIが完全な産業になることです。恐らく地球上で最も価値があり最大の産業です。

CES 2026の真の意味

すべてを総括すると、CES 2026は、業界がチップ競争の中にいるふりをやめ、AIファクトリー競争の中にいるかのように行動し始めた瞬間です。そこでは推論エコノミクス、メモリ、供給、電力制約が、実際に誰がインテリジェンスを提供できるかを決定しています。

そして私がOpenAIのストーリーを語る時間を取ったのは、それがまさにここにぴったり合うと思うからです。OpenAIは2025年後半に、このファクトリー競争で競争力を持つことを可能にする契約を書きました。彼らはそれを見抜き、NvidiaはラックスケールのAIファクトリーとしてRubinを販売することで応答し、コンテキスト管理システム、KVキャッシュ管理システムを製品化しました。それは、コンテキスト管理とデータ移動の制約を少なくして推論を可能にするものです。

ですからコンピューティングはもはやあなたの唯一の制約ではありません。ラックスケールでも考える必要があります。メモリはラックスケールでどう管理されているのか。データはラックスケールでどう移動しているのか。高品質モデルの推論負荷をリアルタイムで提供できるペースでです。

そしてそこに全てのメモリに関する契約が収まります。全てのDRAM契約、SK Hynixとの会話、Broadcomとカスタムチップセットを加速できるようにすることへの焦点、OpenAI。これらは全て、ランタイムで私が要求するときに、推論コンピューティングでコンテキストウィンドウの洗練された提供を可能にする契約なのです。

あらゆる場所にAIがある未来

ですからここで可能になっている世界について考えたいなら、それはあらゆる場所にアンビエントAIがある世界です。あらゆる場所に非常に洗練されたAIがある世界です。ですから私たちはMercedes CLAについて話しています。工場での自律ロボットについて話しています。

また、GPT-5.2 Pro品質のモデルがほぼ即座に提供されることについても話しています。なぜならVera Rubinのようなツールがトークン効率的な単位経済価格で極めて高速な推論を可能にしているからです。

ですからそのストーリー全体を見ると、それはどの一社にとっても大きすぎるストーリーです。OpenAIがこれらの契約を切り出し、未来のための場所を確保したことは知っています。しかしAnthropicが獲得したTPU契約を通じて、Nvidiaの動きを通じて、ここには多くの勝者がいることが分かります。

そしてNvidiaは疑いなく、Vera Rubinチップセットを通じて、予見可能な未来においてAI用チップセットの会話で最大のプレイヤーであり続けることを示しています。そして推論は非常に大きいため、彼らは唯一のゲームではないでしょう。

そしてOpenAIは彼らが構築した契約を通じて、第二のソースとカスタムシリコンが、誰も本当に負けることなく意味のあるシェアを取ることができるマルチウィナーのハードウェアランドスケープが存在することを確実にしました。

パイは非常に急速に成長し続けるため、誰もがますます多くのビジネスを獲得するでしょう。そしてこれがAIがファクトリーになった年であり、それは私たち全員の働き方を変えるAIアプリケーションの産業スケールの層を可能にするでしょう。

AIがコンピューターのチャットウィンドウという専門的な隅に閉じ込められる代わりに、AIは私たちのデジタル体験のあらゆる表面に存在するようになり、またロボティクスにも非常に急速に移行していくでしょう。

そしてそれを行うには、ファクトリースケールを持たなければなりません。そしてそれが今年のCESで私たちが見ているものです。これが今まさに解き放たれつつある未来なのです。

ですからCESの最も重要な展開は何だと思うか教えてください。コメント欄でお会いしましょう。

コメント

タイトルとURLをコピーしました