NVIDIA CEOジェンスン・フアンによるCOMPUTEX 2025でのキーノート

AGIに仕事を奪われたい
この記事は約56分で読めます。

33,288 文字

NVIDIA CEO Jensen Huang Keynote at COMPUTEX 2025
NVIDIA CEO Jensen Huang's live keynote ahead of COMPUTEX 2025 in Taipei, May 19, 2025. See what’s next for the era of AI...

ここに来ることができて嬉しいです。私の両親も観客席にいます。あちらにいます。NVIDIAは30年以上にわたって台湾に来ています。ここは私たちの大切なパートナーや親しい友人の多くの故郷です。長年にわたって、皆さんはNVIDIAが成長し、多くのエキサイティングなことを成し遂げるのを見てきました。そして、その道のりをずっと私と共にパートナーとして歩んできてくれました。
今日は、私たちが業界のどこにいるのか、これからどこに向かうのかについて話し、新製品、エキサイティングな新製品、そして私たちのために新しい市場を開き、新しい市場、新しい成長を創造する驚くような製品を発表します。素晴らしいパートナーについて、そして私たちがこのエコシステムを一緒にどのように発展させていくかについて話します。
ご存知のように、私たちは世界で最も重要な産業の一つであるコンピュータエコシステムの震源地にいます。ですから、新しい市場が創造されなければならない時、私たちはそれをコンピュータエコシステムの中心であるここから始めなければならないのは理にかなっています。そして私は皆さんにいくつかの驚きをお見せします。おそらく皆さんが予想しなかったようなことです。
もちろん、AIについても話すことを約束します。そしてロボティクスについても話します。NVIDIAの物語は、コンピュータ業界の再発明です。実際、NVIDIAの物語は、私たちの会社の再発明でもあります。申し上げたように、私は30年間ここに来ています。皆さんの多くが私のキーノートの多くを聞いてきました。中には全てを聞いた方もいます。
そして会話を振り返ってみると、この30年間で私たちが話したこと、私たちがいかに劇的に変化したかがわかります。私たちはチップ会社として始まり、新しいコンピューティングプラットフォームを創造することを目標としていました。2006年にCUDAを導入し、これがコンピューティングのやり方を革命的に変えました。2016年、10年後、私たちは新しいコンピューティングアプローチが到来したことを実感しました。
この新しいコンピューティングアプローチには、テクノロジースタックのあらゆる単一レイヤーの再発明が必要です。プロセッサは新しく、ソフトウェアスタックも新しいです。システムも新しくなることは理にかなっています。そこで私たちは新しいシステムを発明しました。
私がGTC 2006でそれを発表した日、誰も私が何を話しているかを理解せず、誰も注文書をくれませんでした。その新しいシステムはDGX1と呼ばれました。DGX1です。私は最初の1台をOpenAIという非営利団体に寄贈し、それがAI革命を始めました。
数年後、私たちは実際、この新しいソフトウェアのやり方である人工知能が、従来のソフトウェア実行方法とは全く異なることを実感しました。多くのアプリケーションが大きなデータセンターの少数のプロセッサで動作していた一方で、これをハイパースケールと呼んでいます。
この新しいタイプのアプリケーションには、多くのプロセッサが協力して数百万人の人々のクエリを処理することが必要で、そのデータセンターは根本的に異なる設計になります。私たちは2つのタイプのネットワークがあることを実感しました。一つはノースサウスで、これはストレージを制御し、制御プレーンを持ち、外部に接続するために必要です。
しかし最も重要なネットワークはイーストウエストでした。コンピュータが互いに対話して問題を解決しようとするものです。私たちは、高性能コンピューティングと大規模分散処理におけるイーストウエストトラフィックにおいて最高のネットワーキング会社を認識しました。
私たちの会社にとって非常に大切で、私たちの心に非常に近い会社、Mellanoxという会社でした。そして私たちは5年前の2019年に彼らを買収しました。私たちはデータセンター全体を一つのコンピューティングユニットに変換しました。私が以前言ったように、現代のコンピュータはデータセンター全体です。データセンターがコンピューティングのユニットなのです。
もはやただのPCでも、ただのサーバーでもありません。データセンター全体が一つの仕事を実行し、オペレーティングシステムが変化するのです。NVIDIAのデータセンタージャーニーは今では非常によく知られています。過去3年間で、私たちが形作っているアイデアのいくつかと、私たちが自分たちの会社をどのように異なって見始めているかをご覧いただいています。
歴史上、どの会社も、確実に言えばどのテクノロジー会社も、5年間のロードマップを一度に明らかにしたことはありません。誰も次に何が来るかを教えてくれません。彼らはそれを秘密として、極めて機密として保持します。しかし、私たちはNVIDIAがもはやテクノロジー会社だけではないことを実感しました。実際、私たちは不可欠なインフラ会社なのです。
そして、世界中でインフラ、土地、建物、電力、電気、必要な資金調達をどのように計画できるでしょうか?私が何を作ろうとしているかを理解していなければ、どうしてそんなことができるでしょうか?そこで私たちは、世界中の誰もがデータセンターの建設を始められるよう、十分詳細に会社のロードマップを説明しました。
私たちは今、私たちがAIインフラ会社であることを理解しています。世界中で不可欠なインフラ会社です。すべての地域、すべての産業、すべての会社がこれらのインフラを構築するでしょう。そして、これらのインフラとは何でしょうか?
これらのインフラは、実際、最初の産業革命の時とそう変わりません。人々がGE、ウェスティングハウス、シーメンスが電気という新しいタイプの技術があり、世界中に新しいインフラを構築する必要があることを実感したときのように。そして、これらのインフラは社会インフラの不可欠な部分となりました。そのインフラは今、電気と呼ばれています。
数年後、これは私たちの世代中のことですが、私たちは新しいタイプのインフラがあることを実感しました。この新しいインフラは非常に概念的で、理解するのが非常に困難でした。そして、この情報と呼ばれるインフラは、最初に説明されたとき、誰にとっても意味をなしませんでした。
しかし今、私たちはそれがインターネットであることを実感しています。そして、あらゆるインターネットがどこにでもあり、すべてがそれに接続されています。さて、新しいインフラがあります。この新しいインフラは、最初の二つの上に構築されています。そして、この新しいインフラは知能のインフラです。
今、私たちが知能インフラがあると言っても、それは意味をなしません。しかし、10年後を振り返ると、AIが今やすべてに統合されていることを実感するでしょう。実際、私たちはあらゆるところでAIが必要で、すべての地域、すべての産業、すべての国、すべての会社がAIを必要としています。AIは今やインフラの一部なのです。
そして、このインフラは、インターネットのように、電気のように、工場が必要です。そして、これらの工場は本質的に今日私たちが構築しているものです。過去のデータセンターではありません。それは1兆ドルの産業で、情報とストレージを提供し、すべてのERPシステムと従業員をサポートしています。それが過去のデータセンターです。
これは、同じ産業から来たという意味で似ていますが、すべて私たちから来ましたが、完全に異なる何か、世界のデータセンターから完全に分離されたものとして出現するでしょう。そして、これらのAIデータセンターは、もし言うならば、不適切に記述されています。それらは実際、AI工場なのです。
エネルギーを適用すると、信じられないほど価値のあるものを生産します。そして、これらのものはトークンと呼ばれ、企業が前四半期に何個のトークンを生産したか、先月何個のトークンを生産したかを話し始める段階まで来ています。
非常に近い将来、私たちはあらゆる単一の工場がそうするように、毎時間何個のトークンを生産するかについて話すでしょう。そして、世界は根本的に変化しました。1993年に会社を始めた日、私はNVIDIAの機会がどれほど大きいかを理解しようとしていました。そして、NVIDIAのビジネス機会は巨大だという結論に達しました。
3億ドルです。私たちは裕福になるでしょう。3億ドルのチップ産業から、約1兆ドルを表すデータセンターの機会へ、そして今やAI工場とAIインフラ産業へと、数兆ドルで測られるものになりました。これが私たちが取り組んでいるエキサイティングな未来です。
その核心では、私たちが行うすべてはいくつかの重要な技術に基づいています。もちろん、私は加速コンピューティングについて大いに話します。AIについても大いに話します。NVIDIAを本当に特別にしているのは、これらの能力の融合であり、特に特にアルゴリズム、ライブラリ、私たちがCUDA Xライブラリと呼ぶものです。
私たちは常にライブラリについて話しています。実際、私たちはライブラリについてノンストップで話す世界で唯一のテクノロジー会社です。その理由は、ライブラリが私たちが行うすべての核心にあるからです。ライブラリがすべてを始めたものです。今日、私はいくつかの新しいものをお見せします。しかし、その前に、今日私がお話しすることのプレビューをお見せしましょう。
皆さんがこれから見るもの、皆さんがこれから見るものはすべて、シミュレーション、科学、そして人工知能です。ここで見るものは何もアートではありません。すべてシミュレーションです。たまたま美しいだけです。見てみましょう。
これは私が前に立っている実時間コンピュータグラフィックスです。これはビデオではありません。これはGeForceによって生成されたコンピュータグラフィックスです。これは真新しいGeForce RTX 5060です。そして、これはASUSからのものです。私の良い友人ジョニーが最前列にいます。そして、これはMSIからのものです。
私たちはこの素晴らしいGPUを取って、ここに縮小しました。それは意味をなすでしょうか?見てください、これは信じられません。これはMSIの5060が入った新しいラップトップです。GeForceがCUDAを世界にもたらしました。今ご覧いただいているのは、すべての単一ピクセルがレイトレースされています。
どうしてフォトンをシミュレートし、この解像度でこのようなフレームレートを配信することが可能なのでしょうか?その理由は人工知能です。私たちは10個のピクセルのうち1つだけをレンダリングしています。つまり、ご覧いただいているすべてのピクセルのうち、実際に計算されているのは10個中1つだけです。他の9つはAIが推測しました。
それは意味をなすでしょうか?そして、それは完璧です。完全に完璧です。完璧に推測したのです。もちろん、その技術はDLSS、ニューラルレンダリングと呼ばれています。開発には長年かかりました。AIに取り組み始めた瞬間から開発を始めました。だから10年の旅でした。そして、コンピュータグラフィックスの進歩はAIによって完全に革命化されました。
GeForceがAIを世界にもたらしました。今、AIが戻ってきてGeForceを革命化しました。本当に、本当に素晴らしいです。皆さん、GeForceですが、CEOの時は多くの子供たちがいます。そしてGeForceが私たちをここまで連れてきました。そして今、私たちのキーノートの90%はGeForceではありません。
しかし、それは私たちがGeForceを愛していないからではありません。GeForce RTX 50シリーズは史上最も成功したローンチを記録し、我々の歴史上最速のローンチでした。PCゲーミングは今30歳です。それはGeForceがいかに信じられないかを物語っています。
ライブラリについて話しましょう。核心では、もちろんすべてがCUDAから始まります。CUDAを可能な限りパフォーマンスが高く、可能な限り普及させることにより、インストールベースが世界中にあることで、アプリケーションはCUDA GPUを簡単に見つけることができます。
インストールベースが大きいほど、開発者はライブラリを作成したくなります。ライブラリが多いほど、素晴らしいことが行われ、より良いアプリケーション、ユーザーへのより多くの利益があります。彼らはより多くのコンピュータを購入します。コンピュータが多いほど、CUDAが多くなります。このフィードバックパスは極めて重要です。
しかし、加速コンピューティングは汎用コンピューティングではありません。汎用コンピューティングではソフトウェアを書きます。皆がPythonやC、C++で書いて、それをコンパイルします。汎用コンピューティングの方法論は一貫しています。アプリケーションを書いて、アプリケーションをコンパイルし、CPUで実行します。
しかし、これは加速コンピューティングでは根本的に機能しません。なぜなら、もしそれができるなら、それはCPUと呼ばれるからです。CPUを変更しないことのポイントは何でしょうか?だから、ソフトウェアを書いて、ソフトウェアをコンパイルし、CPUで実行することができます。
何か違うことをしなければならないという事実は、実際非常に納得のいくものです。その理由は、非常に多くの人々が汎用コンピューティングに取り組み、何兆ドルものイノベーションがあったからです。どうして突然、チップ内のいくつかのウィジェットで、コンピュータが50倍、100倍速くなることが可能なのでしょうか?それは意味をなしません。
そこで私たちが適用したロジックは、それについてもっと理解すれば、アプリケーションを加速できるということでした。アプリケーションを加速するためのより適したアーキテクチャを作成すれば、光速で実行できます。ランタイムの99%、コードのわずか5%であっても、これは非常に驚くべきことです。
ほとんどのアプリケーションのコードの小さな部分がランタイムのほとんどを消費します。私たちはその観察を行い、一つの分野から別の分野へと向かいました。コンピュータグラフィックスをお見せしました。数値もあります。これはCu numericsです。Cuはパイは最も普及した数値ライブラリです。Aerialと書納です。
Aerialは世界初のGPU加速無線信号処理5Gと6G用です。ソフトウェア定義にすれば、その上にAIを置くことができます。だから今、5Gと6GにAIを持ち込むことができます。ゲノミクス解析用のPars。医用画像用のMonai。天気予報用のEarth 2。量子古典コンピューターアーキテクチャとコンピューターシステム用のCu quantum。
Cu Equavarianceとテンソル収縮のためのCu tensor contractionです。Megatronこの行全体、この列全体は、私たちのディープラーニングのすべてと、トレーニングと推論の両方に必要なすべてのライブラリで構成されています。
コンピューティングを革命化し、すべてがこれらのライブラリから始まりました。CUDAだけでなく、CUDAの上にCUDNN、CUDNNの上にMegatron、MegatronからTensorRT-LM、そして最近では、大規模AI工場用のこの真新しいオペレーティングシステムDynamoです。
SparkやSQL構造化データのようなデータフレーム用のQuDF も加速できます。古典的機械学習のQML、CUDA カーネルを記述するPythonicフレームワークであるwarp、非常に成功しています。旅行セールスマンのような数学的操作最適化、供給チェーン最適化などの高度に制約された大量の変数タイプの問題を最適化する能力、これは信じられない成功です。co-opt、Cu DSSとCu sparseに非常に興奮しています。
スパース構造シミュレーター用で、CAEとCADの流体力学、有限要素解析で使用され、EDASとCAE産業にとって非常に重要です。そしてもちろん、計算リソグラフィーマスク作成のための最も重要なライブラリの一つ、Cu lithoです。簡単に1ヶ月かかる可能性があり、そのマスク作成プロセスは極めて計算集約的です。
今、Cu lithoで、その計算を50倍、70倍加速できます。結果として、これは将来リソグラフィーにAIを適用するための世界を開く舞台を設定することになります。私たちには素晴らしいパートナーがいます。TSMCはCu Lithoを非常に広範囲に使用しています。ASML、Synopsis、Kithoで私たちと協力している優れたパートナーです。
ライブラリ自体が、アプリケーションの一つの分野から別の科学分野、別の物理分野へと、これらのアプリケーションを加速することを可能にしています。しかし、それは私たちのために市場も開きます。私たちは特定の地域と特定の市場を見て、その分野がコンピューティングの新しいやり方に変容することが本当に重要になる可能性があると言います。
長年にわたってゼネラルパーパスコンピューティングがその進路を辿ってきたとすれば、なぜそれがすべての単一産業でその進路を辿っていないのでしょうか?だから最も重要な産業の一つはもちろん電気通信です。
世界のクラウドデータセンターが今やソフトウェア定義になったように、電気通信もソフトウェア定義であるべきです。だから私たちは今、6年かけて、データレート毎メガワットまたはデータレート毎ワットで信じられないパフォーマンスを発揮する完全に加速されたRadio Access Network RANスタックを洗練し最適化しました。
私たちは今、最先端のAS6と同等になっています。だから一度それができれば、一度そのレベルのパフォーマンスと機能を達成できれば、その後AIをその上に重ねることができます。素晴らしいパートナーがいます。SoftBankとT-Mobile、IndoadとVodafoneが試験を行っています。Nokia、Samsung、Kioseraがフルスタックで私たちと協力しています。
FujitsuとCiscoがシステムで作業しています。だから今、私たちは5GでのAIや6GでのAI、コンピューティングでのAIとともに、そのアイデアを紹介する能力を持っています。量子コンピューティングでそれを行っています。量子コンピューティングはまだノイジー中間状態中間スケール量子、NISKと呼ばれる段階にあります。
しかし、すでに始めることができる多くの良いアプリケーションがあり、それに興奮しています。量子古典または量子GPU計算プラットフォームのクラスに取り組んでいます。私たちはそれをCUDAQと呼び、世界中の素晴らしい企業と協力しています。GPUは前処理と後処理、エラー補正、制御に使用できます。
だから将来、すべてのスーパーコンピューターが量子アクセラレーターを持つと予測しています。すべてが量子QPUに接続されています。だからスーパーコンピューターはQPUとGPU、そしていくつかのCPUを持つことになるでしょう。それが現代のコンピューターの表現になるでしょう。この分野の多くの素晴らしい企業と協力しています。
12年前、私たちはパターンを理解し、音声を認識し、画像を認識できる知覚AIモデルから始めました。それが始まりでした。過去5年間、私たちは生成AI、AIが理解するだけでなく生成する能力について話しています。
だから、テキストからテキストへ生成できます。私たちはChatGPTでそれを常に使用しています。テキストから画像、テキストから動画、動画からテキスト、画像からテキスト、ほぼ何でも何でもへ。これがAIについて発見した本当に素晴らしいことです。私たちは普遍的関数近似器、普遍的翻訳機を発見しました。
それを単純にトークン化し、情報のビットを表現できれば、何でも他の何でもに翻訳できます。さて、私たちは本当に重要なAIのレベルに達しました。生成AIは私たちにワンショットAIを与えました。テキストを与えるとテキストを返します。それは2年前、私たちが最初にChatGPTに接したときでした。
それは大きな素晴らしいブレークスルーでした。テキストを与えるとテキストを返します。次の単語を予測し、次の段落を予測します。しかし、知能は学習した多くのデータからだけではずっと多くのものです。知能には推論する能力、以前に見たことのない問題を解決する能力、それを段階的に分解し、問題を解決するために何らかのルールや定理を適用する能力が含まれます。
複数のオプションをシミュレートし、その利益を量ることができます。チェーンオブソート、段階的に分解すること、ツリーオブソート、たくさんの道を思いつくこと、これらすべての技術が、AIが推論できる能力につながっています。
素晴らしいことは、推論する能力と知覚する能力を持ったら、つまりマルチモーダルと言いましょう、PDFを読むことができ、検索ができ、ツールを使用できるなら、今やエージェンティックAIを持っています。このエージェンティックAIは、私が今説明したこと、私たちが皆行うことをします。
私たちは目標を与えられます。それを段階的に分解します。何をすべきか、それを行う最良の方法は何かについて推論します。その結果を考慮し、計画の実行を始めます。計画には何らかの研究を行うこと、何らかの作業を行うこと、ツールを使用することが含まれるかもしれません。
別のAIエージェントに接触して協力することも含まれるかもしれません。エージェンティックAIは基本的に理解し、考え、行動します。理解し、考え、行動するのはロボティクスのループです。エージェンティックAIは基本的にデジタル形式のロボットです。これらは今後数年間で本当に重要になるでしょう。この分野で巨大な進歩を見ています。
その次の波は物理AIです。世界を理解するAI。慣性、摩擦、因果関係のようなものを理解します。ボールを転がして車の下に行った場合、ボールの速度によって、おそらく車の反対側に行ったでしょうが、ボールは消えていません。オブジェクトの永続性です。
目の前にテーブルがあり、向こう側に行かなければならない場合、最良の方法はそれを突き抜けることではないと推論できるかもしれません。最良の方法はそれを回るか、その下を通ることかもしれません。これらの物理的なことについて推論できることは、AIの次の時代にとって本当に不可欠です。私たちはそれを物理AIと呼んでいます。
この特定のケースでは、AIを単純にプロンプトして、自動運転車を異なるシナリオで訓練するための動画を生成しているのを見ています。後でそれについてもっとお見せします。それは犬です。鳥と人々の生成されたものです。そして左の画像から始まりました。
その後の段階で、推論システム、生成システム、物理AIを取り、このレベルの能力を今度は物理的な実体に入れます。私たちはそれをロボットと呼びます。AIにプロンプトしてボトルを手を伸ばして取るビデオを生成させることができると想像できれば、もちろんロボットに手を伸ばしてボトルを取るように言うことができると想像できます。
今日のAI能力はそれらのことを行う能力を持っています。私たちがこれを可能にするために構築しているコンピューターは、以前のものとは非常に異なる特性を持っています。Hopperと呼ばれる革命的なコンピューターが約3年前に世界に登場し、私たちの知る限りのAIを革命化しました。それはおそらく世界で最も人気があり、最もよく知られたコンピューターになりました。過去数年間、私たちは推論時間スケーリング、つまり信じられないほど速く考えることを可能にする新しいコンピューターの開発に取り組んできました。
なぜなら考える時は、言わば頭の中で多くのトークンを生成しているからです。多くの思考を生成し、答えを出す前に脳内で反復しています。だからワンショットAIだったものが、今度は思考AI、推論AI、推論時間スケーリングAIになり、それはずっと多くの計算が必要になります。
そこで私たちはGrace Blackwellという新しいシステムを作成しました。Grace Blackwellはいくつかのことを行います。スケールアップする能力があります。スケールアップとは、コンピューターを巨大なコンピューターに変えることです。スケールアウトは、コンピューターを取って多くのものを接続し、多くの異なるコンピューターで作業を行わせることです。
スケールアウトは簡単です。スケールアップは信じられないほど困難です。半導体物理学の限界を超えた大きなコンピューターを構築することは、非常に困難です。それがGrace Blackwellが行うことです。Grace Blackwellはほぼすべてを壊しました。
観客席の皆さんの多くが、Grace Blackwellシステムの構築で私たちとパートナーシップを組んでいます。フル生産中であることを嬉しく思いますが、同時に非常に困難だったとも言えます。HGXに基づくBlackwellシステムは昨年末からフル生産に入り、2月から利用可能になっていますが、今ようやくすべての素晴らしいGrace Blackwellシステムがオンラインになっています。
毎日あらゆる場所で稼働しています。CoreWeaveでは数週間前から利用可能です。多くのCSPによって既に使用されており、今あらゆるところから出てくるのを見始めています。皆がGrace Blackwellが本番用であることをツイートし始めています。
今年のQ3に、私が約束したように、毎年、毎年リズムのように、プラットフォームの性能を向上させます。今年Q3には、Grace Blackwell GB300にアップグレードします。GB300は同じアーキテクチャ、同じアーキテクチャ、同じ物理的フットプリント、同じ電気機械仕様ですが、内部のチップがアップグレードされています。
新しいBlackwallチップでアップグレードされ、推論性能が1.5倍、HBMメモリが1.5倍、ネットワーキングが2倍になっています。そのため、システム全体の性能が向上しています。Grace Blackwellの内部を見てみましょう。
Grace Blackwellはこのコンピューターノードから始まります。ここにあるコンピューターノードです。これはコンピューターノードの一つです。これは最後の世代、B200の外観です。これがB300の外観です。中央のここに注目してください。今は100%液冷になっています。
しかし外部的には同じです。同じシステムと同じシャーシに接続できます。これがGrace Blackwell GB300システムです。推論性能が1.5倍です。訓練性能はほぼ同じですが、推論性能は1.5倍です。
この特定のシステムは40ペタフロップスで、これは2018年のSierraスーパーコンピューターの性能とほぼ同じです。Sierraスーパーコンピューターには18,000個のGPU Voltaがあります。この一つのノードがそのスーパーコンピューター全体を置き換えます。6年間で4,000倍の性能向上。これは極端なムーアの法則です。
以前申し上げたように、AI、NVIDIAは10年ごとに約100万倍のコンピューティングスケーリングを行っており、私たちはまだその軌道上にあります。しかし、それを行う方法は、チップをより速くするだけではありません。チップをどれだけ速くできるか、どれだけ大きくできるかには限界があります。
Blackwellの場合、2つのチップを接続して可能にしました。TSMCが私たちと協力して、これらの巨大なチップを作成することを可能にするcos lという新しいcoパッケージプロセスを発明しました。しかし、私たちはそれよりもはるかに大きなチップが欲しかったのです。
そこで、MVLinkと呼ばれるものを作成する必要がありました。これは世界最速のスイッチです。ここにあるこのMVLinkは7.2テラバイト毎秒です。これらの9つがそのラックに入ります。そして、その9つ、それらの9つのスイッチはこの奇跡によって接続されています。
これは非常に重いです。それは私がかなり強いからです。とても軽く見せましたが、これは約70ポンドです。これがNVLinkスパインです。2マイルのケーブル、5,000本のケーブルが構造化され、すべて同軸でインピーダンスマッチングされ、MVLinkスイッチと呼ばれるこのネットワーク全体で72個すべてのGPUを他のすべての72個のGPUに接続します。
MVLinkスパイン全体で130テラバイト毎秒の帯域幅。視点を置くために、インターネット全体のピークトラフィック、インターネット全体のピークトラフィックは900テラビット毎秒です。それを8で割ると、これはインターネット全体よりも多くのトラフィックを移動します。
一つのMVLinkスパインがこれらのMV 9つのMVLinkスイッチを介して、すべての単一GPUが他のすべてのGPUと全く同時に話すことができます。これがGB200の奇跡であり、Certisをどこまで駆動できるかには限界があります。これはチップからの任意のCertisが駆動された最遠です。
これはチップからスイッチへ、スパインへ、他の任意のスイッチ、他の任意のチップへ、すべて電気的に行きます。その限界により、私たちはすべてを一つのラックに入れる必要がありました。その一つのラックは120キロワットで、すべてが液冷でなければならない理由です。
私たちは今、本質的に一つのマザーボード全体のラック全体にGPUを分離する能力を持っています。そのラック全体が一つのマザーボードです。それが完全に分離された奇跡です。そして今、GPU性能は信じられません。メモリの量は信じられません。ネットワーキング帯域幅は信じられません。
そして今、私たちは本当にこれらを大規模なシステムにスケールアウトできます。一度スケールアップすれば、大規模なシステムにスケールアウトできます。NVIDIAが構築するものはほぼすべて巨大であることに注目してください。その理由は、私たちがデータセンターやサーバーを構築しているのではありません。AI工場を構築しているのです。
これはCoreWeaveです。これはOracle Cloudです。各ラックの電力密度は非常に大きいです。電力密度を分散できるように、それらをより遠くに離す必要があります。しかし、結局のところ、私たちはデータセンターを構築しているのではありません。AI工場を構築しているのです。
これはXAI Colossus工場です。これはStargateです。400万平方フィート。400万平方フィート。1ギガワット。この工場について考えてみてください。この1ギガワット工場は、おそらく約600億から800億ドルになるでしょう。その600億から800億ドルのうち、エレクトロニクス、コンピューティング部分、これらのシステムは400億から500億ドルです。
これらは巨大な工場投資です。人々が工場を建設する理由は、答えを知っているからです。より多く購入すれば。私と一緒に言ってください。より多く購入すれば、より多く作る。それが工場がすることです。
技術は非常に複雑です。技術は非常に複雑です。実際、ここでそれを見ても、台湾の観客席にいる私たちのすべてのパートナーとすべての企業で行われている素晴らしい作業の深い感謝を得ることはできません。そこで私たちはあなたのために映画を作りました。映画を作りました。ご覧ください。
Blackwellは工学の奇跡です。TSMCでの空白のシリコンウェーハから始まります。何百ものチップ処理と紫外線リソグラフィーステップが、12インチウェーハ上に2000億個のトランジスタを層ごとに構築します。ウェーハは個々のBlackwellダイに刻まれ、テストされ、分類され、良いダイを分離して進行させます。
TSMCビルとアンプコアで行われるチップオンウェーハオンサブストレートプロセス。カスタムシリコンインターポーザーウェーハ上に32個のBlackwellダイと128個のHBMスタックを取り付けます。金属相互接続トレースが直接エッチングされ、BlackwellGPUとHBMスタックを各システムとパッケージユニットに接続し、すべてを所定の位置にロックします。
その後、アセンブリが焼かれ、成形され、硬化され、Blackwell B200スーパーチップが作成されます。KYCでは、各Blackwellが125°Cのオーブンでストレステストされ、数時間限界まで押し進められます。Foxconに戻ると、ロボットが24時間体制で作業し、Grace Blackwell PCBに10,000以上のコンポーネントを配置します。
一方、追加コンポーネントが世界中の工場で準備されています。Cooler Master、ABC、Auras、Deltaからのカスタム液冷銅ブロックが、チップを最適温度に保ちます。別のFoxcon施設では、ConnectX7 Supernicksがスケールアウト通信を可能にし、Bluefield 3 DPUがネットワーキング、ストレージ、セキュリティタスクをオフロードし加速するために構築されています。
これらすべての部品が収束し、GB200コンピューティングトレードに慎重に統合されます。MVLinkは、NVIDIAが複数のGPUを接続し、巨大な仮想GPUにスケールアップするために発明した画期的な高速リンクです。MVLinkスイッチトレイは、MVLinkスイッチチップで構築され、14.4テラバイト毎秒のオールトゥオール帯域幅を提供します。
MVLinkスパインは、5,000本の銅線ケーブルを統合したカスタムブラインドメイト背面板を形成し、130テラバイト毎秒のオールトゥオール帯域幅を提供します。これにより、72個すべてのBlackwellまたは144個のGPUダイが世界中から一つの巨大なGPUに接続されます。
Foxcon、Wistron、Quanta、Dell、Asus、Gigabyte、HPE、Super Microなどのパートナーからの部品が到着し、熟練した技術者によってラックスケールAIスーパーコンピューターに組み立てられます。総計120万コンポーネント、2マイルの銅線ケーブル、130兆個のトランジスタ、重量1,800kg。
ウェーハにエッチングされた最初のトランジスタから、Blackwellラックを固定する最後のボルトまで、すべてのステップがパートナーの献身、精密さ、技術の重みを担っています。Blackwellは技術的驚異以上のものです。それは台湾のテクノロジーエコシステムの驚異への証言です。私たちが一緒に達成したことをこれ以上誇りに思うことはできません。
ありがとう、台湾。ありがとうございます。それはかなり信じられないものでしたね?しかし、それは皆さんでした。皆さんでした。ありがとうございます。台湾は世界のためのスーパーコンピューターを構築するだけではありません。今日、私たちが台湾のためのAIも構築していることを発表できて非常に嬉しいです。
今日、Foxcon、台湾、台湾政府、NVIDIA、TSMCが、台湾のAIインフラとAIエコシステムのために、ここで最初の巨大AIスーパーコンピューターを構築することを発表します。ありがとうございます。
AIコンピューターが必要な人はいますか?観客席にAI研究者はいますか?すべての単一学生、すべての研究者、すべての科学者、すべてのスタートアップ、すべての大型確立企業。TSMC自身が既に膨大な量のAIと科学研究を行っています。
Foxconはロボティクスで膨大な量の作業を行っています。観客席に他の多くの企業がいることを知っています。すぐに皆さんについて言及しますが、ロボティクス研究とAI研究を行っています。だから台湾にワールドクラスのAIインフラを持つことは本当に重要です。
これらすべては、私たちが非常に大きなチップを構築できるようにするためです。MVLinkとBlackwellのこの世代が、これらの信じられないシステムを作成することを可能にしました。これはPegatronとQCTとWishronとWe-winからのものです。これはFoxconとGigabyteとASUSからのものです。
前面と背面を見ることができます。その全体の目標は、これらのBlackwellチップを取って、どれほど大きいかを見ることができますが、それを一つの巨大なチップにすることです。
もちろん、それを行う能力はMVLinkによって可能になりましたが、システムアーキテクチャの複雑さを過小評価しています。すべてを接続する豊かなソフトウェアエコシステム、このアーキテクチャを構築するために結集した150社の全体的なエコシステム、技術、ソフトウェア、産業の全体的なエコシステムは3年間の作業でした。
これは大規模な産業投資であり、今度は誰でも、データセンターを構築したい誰でもがそれを可能にしたいと思います。NVIDIAのGB200や300の全集合や、NVIDIAからの加速コンピューティングシステムである可能性があります。他の誰かである可能性もあります。
そこで今日、非常に特別なものを発表します。NVIDIA MVLink Fusionを発表します。MVLink Fusionは、セミカスタムAIインフラを構築できるようにするためのものです。セミカスタムチップだけではありません。それは古き良き時代だからです。
AIインフラを構築したいと思っており、皆のAIインフラは少し異なる可能性があります。多くのCPUを持つ人もいれば、多くのNVIDIA GPUを持つ人もいて、誰かのセミカスタムAS6である可能性もあります。
これらのシステムは構築するのが非常に困難で、すべてがこの一つの信じられない成分、MVLinkという信じられない成分を欠いています。MVLinkにより、これらのセミカスタムシステムをスケールアップし、本当に強力なコンピューターを構築できます。そこで今日、MVLink Fusionを発表します。
MVLink Fusionはこのように動作します。これは100% NVIDIAのNVIDIAプラットフォームです。NVIDIA CPU、NVIDIA GPU、MVLinkスイッチ、Spectrum XまたはInfinibandと呼ばれるNVIDIAからのネットワーキング、Nyx、ネットワーク相互接続、スイッチ、そして全体的なシステム、エンドツーエンドで構築された全体的なインフラがあります。
もちろん、お好みに応じてミックス・アンド・マッチできますし、今日、コンピューティングレベルでさえミックス・アンド・マッチすることを可能にします。これはカスタムASICを使用してやることです。素晴らしいパートナーがいて、すぐに発表しますが、特別なTPUや特別なASIC、特別なアクセラレーターを統合するために私たちと協力しています。
それはトランスフォーマーアクセラレーターだけである必要はありません。大規模スケールアップシステムに統合したい任意の種類のアクセラレーターである可能性があります。私たちはMVLinkチップレットを作成します。基本的にチップに直接隣接するスイッチです。
セミカスタムASICに統合するために利用可能なIPがあります。そして一度それを行えば、私が言及したコンピューティングボードにぴったり合い、私がお見せしたAIスーパーコンピューターのこのエコシステムに適合します。
もしかしたら、自分自身のCPUを使いたいかもしれません。しばらくの間、自分自身のCPUを構築してきて、CPUが非常に大きなエコシステムを構築し、NVIDIAを自分のエコシステムに統合したいかもしれません。今度はそれを可能にします。
カスタムCPUを構築することでそれを行うことができます。私たちはMVLinkチップ・ツー・チップインターフェースをASICに提供します。MVLinkチップレットで接続し、今度はBlackwellチップと次世代Rubenチップに直接隣接し接続します。そして再び、このエコシステムにぴったり合います。
この信じられない作業体系は、今や誰でも統合できるように柔軟でオープンになりました。だからあなたのAIインフラは、NVIDIAをいくつか、あなたのものをたくさん、あなたのものをたくさん、多くのCPU、多くのAS6、多くのNVIDIA GPUも持つことができます。
いずれにせよ、MVLinkインフラとMVLinkエコシステムを使用する利益があり、それは完璧にSpectrum Xに接続され、それがすべて産業強度であり、既にそれを可能にした膨大な産業パートナーのエコシステムの利益を持っています。これがMVLink fusionです。
私たちから完全に購入していただければ、それは素晴らしいです。NVIDIAからすべてを購入していただく以上の喜びはありません。ただ皆さんに知っていただきたいのは、NVIDIAから何かを購入していただければ、それでも私にとって大きな喜びです。
素晴らしいパートナーがいます。LCHIP、Astera Labs、Marl、そして私たちの素晴らしいパートナーの一つ、MediaTekが、ASICやセミカスタム顧客、これらのものを構築したいハイパースケーラー、または半導体設計するCPUベンダーと協力するために私たちとパートナーシップを組み、彼らは彼らのセミカスタムプロバイダーになります。
また、FujitsuとQualcommが、私たちのエコシステムに統合するためにMVLinkを使ってCPUを構築しています。CadenceとSynopsisとも協力し、すべてのチップで利用可能になりました。このエコシステムは信じられません。
しかし、これはMVLink Fusionエコシステムをハイライトしただけです。一度彼らと協力すれば、これらのAIスーパーコンピューターにスケールアップすることを可能にする、より大きなNVIDIAエコシステム全体に即座に統合されます。
新しい製品カテゴリについて話しましょう。ご存知のように、私はいくつかの異なるコンピューターをお見せしました。しかし、世界の大部分にサービスを提供するためには、まだいくつかのコンピューターが不足しています。だから、それらについて話します。
しかし、その前に、実際にDGX Sparkと呼ぶこの新しいコンピューターがフル生産中であることを更新したいと思います。DGX Sparkは間もなく、おそらく数週間で利用可能になります。素晴らしいパートナーが私たちと協力しています。Dell、HPI、Asus、MSI、Gigabyte、Lenovo、私たちと協力している信じられないパートナーです。
これがDGX Sparkです。これは実際の生産ユニットです。これは私たちのバージョンです。しかし、私たちのパートナーはたくさんの異なるバージョンを構築しています。これはAIネイティブ開発者向けに設計されています。
もしあなたが開発者、学生、研究者で、クラウドを開き続けて準備し、終わったらスクラブするのではなく、ただ自分自身の基本的に自分自身のAIクラウドが隣に座っていて、常にオン、常に待機していることを望むなら。プロトタイピング、初期開発を可能にします。
そして、これが素晴らしいことです。これはDGX Sparkです。1ペタフロップスと128ギガバイトです。2016年にDGX1を配達したとき、これはただのベゼルです。コンピューター全体を持ち上げることはできません。300ポンドです。これがDGX1です。1ペタフロップスと128ギガバイトです。
もちろん、これは128ギガバイトのHBMメモリです。そして、これは128ギガバイトのLPDDR5Xです。性能は実際非常に似ています。しかし、最も重要なのは、ここでできる作業と同じ作業ができることです。約10年の過程での信じられない成果です。
これがDGX Sparkで、自分自身のAIスーパーコンピューターを持ちたい誰でものためのものです。すべてのパートナーに自分たちで価格を設定してもらいますが、一つ確実なことは、誰でもクリスマスに一つ持つことができるということです。
お見せしたい別のコンピューターがあります。それが十分でなく、それでも自分自身のパーソナル…ありがとう、Janine。皆さん、Janine Paulです。それが十分大きくなければ、これがあります。これは別のデスクサイドです。これもDell、HPI、Asus、Gigabyte、MSI、Lenovoから利用可能になります。
Box、Lambda、素晴らしいワークステーション企業からも利用可能になります。これがあなた自身のパーソナルDGXスーパーコンピューターになります。このコンピューターは、壁のソケットから得られる最高の性能です。キッチンに置くことができますが、ぎりぎりです。
キッチンに置いて誰かが電子レンジを動かしたら、それが限界だと思います。これが限界です。壁のコンセントから得られる限界です。これがDGXステーションです。これと私がお見せした巨大なシステムのプログラミングモデルは同じです。
それが素晴らしいことです。一つのアーキテクチャ、一つのアーキテクチャ。これは1兆パラメーターのAIモデルを実行するのに十分な容量と性能を持っています。LlamaはLlama 70Bであることを覚えておいてください。1兆パラメーターモデルはこのマシンで素晴らしく動作するでしょう。
これがDGXステーションです。では、これらのシステムについて話しましょう…ありがとう、Jenny。これらのシステムはAIネイティブです。AIネイティブコンピューターです。この新世代のソフトウェア用に構築されたコンピューターです。
x86互換である必要はありません。従来のITソフトウェアを実行する必要はありません。ハイパーバイザーを実行する必要はありません。Windowsを実行する必要はありません。これらのコンピューターは、現代のAIネイティブアプリケーション用に設計されています。
もちろん、これらのAIアプリケーションは、従来のクラシカルアプリケーションによって呼び出すことができるAPIである可能性があります。しかし、AIを新しい世界に持ち込むために、そしてこの新しい世界は企業ITですが、私たちは根源に戻り、コンピューティングを再発明し、従来の企業コンピューティングにAIを持ち込む必要があります。
私たちが知っている企業コンピューティングは、本当に3つの層です。コンピューティング層だけではありません。コンピューティング、ストレージ、ネットワーキングです。常にコンピューティング、ストレージ、ネットワーキングです。AIがすべてを変えたように、AIが企業ITにおいてもコンピューティング、ストレージ、ネットワーキングを変えたはずです。
その下位層は完全に再発明される必要があり、私たちはそのプロセスにあります。企業ITのために私たちのロックを解除する新製品をお見せします。従来のIT産業と協力し、新しい能力を追加する必要があります。企業のための新しい能力はエージェンティックAIです。
基本的にデジタルマーケティングキャンペーンマネージャー、デジタル研究者、デジタルソフトウェアエンジニア、デジタル顧客サービス、デジタルチップデザイナー、デジタル供給チェーンマネージャー、デジタルバージョン、私たちが以前行っていたすべての作業のAIバージョン。
前述したように、エージェンティックAIは推論し、ツールを使用し、他のAIと協力する能力があります。多くの点で、これらはデジタルワーカーです。デジタル従業員です。世界には労働力の不足があります。2030年までに約3000万から5000万人の労働者不足があります。これは実際、世界の成長能力を制限しています。そこで今、私たちと協力できるデジタルエージェントがあります。NVIDIAソフトウェアエンジニアの100%が今、より良いコードをより生産的に開発するのを支援するデジタルエージェントと協力しています。
将来、このレイヤーを持つことになります。それが私たちのビジョンです。エージェンティックAI、AIエージェントのレイヤーを持つことになります。世界はどうなるのでしょうか?企業はどうなるのでしょうか?人間の労働者のためのHRがある一方で、デジタルワーカーのHRにもなりつつあります。
今日のIT産業、今日のIT労働者が、会社内で働いているAIエージェントの全体的なファミリーを管理、改善、評価するために必要なツールを作成する必要があります。これが私たちが構築したいビジョンです。
しかし、まずコンピューティングを再発明しなければなりません。私が言ったことを覚えておいてください。企業ITはx86で動作します。VMwareやIBM Red HatやNanixなどの従来のハイパーバイザーなどの従来のソフトウェアを実行します。多くのクラシカルアプリケーションを実行し、同じことを行いながらこの新しい能力、エージェントAIと呼ばれる新しい能力を追加するコンピューターが必要です。
それを見てみましょう。これは真新しいRTX Proです。RTX Pro EnterpriseとOmniverseサーバー。このサーバーはすべてを実行できます。もちろんx86があります。すべてのクラシカルハイパーバイザーを実行できます。これらのハイパーバイザーでKubernetesを実行します。
IT部門がネットワークを管理したい方法、クラスターを管理しワークロードを調整したい方法は全く同じように機能します。CitrixやPCに仮想デスクトップをストリーミングする能力さえあります。今日世界で動作するすべてがここで動作するはずです。
Omniverseはここで完璧に動作します。しかし、それに加えて、これは企業AIエージェント用のコンピューターです。これらのAIエージェントはテキストのみである可能性があります。これらのAIエージェントはコンピューターグラフィックス、小さなTJ、小さなおもちゃのJensenがあなたのところに来て、仕事を手伝ってくれる形である可能性もあります。
これらのAIエージェントはテキスト形式、グラフィック形式、ビデオ形式である可能性があります。これらすべてのワークロードがこのシステムで動作します。モダリティに関係なく、世界で知られているすべてのシングルモデル、知られているすべてのアプリケーションがここで動作するはずです。
実際、CrisisもここでPORT作します。GeForceゲーマーはいませんか。これら8つのGPUを接続するものは何でしょうか?Blackwell、新しいBlackwell RTX、RTX Pro 6000sは、この新しいマザーボードです。
この新しいマザーボードは実際にはスイッチネットワークです。CX8は新しいカテゴリのチップです。スイッチ第一、ネットワーキングチップ第二です。世界で最も先進的なネットワーキングチップでもあります。これは今、CX8をボリューム生産中です。
CX8では、GPUを接続します。CX8は背面にあります。PCI Express がここに接続されています。CX8は それらの間で通信し、ネットワーキング帯域幅は800ギガビット毎秒で信じられないほど高いです。これがここに接続するトランシーバーです。
これらのGPUのそれぞれが独自のネットワーキングインターフェースを持っています。すべてのGPUがイーストウエストトラフィックで他のすべてのGPUと通信しています。信じられない性能です。
驚くべき部分はこれです。いかに信じられないかです。これはRTX Proです。これは性能で、GTCで皆さんにAI工場の世界での性能について考える方法をお見せしました。これについて考える方法はスループットです。これはトークン毎秒で、Y軸です。
工場の出力が多いほど、生産するトークンが多くなります。スループットはトークン毎秒を測定しています。しかし、すべてのAIモデルが同じではなく、一部のAIモデルははるかに多くの推論を必要とするため、これらのAIモデルには、ユーザーあたりの性能が非常に高い必要があります。
ユーザーあたりのトークン毎秒が高い必要があります。これが工場の問題です。工場は高スループットまたは低遅延を好みますが、両方を持つことは好みません。課題は、高スループット(Y軸)を持ちながら、非常に低い遅延、インタラクティビティ、ユーザーあたりトークン毎秒(Y軸)を可能にするオペレーティングシステムを作成することです。
このチャートは、コンピューター、工場全体の性能について何かを教えてくれます。すべての異なる色を見てください。それは性能を達成するためにすべてのGPUを設定する必要がある異なる方法を反映し、表現しています。
時にはパイプライン並列性が必要で、時にはエキスパート並列性が必要で、時にはバッチ処理したく、時には投機的デコーディングをしたく、時にはしたくありません。すべてのこれらの異なるタイプのアルゴリズムは、ワークロードに応じて別々に異なって適用される必要があります。
外側のエリア、その曲線の全体的なエリアが工場の能力を表しています。HopperはH100、世界で最も有名なコンピューターです。HGX 225,000ドルのHopperはそこにあります。そして先ほど見たBlackwallサーバー、企業サーバーは1.7倍の性能です。
しかし、これは素晴らしいです。これはLlama 70Bです。これはDeepSeek R1です。DeepSeek R1は4倍です。その理由はもちろん、DeepSeek R1が最適化されているからで、DeepSeek R1は本当に世界のAI産業への贈り物です。
コンピューターサイエンスのブレークスルーの量は本当に非常に重要で、米国や世界中のどこでも研究者にとって多くの素晴らしい研究を開いています。R1はAIについて考える方法、推論について考える方法、推論AIについて考える方法に本当にインパクトを与えました。産業と世界に大きな貢献をしました。
これがDeepSeek R1で、性能は最先端のH100の4倍です。それが視点を整理します。企業AIを構築しているなら、私たちは今あなたのために素晴らしいサーバーを持っています。素晴らしいシステムを持っています。
何でも実行できるコンピューターです。信じられない性能を持つコンピューターで、x86でもAIでも、すべてが動作します。RTX Proサーバーは業界の全パートナー全体でボリューム生産中です。
これは私たちがこれまで市場に出したシステムの中で最大の市場参入である可能性があります。ありがとうございます。コンピューティングプラットフォームは異なります。ストレージプラットフォームも異なります。その理由は、人間がSQLのような構造化データベースをクエリするからです。
人々はSQLのような構造化データベースをクエリします。しかし、AIは非構造化データをクエリしたがります。セマンティック、意味を求めます。そこで新しいタイプのストレージプラットフォームを作成する必要があります。
これがNVIDIA AIデータプラットフォームです。SQLサーバー、SQLソフトウェア、協力しているストレージベンダーからのファイルストレージソフトウェアと同様に。ストレージに付随する非常に複雑なソフトウェアの層があります。
ご存知のように、ほとんどのストレージ会社は主にソフトウェア会社です。そのソフトウェア層は信じられないほど複雑です。新しいタイプのストレージシステムの上に、NVIDIA AIQまたはIQと呼ぶ新しいクエリシステムがあります。
それは本当に最先端です。素晴らしいです。基本的にストレージ業界のすべての人と協力しています。将来のストレージは、ストレージのラックの上に座るCPUではもはやなくなります。ストレージのラックの上に座るGPUになります。
その理由は、システムが非構造化データ、生データの中でデータの意味を埋め込み、見つける必要があるからです。インデックスし、検索し、ランキングを行う必要があります。そのプロセスは非常にコンピューティング集約的です。
将来のほとんどのストレージサーバーは、その前にコンピューティングGPUコンピューティングノードを持つでしょう。私たちが作成するモデルに基づいています。これからお見せするほぼすべてが、優れたAIモデルから始まります。私たちはAIモデルを作成します。
オープンAIモデルのポストトレーニングに多くのエネルギーと技術を投入します。私たちは完全に透明で、安全で安全なデータでこれらのAIモデルを訓練し、ポストトレーニングします。訓練に使用しても完全に問題なく、そのリストを閲覧できるようにします。
完全に透明です。データを利用可能にします。モデルをポストトレーニングし、ポストトレーニングモデルの性能は本当に信じられません。現在ダウンロード可能なオープンソース推論モデルです。Llama Nemotron推論モデルは世界最高です。
途方もなくダウンロードされています。また、IQと呼ばれるリトリーバル部分を行うことができるように、他の多くのAIモデルでそれを囲んでいます。利用可能なものより15倍速く、50%良いクエリ結果です。
これらのモデルはすべて利用可能です。IQブループリントはオープンソースで、ストレージ業界と協力してこれらのモデルをストレージスタック、AIプラットフォームに統合しています。これはVastです。これがその外観です。
詳しくは触れません。彼らのプラットフォームに統合されたAIモデルの質感だけをお伝えしたいと思います。Vastが行ったことを見てみましょう。
エージェンティックAIはビジネスがデータを使用して意思決定を行う方法を変えます。わずか3日で、VastはNVIDIA IQブループリントとその加速AIデータプラットフォームを使用して営業研究AIエージェントを構築しました。
Nemo Retrieverを使用して、プラットフォームはデータを継続的に抽出、埋め込み、インデックス化し、高速セマンティック検索を行います。まず、エージェントが概要を作成し、次にCRMシステム、マルチモーダルナレッジベース、内部ツールを活用します。
最後に、Llama Nemotronを使用してその概要を段階的営業計画に変換します。数日かかっていた営業計画が、今ではAIプロンプトから始まり、数分で計画が完成します。Vastの加速AIデータプラットフォームにより、組織はすべての従業員のために専門エージェントを作成できます。
これがVastです。Dellには素晴らしいAIプラットフォーム、世界有数のストレージベンダーの一つがあります。HitachiにはAIプラットフォーム、AIデータプラットフォームがあります。IBMはNVIDIA Nemoを使用してAIデータプラットフォームを構築しています。
NetAppはNet AIプラットフォームを構築しています。ご覧のように、これらはすべてあなたにオープンです。セマンティッククエリAIを前面に備えたAIプラットフォームを構築している場合、NVIDIA Nemoが世界最高です。
これで企業向けのコンピューティングとストレージが得られました。次の部分はAIopsと呼ばれる新しいソフトウェア層です。サプライチェーンにopsがあり、HRにopsがあるように、将来ITにAIopsがあり、データをキュレートします。
モデルを微調整し、モデルを評価し、モデルをガードレールし、モデルを保護します。AIopsエコシステムに統合するために必要な多くのライブラリとモデルがあります。それを市場に出すために私たちを支援する素晴らしいパートナーがいます。
CrowdStrikeが私たちと協力しています。Data IQが私たちと協力しています。Data Robotsが私たちと協力しています。これらはすべて企業でのエージェンティックAIのためのモデルを作成、微調整、展開するAI運用で、NVIDIA のライブラリとモデルがあらゆるところに統合されているのを見ることができます。
Data Robotsです。これはData Stack、これはElasticです。どこかで4000億回ダウンロードされたと聞きました。これはNewonixです。これはRed Hatです。これは台湾のTrend Microです。Evaを先ほど見たと思います。こんにちは、Eva。
待って、いくつかのバイアシズ。これで完了です。これが世界の企業ITに、行うすべてにAIを追加する能力を世界にもたらす方法です。企業IT組織からすべてを引き剥がすつもりはありません。会社は稼働し続けなければならないからです。
しかし、AIを追加できます。そして今、エコシステムパートナー、信じられないエコシステムパートナーと共に企業対応のシステムを持っています。Jeffを先ほど見たと思います。素晴らしいJeff Clark、私が台湾に来ているのと同じくらい長く台湾に来ており、長い間皆さんのパートナーでした。
Jeffがそこにいます。エコシステムパートナー、Dellなどが、これらのプラットフォームを世界の企業ITに持ち込むでしょう。
ロボットについて話しましょう。エージェンティックAI、AIエージェント、それを言う多くの異なる方法でエージェントは本質的にデジタルロボットです。その理由は、ロボットが知覚し、理解し、計画するからで、それは本質的にエージェントが行うことです。
しかし、物理的ロボットも構築したいと思います。これらの物理的ロボットは、まずロボットになることを学ぶ能力から始まります。ロボットになることを学ぶ能力は、物理世界で生産的に行うことはできません。ロボットが良いロボットになる方法を学ぶことができる仮想世界を作成する必要があります。
その仮想世界は物理法則に従わなければなりません。ほとんどの物理エンジンは、忠実度で剛体と軟体のシミュレーションを扱う能力がありません。そこで私たちはDeepMind、Google DeepMindとDisney Researchと提携して、世界で最も先進的な物理エンジンであるNewtonを構築しました。
7月にオープンソース化される予定です。それができることは信じられません。完全にGPU加速されています。微分可能なので、経験から学ぶことができます。非常に高い忠実度です。スーパーリアルタイムで、その新しいエンジンを使用できます。
Mujokoに統合されています。NVIDIA のIsaac simに統合されています。使用するシミュレーション環境とフレームワークに関係なく。これらのロボットを生き生きとさせることができます。
誰がそれを欲しくないでしょうか?私は欲しいです。それらの小さなものの一つ、またはそれらのいくつかが家の周りを走り回り、あなたの犬を追いかけ、狂わせることを想像できますか?それで、何が起こっているのを見ましたか?
それはアニメーションではありませんでした。シミュレーションでした。砂の中、土の中で滑り、滑っていました。すべてシミュレートされました。ロボットのソフトウェアがシミュレーション中で動作していました。アニメ化されたのではありません。シミュレートされたのです。
将来、私たちが訓練したAIモデルを取り、シミュレーション中のそのロボットに入れ、素晴らしいロボットになる方法を学ばせます。私たちはロボティクス産業を支援するためにいくつかのことに取り組んでいます。
私たちがしばらくの間自律システムに取り組んでいることをご存知です。自動運転車には基本的に3つのシステムがあります。AIモデルを作成するためのシステムがあり、それはGB 200、GB300です。それがAIモデルの訓練に使用されます。
次に、AIモデルをシミュレートするためのOmniverseがあります。そのAIモデルが完了したら、そのモデル、AIを自動運転車に入れます。今年、私たちは世界中にMercedes、自動運転車スタック、エンドツーエンドスタックを展開しています。
しかし、私たちはこれらすべてを作成し、市場参入の方法は他のすべての場所で働くのと全く同じです。スタック全体を作成します。スタック全体を開放し、パートナーのために、使いたいものを何でも使います。
私たちのコンピューターを使ってライブラリを使わないかもしれません。私たちのコンピューター、ライブラリ、ランタイムも使うかもしれません。どれだけ使いたいかはあなた次第です。多くの異なるエンジニアリングチームと異なるエンジニアリングスタイル、異なるエンジニアリング能力があるからです。
皆がNVIDIAの技術を統合することを可能な限り簡単にする方法で私たちの技術を提供したいと思います。申し上げたように、私からすべてを購入していただければ大好きですが、ただ私から何かを購入してください。非常に実用的です。
だから車と同じように、ロボティクスシステムでも全く同じことを行っています。これが私たちのIsaac Grootプラットフォームです。シミュレーションはOmniverseと全く同じです。コンピューティング訓練システムは同じです。モデルが完了したら、このIsaac Grootプラットフォーム内に入れます。
Isaac GrootプラットフォームはJetson Thorという真新しいコンピューターから始まります。これは生産を開始したばかりです。信じられないプロセッサーです。基本的にロボティクスプロセッサーで、自動運転車に入り、人間またはロボティクスシステムに入ります。
その上にNVIDIA Isaacと呼ぶオペレーティングシステムがあります。NVIDIA Isaacオペレーティングシステムはランタイムです。すべてのニューロネットワーク処理、センサー処理パイプライン、すべてを行い、作動結果を配信します。
その上に、素晴らしいロボティクスチームで作成した事前訓練済みモデルがあり、これらのモデルを事前訓練しており、これらを作成するのに必要なすべてのツールとモデルを利用可能にします。
今日、Isaac Groot N1.5が現在オープンソース化され、世界に開放されていることを発表します。既に6,000回ダウンロードされており、コミュニティからの人気、いいね、感謝は信じられません。それがモデルの作成です。
モデルの作成方法も開放しています。ロボティクスにおける最大の課題、AI全般における最大の課題は、データ戦略です。データ戦略は、そこに大量の研究と大量の技術が投入される場所です。
ロボティクスの場合、人間のデモンストレーション、子供たちに実演したり、コーチがアスリートに実演するように、テレオペレーションを使用してロボットに実演し、タスクの実行方法をロボットに実演します。ロボットはそのデモンストレーションから一般化できます。
AIは一般化できるからで、一般化のための技術があります。その一つのデモンストレーションから他の技術に一般化できます。このロボットに多くの異なるスキルを教えたい場合はどうしますか?何人の異なるテレオペレーション者が必要でしょうか?
多くいることがわかります。そこで私たちが決定したのは、人間のデモンストレーションシステムを増幅するためにAIを使用することでした。これは本質的にリアルからリアルへ、人間のデモンストレーション中に収集されたデータ量を拡大し、増幅するためにAIを使用してAIモデルを訓練することです。
見てみましょう。汎用ロボティクスの時代が、メカトロニクス、物理AI、組み込みコンピューティングのブレークスルーと共に到来しました。世界的な産業成長を制限する労働力不足にちょうど間に合いました。
ロボット製造者にとっての主要な課題は、モデルを訓練するための大規模で現実的かつ合成データの不足です。人間のデモンストレーションは拡張可能ではなく、一日の時間数によって制限されています。
開発者はNVIDIA Cosmos物理AIワールドファウンデーションモデルを使用してデータを増幅できます。Groot Dreamsは、大規模合成軌道データ生成のため、リアルトゥリアルデータワークフローのためにCosmosに構築されたブループリントです。
まず、開発者は単一環境での単一タスクのテレオペレーションによって記録された人間のデモンストレーションでCosmosを微調整します。次に、画像と新しい指示でモデルにプロンプトし、夢または将来の世界状態を生成します。
Cosmosは生成モデルなので、開発者は新しいテレオペレーションデータをキャプチャすることなく、新しいアクション語を使用してプロンプトできます。大量が生成されると、Cosmosは各夢の品質を推論し評価し、訓練のために最良のものを選択します。
しかし、これらの夢はまだピクセルです。ロボットはアクションから学習します。Groot Dreamsブループリントは、2D夢ビデオから3Dアクション軌道を生成します。これがロボットモデルの訓練に使用されます。
Groot Dreamsにより、ロボットは最小限の手動キャプチャで多種多様な新しいアクションを学習できます。少数の人間デモンストレーターのチームが今や数千人の作業を行うことができます。Groot Dreamsは開発者をロボットデータの課題解決により近づけます。
それは素晴らしくありませんか?ロボティクスが実現するためには、AIが必要です。しかし、AIを教えるためには、AIが必要です。これが多くの合成データ生成、ロボティクス、多くの合成データ生成、スキル学習と呼ばれる微調整、それは多くの強化学習と膨大な量のコンピューティングが必要なエージェントの時代の素晴らしいことです。
これらのAIの訓練、これらの開発、そしてAIの実行には膨大な量のコンピューティングが必要な時代全体です。前述したように、世界には深刻な労働力不足があります。ヒューマノイドロボティクスが非常に重要な理由は、ほぼどこでもブラウンフィールドで展開できる唯一の形のロボットだからです。
グリーンフィールドである必要はありません。私たちが作成した世界に適合できます。私たちが自分たちのために作ったタスクを行うことができます。私たちは自分たちのために世界を工学し、今その世界に適合して私たちを助けるロボットを作成できます。
ヒューマンロボティクスの素晴らしいことは、機能すれば非常に多用途である可能性があるという事実だけではありません。それは機能する可能性が高い唯一のロボットである可能性があります。その理由は、技術にはスケールが必要だからです。
これまでのロボティクスシステムのほとんどは量が少なすぎました。それらの低量システムは、フライホイールを十分速く十分遠くまで回すために技術スケールを達成することは決してないでしょう。そのため、より良くするために十分な技術を投入することに喜んで取り組むことはありません。
しかし、ヒューマンロボットは、次の数兆ドル産業になる可能性があります。技術革新は非常に速く、コンピューティングとデータセンターの消費は膨大です。しかし、これは3つのコンピューターが必要なアプリケーションの一つです。
一つのコンピューターは学習のためのAIです。一つのコンピューターは、AIが仮想環境でロボットになる方法を学ぶことができるシミュレーションエンジンです。そして、その展開もあります。動くものすべてがロボティクスになります。
これらのロボットを工場に投入すると、工場もロボティクスであることを覚えておいてください。今日の工場は非常に複雑です。これはDeltaの製造ラインで、ロボティクスの未来に向けて準備しています。それは既にロボティクスでソフトウェア定義されており、将来はロボットがその中で働くでしょう。
ロボットを創造し設計し、フリートとして、チームとして協力し、同じくロボティクスである工場で一緒に働くために、それらが一緒に働く方法を学ぶためのOmniverseを与えなければなりません。そのデジタルツイン、今はロボットのデジタルツインがあり、すべての機器のデジタルツインがあり、工場のデジタルツインを持つことになります。
これらのネストされたデジタルツインは、Omniverseが行うことができることの一部になります。これはDeltaのデジタルツインです。これはWiiWinのデジタルツインです。今、これを見ているとき、あまりに近くで見すぎると、実際には写真だと思います。これらはすべてデジタルツインです。
すべてシミュレーションです。ただ美しく見えるだけです。画像がただ美しく見えるだけですが、すべてデジタルツインです。これはPegatronのデジタルツインです。これはFoxconのデジタルツインです。これはGigabyteのデジタルツインです。これはQuantaです。これはWistronです。
TSMCは次の製造所のデジタルツインを構築しています。私たちが話している間に、世界中で5兆ドルの工場が計画されています。今後3年間で5兆ドルの新しい工場が、世界が再形成されているため、再工業化が世界中を移動しているためです。
新しい工場がいたるところで建設されています。これは私たちがそれらをよく、コスト効率よく、時間通りに建設することを確実にする私たちにとって巨大な機会です。すべてをデジタルツインに入れることは、本当に素晴らしい最初のステップであり、ロボティクスの未来に向けた準備です。
実際、その5兆ドルの建設には、私たちが建設している新しいタイプの工場は含まれていません。私たちの自身の工場でさえ、デジタルツインに入れます。これはデジタルツインのNVIDIA AI工場です。Gaosongはデジタルツインです。
彼らはGaosongをデジタルツインにしました。既に数十万の建物、数百万マイルの道路があります。だから、はい、Gaosはデジタルツインです。これらすべてを見てみましょう。
台湾はソフトウェア定義製造の先駆者です。TSMC、Foxcon、Wistron、Pegatron、Delta Electronics、Quanta、Wiiwin、GigabyteがNVIDIA Omniverseで製造プロセスのあらゆるステップのデジタルツインを開発しています。
TSMCはMEAIで2D CADから工場全体の3Dレイアウトを生成し、複数階にわたる複雑な配管システムをシミュレートし最適化できるco-opでAIツールを開発し、数か月の時間を節約します。
Quanta、Wistron、Pegatronは物理建設前に新しい施設と生産ラインを仮想的に計画し、ダウンタイムを削減することで数百万のコストを節約します。Pegatronは半田ペースト塗布をシミュレートし、生産欠陥を削減します。
Quantaは多段階プロセスを分析し計画するためにSeamen’s Team Center XとOmniverseを使用します。Foxcon、Wistron、QuantaはCadence Reality Digital Twinでテストデータセンターの電力と冷却効率をシミュレートし、物理AI対応ロボットを開発します。
各企業は、マニピュレーター、AMR、ヒューマノイド、ビジョンAIエージェントがタスクを実行したり、多様なフリートとして協力したりする際に、ロボットを開発、訓練、テスト、シミュレートするロボットジムとしてデジタルツインを使用します。
IoTで物理ツインに接続すると、各デジタルツインはリアルタイムインタラクティブダッシュボードになります。PegatronはNVIDIA Metropolisを使用して、従業員が複雑な技術を学ぶのを助けるAIエージェントを構築します。
台湾は都市にさえデジタルツインを持ち込んでいます。リンカービジョンと高雄市は、予測不可能なシナリオの効果をシミュレートし、都市カメラストリームを監視し、第一対応者に即座にアラートを提供するエージェントを構築するためにデジタルツインを使用します。
産業AIの時代がここにあります。台湾の技術リーダーによって先駆けられました。Omniverseによって動力を与えられます。
私のキーノート全体が皆さんの作品です。とても優秀です。最も先進的な産業、AIとロボティクスが生まれる震源地の中心にある台湾がいることは理にかなっています。これは台湾にとって並外れた機会であることは理にかなっています。
これは世界最大のエレクトロニクス製造地域でもあります。だから、AIとロボティクスが私たちが行うすべてを変換することは理にかなっています。歴史上初めて、皆さんが行う作業がすべての産業を革命化し、今度はそれが皆さんのものを革命化しに戻ってくることは本当に非常に特別です。
最初に私は、GeForceがAIを世界にもたらし、次にAIが戻ってきてGeForceを変換したと言いました。皆さんがAIを世界にもたらしました。AIは今度は戻ってきて、皆さんが行うすべてを変換するでしょう。皆さんと協力することは大きな喜びでした。ありがとうございます。
新製品があります。今日既にいくつかの製品を発表しましたが、発表する新製品があります。しばらくの間、私たちはスペースドックで構築してきて、これまでに構築した最大の製品の一つを公開する時が来たと思います。外で私たちを待って駐車されています。どうなるか見てみましょう。
NVIDIA Constellation。NVIDIA Constellation。ご存知のように、私たちは成長し、皆さんとのすべてのパートナーシップが成長しています。台湾にいるエンジニアの数が増えています。現在のオフィスの限界を超えて成長しています。
だから私は彼らに真新しいNVIDIA台湾オフィスを建設するつもりで、それはNVIDIA Constellationと呼ばれます。サイトも選択してきました。サイトを選択し、すべての市長とすべての異なる都市が私たちに非常に親切で、良い取引ができたと思います。
よくわかりません。かなり高額に見えますが、一等地は一等地です。だから今日、今日NVIDIA Constellationがビート信義で行われることを発表できて非常に嬉しいです。
現在のリース所有者からリースの譲渡を交渉しました。しかし、市長がそのリースを承認するためには、台北の人々が私たちがここに大きく美しいNVIDIA Constellationを建設することを承認するかどうかを知りたがっていることを理解しています。
そうですか?彼はまた皆さんに電話して欲しいと言ったので、皆さんは彼の番号を知っていると確信しています。皆すぐに彼に電話してください。それが素晴らしいアイデアだと思うと彼に伝えてください。
これがNVIDIA Constellationになります。建設します。できるだけ早く建設を開始します。オフィススペースが必要です。NVIDIA Constellation ビート信義。非常にエキサイティングです。
皆さんに感謝したいと思います。長年にわたる皆さんのパートナーシップに感謝したいと思います。私たちは一生に一度の機会にいます。私たちの前にある機会が並外れたものであると言うことは過言ではありません。
私たちの一緒にいるすべての時間で初めて、次世代のITを創造しているだけでなく、私たちはそれを数回行いました。PCからインターネットへ、クラウドへ、モバイルクラウドへ。私たちはそれを数回行いました。
しかし今回は、次世代のITを創造しているだけでなく、実際に全く新しい産業を創造しています。この全く新しい産業は、私たちを前方の巨大な機会にさらすでしょう。
AI工場、企業向けエージェント、ロボット、すべての皆さんの素晴らしいパートナー、一つのアーキテクチャ周りに私たちとエコシステムを構築することで、すべての皆さんとパートナーシップを組むことを楽しみにしています。
今日来てくださったすべての皆さんに感謝したいと思います。皆さん、素晴らしいComputexを。謝謝。来てくださってありがとうございます。ありがとうございます。

コメント

タイトルとURLをコピーしました