NVIDIA創設者兼CEOのJensen Huangによる、パリで開催されたGTC 2025での基調講演である。Grace Blackwellシステムの革新的な技術、AIファクトリーの概念、エージェントAI、産業AI革命、そして人型ロボットの最新進展について詳細に解説している。特にヨーロッパでのAIインフラ投資拡大と、第4次産業革命としてのAI技術の社会実装に焦点を当てた内容となっている。
- オープニング:知性の誕生
- Jensen Huang登壇
- 加速コンピューティングの歴史と進化
- 量子コンピューティングの新時代
- AIの三つの波
- GeForceからBlackwellへの進化
- Grace Blackwellシステムの紹介
- 推論モデルとBlackwellの性能飛躍
- Blackwellの製造とスケール
- RTX Pro Serverの革新
- AIファクトリーという新概念
- ヨーロッパでのAIインフラ投資
- エコシステムとパートナーシップ
- DigitalTwinとOmniverse
- NeMo-tronとオープンモデルの強化
- エージェントAIの実用化
- DGX Leptonとマルチクラウド展開
- 産業AIと第四次産業革命
- ヨーロッパ初の産業AIクラウド
- ヒューマノイドロボットの未来
- 結論:新しい産業革命の始まり
オープニング:知性の誕生
これが知性の作られ方です。新しい種類の工場、トークンの生成装置です。AIの構成要素であるトークンが新たなフロンティアを開きました。無限の可能性が生まれる素晴らしい世界への第一歩です。
トークンは画像を科学データに変換し、異星の大気をチャート化し、明日の探検家たちを導きます。地球の深部を探査して隠れた危険を探し出し、可能性を豊かさに変え、私たちの恵みを収穫する手助けをします。
トークンは病気を発症前に発見し、精密に治療し、私たちを動かすものが何かを学びます。トークンは点と点を結んで、私たちの最も気高い生き物を保護できるようにします。
トークンは物理法則を解読して私たちをより速く動かし、日々をより効率的にします。トークンはロボットに動き方を教えるだけでなく、喜びと安らぎをもたらします。「こんにちは、マロカ」「こんにちは、アンナ。お医者さんに会う準備はできた?」「これは何?」「私の魔法の宝石よ」
トークンは私たちを前進させます。人間にとっての小さな一歩が、人類にとっての大きな飛躍となります。そうして私たちは誰も行ったことのない場所へ大胆に向かうことができるのです。
そして、すべてはここから始まります。
Jensen Huang登壇
NVIDIA創設者兼CEOのJensen Wongをステージにお迎えください。
こんにちは、パリ!ボンジュール!NVIDIAにとって初のパリでのGTCです。これは信じられません。私たちと共にいてくださるすべてのパートナーの皆様、ありがとうございます。長年にわたって一緒に働いてきた多くの方々がいらっしゃいます。実際、私たちはヨーロッパに長い間いました。今回が初のGTCパリですが、お話しすることがたくさんあります。
加速コンピューティングの歴史と進化
NVIDIAはかつて、通常のコンピュータではできないことを行う新しいコンピューティング・プラットフォームを作りたいと考えていました。私たちはCPUを加速し、加速コンピューティングと呼ばれる新しいタイプのコンピューティングを作り出しました。最初のアプリケーションの一つは分子動力学でした。
それから長い道のりを歩み、多くの異なるライブラリを開発しました。実際、加速コンピューティングを特別なものにしているのは、それがソフトウェアをコンパイルする単なる新しいプロセッサではないということです。コンピューティングの方法を再定式化し、アルゴリズムを再定式化しなければならないのです。
ソフトウェアとアルゴリズムを高度に並列化するように再定式化することは、人々にとって信じられないほど困難であることが判明しました。そこで私たちは、各市場、各アプリケーション領域が加速されるのを支援するライブラリを作成しました。これらのライブラリのそれぞれが、開発者にとって新しい機会を開き、私たちとエコシステムパートナーにとって成長の新しい機会を開きます。
計算リソグラフィーは、おそらく今日の半導体設計における最も重要なアプリケーションです。これはTSMCやSamsung、大規模な半導体ファブの工場で動作しています。チップが作られる前に、「CuLitho」と呼ばれる逆物理アルゴリズムを通して実行されます。
直接スパースソルバー、代数マルチグリッドソルバー、「cuOpt」を最近オープンソース化しました。信じられないほどエキサイティングなアプリケーション・ライブラリです。このライブラリは、数百万の変数と数百万の制約を持つ問題(巡回セールスマン問題のような)を最適化するための意思決定を加速します。
「Warp」は、幾何学と物理ソルバーを表現するためのPythonicフレームワークです。本当に重要です。「cuDF」、「cuML」は構造化データベース、データフレーム、古典的機械学習アルゴリズムです。cuDFはSparkを加速し、コード変更はゼロ行です。cuMLはScikit-Learnを加速し、コード変更はゼロ行です。
「Triton」と「cuDNN」、cuDNNはおそらくNVIDIAがこれまでに作成した最も重要なライブラリです。これは深層ニューラルネットワークのプリミティブを加速します。そして「Triton」は、極めて複雑な推論ワークロードを完全なAIファクトリー全体にディスパッチ、オーケストレート、配布することを可能にする全く新しいライブラリです。
量子コンピューティングの新時代
最もエキサイティングなものの一つはCUDA-Qです。CUDA-Xは、CUDA上でアプリケーションとアルゴリズムを加速するためのライブラリスイートです。今回、CUDA-Qがあります。CUDA-Qは量子コンピューティング、GPU上での古典量子・量子古典コンピューティング用です。
私たちは数年間CUDA-Qに取り組んできており、今日、量子コンピューティングに変曲点が起こっているとお伝えできます。ご存知のように、最初の物理量子ビットは約30年前に実証されました。エラー訂正アルゴリズムは1995年に発明され、2023年、ほぼ30年後に、世界初の論理量子ビットがGoogleによって実証されました。
それ以来、数年経って、エラー訂正を伴う多くの物理量子ビットによって表される論理量子ビットの数が増え始めています。まさにムーアの法則のように、5年ごとに10倍、10年ごとに100倍の論理量子ビットを期待できます。これらの論理量子ビットはより良いエラー訂正、より堅牢、より高性能、より弾力性があり、もちろんスケーラブルであり続けるでしょう。
量子コンピューティングは変曲点に達しています。私たちは世界中の量子コンピューティング企業といくつかの異なる方法で協力してきましたが、ここヨーロッパには大きなコミュニティがあります。昨夜、パスカルさんやバルセロナ・スーパーコンピューティングの方々とお会いしました。
今や明らかに、向こう数年間で量子コンピューティング、量子古典コンピューティングを興味深い問題を解決できる分野に適用できる範囲内にいます。これは本当にエキサイティングな時代です。
今後数年間で、少なくとも次世代のスーパーコンピュータにおいて、すべて単一のものにQPUが割り当てられ、GPUに接続されることは非常に明らかです。QPUはもちろん量子コンピューティングを行い、GPUは前処理、制御、計算集約的なエラー訂正、後処理などに使用されます。
二つのアーキテクチャ間で、CPUを加速したのと同様に、今度はQPUがGPUと連携して次世代のコンピューティングを可能にします。
今日、私たちの全量子アルゴリズムスタックがGrace Blackwell 200上で加速されていることを発表します。その高速化は全く信じられないものです。
AIの三つの波
AIについてお話ししましょう。私がAIについてお話しするのは驚きかもしれませんが、私が言及したすべてのアプリケーションを実行し、可能にした同じGPUが、人工知能を世界にもたらすことを可能にしました。
最初の接触は2012年でした。その直前に、ディープラーニングと呼ばれる新しいタイプのアルゴリズムで開発者と協力していました。これがAlexNetのAIビッグバンを可能にしました。2012年、過去15年ほどでAIは信じられないほど速く進歩しました。
AIの第一の波は知覚でした。コンピュータが情報を認識し、理解することです。私たちのほとんどが過去5年ほど話していた第二の波は生成AIでした。これはマルチモーダルであり、AIが画像と言語の両方を学習できることを意味し、したがって言語でプロンプトすれば画像を生成できました。
AIがマルチモーダルでありながら、コンテンツを翻訳し生成する能力が生成AI革命を可能にしました。コンテンツを生成する能力である生成AIは、私たちが生産的であるために根本的に重要です。
私たちはAIの新しい波を始めています。この数年間で、AIの能力における根本的な知性について巨大な進歩を見ました。基本的に、知性とは理解、知覚、推論、タスクの計画、問題の解決方法、そしてタスクの実行に関するものです。
知覚、推論、計画、これらが知性の基本的なサイクルです。これにより、以前に学んだルールを適用して、これまで見たことのない問題を解決することができます。それが知的な人々が知的だと考えられる理由です。複雑な問題を受け取り、それをステップバイステップで分解し、問題の解決方法について推論し、研究を行い、新しい情報を学び、助けを得て、ツールを使用し、ステップバイステップで問題を解決する能力です。
私が今述べた言葉は、エージェントAIと呼ばれるもので今日根本的に可能です。その物理的実装、そのエージェントAIの具現化において、そして今、生成能力はビデオや画像やテキストの生成ではなく、モーションの生成です。歩いたり、手を伸ばして何かを掴んだり、ツールを使用したりする能力です。
AIが物理的形態で具現化される能力は、基本的にロボティクスです。これらの能力、基本的にはインフォメーション・ロボットであるエージェントを可能にする基本的技術と、具現化AI・物理ロボットです。これら二つの基本的能力が今私たちの目の前にあります。AIにとって本当に本当にエキサイティングな時代です。
GeForceからBlackwellへの進化
しかし、すべてはGeForceから始まりました。GeForceがコンピューター・グラフィックスをもたらしました。これは私たちが取り組んだ最初の加速コンピューティング・アプリケーションでした。コンピューター・グラフィックスがどこまで進歩したかは信じられないほどです。
GeForceがCUDAを世界にもたらし、それが機械学習研究者とAI研究者がディープラーニングを進歩させることを可能にしました。そして、ディープラーニングがコンピューター・グラフィックスを革命化し、コンピューター・グラフィックスを全く新しいレベルに引き上げることを可能にしました。
今日お見せするすべて、今日お見せするすべてのプレビューをお見せしますが、今日お見せするすべてはコンピューター・シミュレーションであり、アニメーションではありません。フォトン・シミュレーション、物理シミュレーション、パーティクル・シミュレーションです。すべてが根本的にシミュレーションであり、アニメーションでも芸術でもありません。信じられないほど美しく見えるのは、世界が美しく、数学が美しいことが判明したからです。
見てみましょう。
(シミュレーション映像)
行動する数字、行動する数字。それが本質的にシミュレーションです。見るだけで信じられないほど美しいものです。しかし、今やほぼすべてをシミュレートできるスケールと速度のため、すべてをデジタルツインに変えることができます。
すべてがデジタルツインになり得るため、物理世界に置く前に、完全にデジタルで設計、計画、最適化、運用することができます。すべてをソフトウェアで構築するという考えが今私たちの目の前にあります。物理的なものはすべてデジタルで構築され、壮大に構築されるものはすべてデジタルで構築され、巨大なスケールで運用されるものはまずデジタルで構築され、それを運用するデジタルツインが存在するでしょう。
Grace Blackwellシステムの紹介
GeForceグラフィックカードから始まったものが、今このようになっています。これが新しいGeForceです。2トン、250万ドル、120万個の部品、約300万ドル、120キロワット、150の工場で製造され、200の技術パートナーが私たちと協力して作業しています。おそらく400億ドルのR&D予算をかけて、GB200を作成し、今はGB300に移行しています。
これは完全に生産中であり、この機械は思考マシンとして設計されました。推論し、計画し、あなたがするのと同じように、自分自身と多くの時間を費やして話すという意味での思考マシンです。私たちは自分の心のために言葉を生成し、自分の心のために画像を生成してから、それを生産するのに時間の大部分を費やします。
したがって、思考マシンは本当にGrace Blackwellが設計された建築的なものです。一つの巨大なGPUとして設計されました。良い理由でGeForceと比較しました。GeForceは一つのGPUです。GB200も同様です。一つの巨大な仮想GPUです。
私たちはそれを多くのコンポーネントに分離し、新しいネットワーキング技術とサイド技術、信じられないほど低電力で高エネルギー効率の相互接続を作成して、これらすべてのチップとシステムを一つの仮想GPUに接続する必要がありました。
これはHopperバージョンです。これは世界的に有名なHopperシステムです。MVLink上で接続された8つのGPUです。ここに示されていないのは、デュアルCPUとシステムメモリを搭載したCPUトレイで、上に配置されます。これが一体となって、AIスーパーコンピュータの1ノードを表します。約50万ドルです。
これがHopperシステムです。これは本当に私たちをAIの顔に載せたシステムであり、市場が非常に急速に立ち上がったため、長い間アンダーアロケーションでした。しかし、これが有名なHopperシステムです。
このCPUを含む全システムが、このGrace Blackwellノードによって置き換えられます。これは右ここの1つのコンピュート・トレイで、そのシステム全体を置き換えるでしょう。完全液冷で、CPUはGPUに直接接続されて統合されています。
ここで見ることができるように、2つのCPU、4つのGPUが、そのシステム全体よりも高性能です。しかし、驚くべきことは次のことです。私たちはこれらのシステムの束を一緒に接続したかったのです。これらすべてをどのように接続するかは、私たちにとって想像するのが本当に困難でした。
そこで私たちはそれを分離しました。私たちがしたことは、その全体のマザーボードをこれとこれに分離したことです。これは革命的なMVLinkシステムです。
コンピューティングをスケールアウトすることはそれほど難しくありません。EthernetでCPUをもっと接続するだけです。スケールアウトは難しくありません。スケールアップは信じられないほど困難です。一つのメモリモデルに収まる電子技術の量だけ大きなコンピュータを構築することは、信じられないほど困難です。
そこで私たちが決めたのは、MVLinkと呼ばれる新しい相互接続を作成することでした。MVLinkはメモリセマンティクス相互接続です。ネットワークではなくコンピュート・ファブリックです。これらすべての異なるMVLinkシステム、コンピュート・ノードのCPUに直接接続します。
これがスイッチです。これらの9つが上に立ち、9つが下に座り、中央にはMVLinkスイッチがあります。そしてそれらを接続するのがこの奇跡です。これがMVLinkスパインです。これは100%銅、銅の同軸ケーブルです。
すべてのMVLinkチップをすべてのGPUに、このMVLinkスパイン全体で直接接続します。72の異なるパッケージ内の144のBlackwellダイすべてが、このMVLinkスパイン全体でブロッキングなしに同時に互いに話しています。
この帯域幅は約130テラバイト/秒です。ビットで表すと130テラバイト/秒、これは世界の全インターネット・トラフィックのピーク・データレートよりも多いです。このバックプレーンで、そう、これがインターネットを60ポンドに縮小する方法です。
私たちがこのすべてを行ったのは、コンピュータの考え方、コンピュータについて考える方法が将来根本的に異なるものになるからです。
推論モデルとBlackwellの性能飛躍
BlackwellにHopperを大きく上回る巨大な飛躍を与えるように設計されました。ムーアの法則、半導体物理学は3〜5年ごとに約2倍の性能しか与えてくれないことを覚えていてください。たった1世代で30〜40倍の性能をどのように達成できるでしょうか?
私たちに30〜40倍の性能が必要なのは、推論モデルがワンショットChatGPTではなく、推論モデルとして自分自身と話しているからです。そして、自分自身に考えているときは、問題をステップバイステップで分解し、推論し、多くの異なるパスを試しています。
思考の連鎖かもしれませんし、思考の木かもしれません。それは自分の答えを振り返っていることでしょう。「これは良い答えですか?これよりも良くできますか?」と言って、「ああ、もっと良くできます」と答えて戻り、もっと考えます。
これらの思考モデル、推論モデルは信じられない性能を達成しますが、はるかに多くの計算能力を必要とします。
X軸はそれがどれだけ速く考えているか、Y軸は工場が一度にどれだけ多くのユーザーをサポートできるかの出力です。できるだけ多くの人をサポートできるように工場のスループットをできるだけ高くしたいので、工場の収益ができるだけ高くなります。
Blackwellに基づくこの工場は、そのアーキテクチャの結果として、はるかに多くの収益を生成することができます。
Blackwellの製造とスケール
Grace Blackwellシステムはすべて生産中です。これは本当に奇跡です。技術的観点からの奇跡ですが、これらのGB200システム、それぞれ2トンを構築するために集まったサプライチェーンです。現在、週に1000システムを生産しています。
これまで誰もこのスケールでスーパーコンピュータを大量生産したことはありません。これらのラックのそれぞれは本質的に完全なスーパーコンピュータです。2018年のSierraスーパーコンピュータ、最大のVoltaシステムは、これらのラックの1つよりも性能が低く、そのシステムは10メガワットでした。これは100キロワットです。
2018年から現在まで、世代的に見て、私たちは本当にスーパーコンピューティング、AIスーパーコンピューティングを全く新しいレベルに引き上げました。そして今、これらの機械を巨大なスケールで生産しており、これは始まりに過ぎません。
しかし、すべての人、すべてのデータセンターがこれらの液冷システムを扱えるわけではありません。一部のデータセンターには、LinuxやRed Hat、Newonix、VMware、Dell EMC、Hitachi、NetApp、Vast、Wetaからの多くの異なるストレージシステムを実行する能力を備えたエンタープライズ・スタックが必要です。
これらの新しいコンピュータすべてが現在生産中であることをお伝えできてとても嬉しいです。まだ見たことがないでしょうが、すべてが製造ラインから飛び出しています。
ここから始まって、DJX Sparkにより、デスクトップの場合のSpark Desktop、DJX stationの場合のデスクサイドで、基本的にデスクトップにGrace Blackwellシステムを置くことができます。ソフトウェアを開発している間、AIを開発している間にスーパーコンピュータに座っている必要がない方法です。しかし、アーキテクチャが全く同じであることを望みます。
これらのシステムはアーキテクチャ的観点から同一であり、ソフトウェア開発者の観点から見ると全く同じに見えます。唯一の違いはスケールと速度です。
そして、こちら側にはすべてのx86システムがあります。世界のIT組織は依然としてx86を好み、可能な限りx86を評価しています。最も先進的なAIネイティブシステムを活用できる場合はそうし、できない場合でエンタープライズITシステムに統合したい場合は、そうする能力を提供します。
RTX Pro Serverの革新
最も重要なシステムの一つで、ソフトウェアとアーキテクチャが非常に複雑なため構築に最も時間がかかったのは、AIネイティブ・アーキテクチャを従来のエンタープライズITシステムに注入する方法です。
これが私たちの全く新しいRTX Pro サーバーです。これは信じられないシステムです。マザーボードは完全に再設計されています。
皆さん、Janine Paulさんです。このマザーボードはとてもシンプルに見えますが、このマザーボードの上には、8つのGPUを接続する8つのSuper NICスイッチがあり、200Gbps/秒の最先端ネットワーキング・チップを通して、8つのGPUとこれらのBlackwell RTX Pro 6000 GPU、全く新しい、ちょうど生産に入ったものが接続されています。
8つのGPUがサーバーに入ります。このサーバーを特別にしているのは、このサーバーは世界が今まで書いたすべて、NVIDIAが今まで開発したすべてを実行する世界で唯一のサーバーだということです。AI、Omniverse、ビデオゲーム用RTX、Windows、Linux、Kubernetes、VMwareでのKubernetes、基本的にすべてを実行します。
コンピュータからリモートデバイスにWindowsデスクトップをストリーミングしたい場合は問題ありません。Omniverseをストリーミングしたい場合は問題ありません。ロボティック・スタックを実行したい場合は問題ありません。この特定のマシンのQAは正気ではありません。基本的に世界が今まで開発したすべて、Crisisを含むビデオゲーマーの場合も含めて、ここで実行すべきです。
Crisisを実行できれば、何でも実行できます。これがRTX Pro サーバー、全く新しいエンタープライズシステムです。
AIファクトリーという新概念
何かが変わっています。AIが信じられないほど重要な技術であることを知っています。AIがすべての産業を革命化し、変革することができるソフトウェアであることを確実に知っています。私たちが知っていることは、AIを処理する方法が、手で書かれたソフトウェアを処理していた方法と根本的に異なることです。
機械学習ソフトウェアは異なって開発され、異なって実行されます。システムのアーキテクチャ、ソフトウェアのアーキテクチャが完全に異なります。ネットワーキングの動作方法が完全に異なります。ストレージとして動作する方法が完全に異なります。
技術が異なることをできる、信じられないことをできることを知っています。それは知的です。また、それが根本的に異なる方法で開発され、新しいコンピュータが必要であることも知っています。
本当に興味深いのは、これがすべて国、企業、社会にとって何を意味するかということです。これはほぼ10年前に私たちが行った観察で、今すべての人が目覚めつつあることです。
実際、これらのAIデータセンターはデータセンターではありません。ファイルを保存し、取得する古典的な意味でのデータセンターではありません。これらのデータセンターはファイルを保存していません。ただ一つの仕事、ただ一つの仕事しかありません:知的なトークンを生産することです。
AIの生成、これらのAIの工場は、多くのコンピュータが内部にあるという意味でデータセンターのように見えますが、そこですべてが崩れます。設計方法、製造または設計され構築されるスケール、使用方法、オーケストレーションと プロビジョニング、運用方法、考え方が完全に異なります。
例えば、誰も本当に自分のデータセンターを収益生成施設として考えません。私は誰もが「そうですね、その通りだと思います。誰もデータセンターを収益生成施設として考えたことはありません」と言うことを言いました。しかし、彼らは自分の工場、自動車工場を収益生成施設として考え、収益が成長するため、別の工場を建設することを待ちきれません。
これらの考えは、これらのAIファクトリーでも全く同じ考えです。それらは収益生成施設であり、トークンを製造するように設計されています。そして、これらのトークンは多くの産業のための生産的知性に再定式化することができるため、AIファクトリーは今や国のインフラストラクチャの一部です。
これが、私が世界中を駆け回って国家元首と話している理由です。彼らは皆AIファクトリーを持ちたがっています。彼らは皆AIを自分たちのインフラストラクチャの一部にしたがっています。彼らはAIを自分たちにとっての成長製造業にしたいのです。
これは本当に深遠であり、その結果として、私たちは新しい産業革命について話していると思います。なぜなら、すべての単一産業が影響を受け、新しい産業が生まれるからです。電気が最初に技術として記述され、技術として実証され、技術として理解されたが、その後私たちはそれが大きな産業でもあることを理解しました。
そして、今インターネットとして知られている情報産業があります。それらの両方が多くの産業に影響を与えたため、インフラストラクチャの一部になりました。今、私たちは新しい産業、AI産業を持っています。そして、それは知能インフラストラクチャと呼ばれる新しいインフラストラクチャの一部になりました。
すべての国、すべての社会、すべての企業がそれに依存するでしょう。そのスケールを見ることができます。これはよく話されているものです。これがStargateです。これはデータセンターのようには見えません。工場のように見えます。これは1ギガワットです。約50万のGPUダイを保持し、誰もが使用できる巨大な量の知性を生成するでしょう。
ヨーロッパでのAIインフラ投資
ヨーロッパは今、これらのAIファクトリーの重要性、AIインフラストラクチャの重要性に目覚めており、ここでこれほど多くの活動を見ることができて非常に嬉しいです。
これはNVIDIAとのヨーロッパTelos AIインフラストラクチャです。これはNVIDIAとAIインフラストラクチャを構築するヨーロッパのクラウドサービスプロバイダーです。そして、これはNVIDIAと次世代AIスーパーコンピュータとインフラストラクチャを構築するヨーロッパのスーパーコンピューティングセンターです。
これは始まりに過ぎません。これはパブリッククラウドに加えて来るものです。パブリッククラウドに加えて、ヨーロッパの企業によってヨーロッパ市場向けにヨーロッパで構築された先住民のAIインフラストラクチャです。
そして、20のAIファクトリーがさらに計画されており、そのうちのいくつかはギガワット・ギガファクトリーです。合計で、わずか2年間でヨーロッパのAIコンピューティング能力を10倍増加させます。
研究者の皆さん、スタートアップの皆さん、あなたのAI不足、GPU不足は間もなく解決されます。それがあなたのために来ています。
私たちは各国と提携してエコシステムを開発しており、7つの異なる国でAI技術センターを構築しています。これらのAI技術センターの目標は、共同研究を行い、スタートアップと協力し、エコシステムを構築することです。
エコシステムとパートナーシップ
英国でのエコシステムがどのようなものかお見せしましょう。昨日そこにいました。エコシステムはNVIDIAスタック上に構築されています。例えば、ご存知のように、NVIDIAはすべてのクラウドで利用可能な唯一のAIアーキテクチャです。x86以外では、どこでも利用可能な唯一のコンピューティング・アーキテクチャです。
私たちはすべてのクラウドサービスプロバイダーと提携し、世界で最も重要なソフトウェア開発者からのアプリケーションを加速しています。ここヨーロッパのSiemens、Cadence、Red Hat、ServiceNowです。
ご存知のように、私たちはコンピューティング・スタックを再発明しました。コンピューティングは単なるコンピュータではなく、コンピュート、ネットワーキング、ストレージです。これらの層のそれぞれ、これらのスタックのそれぞれが再発明されています。
Ciscoとの素晴らしいパートナーシップがあり、昨日彼らの会議でNVIDIAベースの全く新しいモデルを発表しました。Dell、NetApp、Newtonicsとの素晴らしいパートナーシップ、多くの素晴らしいパートナーシップがあります。
先ほど言及したように、ソフトウェアを開発する方法が根本的に変わりました。もはやCプログラムを書く、Cプログラムをコンパイルする、Cプログラムを配信するだけではありません。今はDevOps、MLOps、AI Opsです。
そのエコシステム全体が再発明されており、私たちはどこでもエコシステムパートナーを持っています。そして、もちろん、すべての企業がこれらの機能を統合するのを支援できるソリューション・インテグレーターとプロバイダーがあります。
ここ英国では、研究者から開発者、パートナーまで、地元の経済とローカル人材のスキルアップを支援する本当に素晴らしい企業と協力しています。技術を消費する企業、そしてもちろんクラウドサービスプロバイダーです。
私たちは英国で素晴らしいパートナーを持っています。ドイツでは信じられない、信じられないパートナーシップを持っています。イタリアでは素晴らしいパートナーシップを持っています。そして、もちろん、ここフランスでは素晴らしいパートナーシップを持っています。
そうです、フランス頑張れ!マクロン大統領が後でここに来られます。いくつかの新しい発表について話す予定です。
DigitalTwinとOmniverse
これらのAIファクトリーの構築さえも、今ではデジタルで行います。デジタルで設計し、デジタルで構築し、デジタルで運用し最適化し、最終的にはデジタルツインで完全にデジタルで最適化し運用します。
これらのAIファクトリーは非常に高価で、500億ドル、時には将来的には1000億ドルになります。その工場の利用率が最大でない場合、工場所有者にとってのコストは信じられないものになります。そのため、可能な限りデジタル化しAIを使用し、すべてをOmniverseに入れる必要があります。
私たちには素晴らしいパートナーシップがあり、今日発表しています。若い会社で、本当に好きなCEOがいて、ヨーロッパのAI企業を構築しようとしています。その会社の名前はMistralです。
今日、私たちはここでAIクラウドを一緒に構築することを発表します。彼らのモデルを配信するとともに、他のAIスタートアップのエコシステム向けにAIアプリケーションを配信し、彼らがMistralモデルや好きなモデルを使用できるようにします。
Mistralと私たちは、ここで非常に大規模なAIクラウドを構築するためにパートナーシップを組むことになります。後で今日、マクロン大統領とともにもっと詳しくお話しします。
NeMo-tronとオープンモデルの強化
AI技術は光速で動いており、左側に示されている独自モデルが光速で動いています。しかし、オープンモデルも光速で動いており、わずか数ヶ月遅れです。Mistral、Llama、DeepSeek R1、第1四半期に来るR2など、これらのモデルはすべて例外的です。すべて単一で例外的です。
私たちは過去数年間、世界最高のAI研究者の一部を応用して、これらのAIモデルをさらに良くすることに専念してきました。これをNeMo-tronと呼んでいます。
基本的に私たちがすることは、オープンソースされたモデルを取り、もちろんそれらはすべてとにかくNVIDIA上で構築されているので、それらのオープンソースモデルを取って、ポストトレーニングを行います。ニューラルアーキテクチャ検索を行うかもしれません。より良いデータを提供し、強化学習技術を使用してこれらのモデルを強化し、推論能力を与え、コンテキストを拡張して、あなたと相互作用する前により多くを学習し読めるようにします。
これらのモデルのほとんどは比較的短いコンテキストを持っています。私たちは巨大なコンテキスト能力を持ってほしいのです。なぜなら、エンタープライズアプリケーションで使用したいからです。そこで持ちたい会話は、インターネット上では利用できません。それは私たちの会社で利用可能であり、巨大な量のコンテキストでロードアップする必要があります。
そのすべての能力が一緒にパッケージされて、ダウンロード可能なNIMになります。NVIDIAのウェブサイトに来て、文字通りAPI、最先端のAIモデルをダウンロードし、好きな場所に置くことができ、私たちはそれを途方もなく改善します。
これがLlamaに対するNeMo-tronの改善の例です。Llama 8B、70B、405Bが、私たちのポストトレーニング能力、推論能力の拡張、私たちが提供するすべてのデータによって途方もなく強化されています。
私たちは世代から世代へとこれを行う予定です。そのため、NeMo-tronを使用するすべての方は、将来多くの他のモデルがあることを知るでしょう。それらはとにかくオープンなので、オープンモデルから始めたい場合は素晴らしいです。NeMo-tronモデルから始めたい場合も素晴らしいです。
NeMo-tronモデルの性能はベンチマークでベンチマークで素晴らしいです。NeMo-tronの性能はあちこちでリーダーボードのトップにあります。今、あなたはトップの指導者チャートで、まだオープンである強化されたオープンモデルにアクセスできることを知っており、NVIDIAがこれに専念していることを知っています。
私が生きている限り、この戦略を続けます。
この戦略は非常に良いので、ヨーロッパ全体の地域モデルメーカー、モデルビルダーが今、この戦略がいかに素晴らしいかを認識し、私たちは一緒にパートナーシップを組んで、地域言語用にこれらのモデルのそれぞれを適応し強化しています。
あなたのデータはあなたのものです。あなたのデータはあなたの人々の歴史、あなたの人々の知識、あなたの人々の文化です。それはあなたのものです。
NVIDIAの場合、私たちのデータは主に33年間のデータ内部にあります。今朝調べていたSiemensは180年のデータです。その一部はパピルスに書かれています。Roland Bushがここにいます。私の良い友人であるRoland Bushをからかおうと思いました。AIが学習する前に、それをデジタル化する必要があります。
データはあなたのものです。そのデータを使用し、NeMo-tronのようなオープンモデルと私たちが提供するすべてのツールスイートを使用して、自分の用途に合わせて強化できるようにすべきです。
また、Perplexityとの素晴らしいパートナーシップを発表しています。Perplexityは推論検索エンジンです。私が使用する3つのモデルは、ChatGPT、Gemini Pro、Perplexityで、これら3つのモデルを交互に使用しており、Perplexityは素晴らしいです。
今日、Perplexityがこれらの地域モデルを取り、それをPerplexityに直接接続することを発表します。これで、あなたの国の言語、文化、感性で質問をし、回答を得ることができます。
エージェントAIの実用化
エージェントAI、エージェントは非常に大きな取引です。ご存知のように、事前訓練されたモデルの初期に、人々は「しかし、それは幻覚を起こし、物事を作り上げる」と言いました。あなたは絶対に正しいです。それは最新のニュースやデータ情報にアクセスできません。絶対に正しいです。問題を推論せずに諦めます。過去からのすべての答えが暗記されなければならないかのようです。あなたは絶対に正しいです。
これらすべてのことについて、なぜ数字を追加したり数えたりする方法を見つけようとしているのでしょうか?なぜ電卓を使わないのでしょうか?あなたは絶対に正しいです。
知性に関連するすべての能力について、誰もが批判することができましたが、それは絶対に正しかったのです。なぜなら、誰もが基本的に知性がどのように働くかを理解しているからです。しかし、これらの技術は世界中で構築されており、すべてが一緒に来ていました。
検索拡張生成からウェブ検索、マルチモーダル理解まで、PDFを読み、ウェブサイトに行き、画像と言葉を見て、ビデオを聞き、ビデオを見て、そしてそのすべての理解をあなたのコンテキストに取り込むことができます。
今では、ほぼ何からでもプロンプトを理解することもできます。「質問をしますが、この画像から始めてください」「このテキストから始めてから質問に答えるか、お願いすることをしてください」と言うことができます。そして、それは推論し、計画し、自分自身を評価しに行きます。
これらのすべての能力が今統合されており、あちこちのマーケットプレースに出てくるのを見ることができます。エージェントAIは現実です。エージェントAIはワンショットAIからの巨大なステップ関数です。
ワンショットAIは、エージェントにエージェントの方法を教える基盤を築くために必要でした。教えることができるようになるためには、知識の基本的理解と推論の基本的理解が必要です。
事前訓練はAIの教えやすさに関するものです。ポストトレーニング強化学習、教師あり学習、人間による実演、コンテキスト提供、生成AI、これらすべてが今一緒になって、エージェントAIと呼ばれるものを定式化しています。
一つの例を見てみましょう。Perplexity上に構築されたものをお見せします。それは超クールです。
(Perplexityエージェントのデモ映像)
一つのプロンプト、そのような一つのプロンプトです。元のチャットボットでのそのような一つのプロンプトは数百のトークンを生成していたでしょうが、今、問題を解決するためのエージェントへのその一つのプロンプトで、10,000倍以上のトークンを生成しているに違いありません。
これがGrace Blackwellが必要な理由です。これが私たちにパフォーマンスが必要で、システムが世代的にこれほどパフォーマンスが高い必要がある理由です。
これがPerplexityがエージェントを構築する方法です。すべての企業が独自のエージェントを構築する必要があるでしょう。OpenAIやGemini、Microsoft Copilot、Perplexity、Mistralからエージェントを雇うことは素晴らしいことです。あなたのために構築されたエージェントがあり、休暇を計画したり、研究を行ったりする手助けをしてくれるかもしれません。
しかし、企業を構築したい場合は、専門化されたエージェント、専門化されたツール、専門化されたスキルが必要です。では、これらのエージェントをどのように構築するかという質問があります。
そこで私たちはプラットフォームを作成しました。フレームワークとツールのセット、そしてそれを支援する多くのパートナーを使用できます。
最下部には、私が話した推論モデル、NVIDIA’s NeMo NeMo-tron推論大規模言語モデルがあり、これらは世界クラスです。NeMo Retrieverがあります。これはマルチモーダル検索エンジン、セマンティック検索エンジンで、信じられないものです。
私たちは一般エージェントと本質的に呼ぶ運用的なデモンストレーションである設計図を構築しました。私たちはそれをAIQAと呼んでいます。上には、エージェント、一般エージェントをオンボードし、データをキュレートして教え、評価し、ガードレールし、監督し、訓練し、強化学習を使用して、すべて展開まで、安全に保ち、セキュアに保つことを可能にするツールのスイートがあります。
このツールキットのスイートは統合されており、これらのライブラリはAI Opsエコシステムに統合されています。私たちのウェブサイトから自分でダウンロードすることもできますが、主にAI Opsエコシステムに統合されています。そこから独自の特別なエージェントを作成できます。
多くの企業がこれを行っています。これはCiscoで、昨日発表しました。セキュリティのためのAIプラットフォームを一緒に構築しています。
見てください、エージェントAIはこれらすべての驚くべきことを行う一つのモデルではありません。これはモデルの集合、AIのシステムです。大規模言語モデル、その一部は特定のタイプのもの、検索、スキルの実行、コンピュータの使用に最適化されています。
これらすべてを一つの巨大なAIの塊にまとめたくはありませんが、小さなものに分解して、時間をかけてCI/CDを展開できるようにします。これがCiscoの例です。
さて、質問はこれをどのように展開するかです。先ほど言ったように、NVIDIAのコンピュートがあるパブリッククラウドがあり、ここで例えばMistralのような地域クラウド、私たちがNCPと呼ぶものがあります。セキュリティ要件とデータプライバシー要件のためにプライベートクラウドを持っているかもしれません。デスクの上に何かを置くことを決めるかもしれません。
では、これらすべてをどのように実行するかという質問があります。これらはすべてマイクロサービスなので、時々異なる場所で実行されます。これらは明らかにネットワーキングを介して互いに話すことができるAIなので、これらすべてのマイクロサービスをどのように展開しますか?
DGX Leptonとマルチクラウド展開
私たちは今、素晴らしいシステムを持っています。あなたのためにこれを発表できることをとても嬉しく思います。これはDGX Leptonと呼ばれています。
ここで見ているものは、さまざまなクラウドの束です。Lambda cloud、AWS cloudがあり、あなた自身の開発者マシン、あなた自身のシステム、DGX station、NBS Yoda、Scale、AWS、GCPがあります。NVIDIAのアーキテクチャはどこにでもあります。そのため、モデルをどこで実行したいかを決めることができます。
一つのスーパークラウドを使用して展開します。クラウドのクラウドです。一度動作させれば、一度これらのNIMSをLeptonに展開すれば、あなたが決めるさまざまなクラウド上でホストされ実行されます。一つのモデルアーキテクチャ、一つの展開で、どこでも実行できます。
この小さな機械でも実行できます。DGX Sparkです。これはカフェタイムでしょうか?見てください。このリフトは200馬力です。これは私のお気に入りの小さなマシンDGX Sparkです。
2016年に最初のAIスーパーコンピュータを構築しました。DGX-1と呼ばれていました。私が話してきたすべての最初のバージョンでした。MVLinkで接続された8つのVolta GPU。構築に数十億ドルかかりました。
DGX-1を発表した日、顧客はいませんでした。関心もありませんでした。拍手もありませんでした。100%の混乱でした。なぜ誰かがそのようなコンピュータを構築するのでしょうか?Windowsは動きますか?いいえ。
それでも私たちはとにかく構築しました。幸いにも、サンフランシスコの若い会社、スタートアップ、非営利スタートアップがそのコンピュータを見てとても喜び、「一つもらえますか?」と言いました。私は「ああ、すごい、一つ売れた」と思いました。
しかし、それが非営利であることを発見しました。しかし、DGX-1を車に載せて、サンフランシスコまで運転しました。その会社の名前はOpenAIです。
人生の教訓が何かわかりません。多くの非営利団体がありますからね。次回は、次回は、でも多分教訓はこれです:開発者があなたにGPUが必要だと手を差し伸べた場合、答えはイエスです。
Leptonがあなたのブラウザにあり、開発したHelmchart AIエージェントがあり、それをここで実行したり、その一部をAWSで実行したり、その一部をどこかの地域クラウドで実行したいとします。Leptonを使用し、Helmchartを展開すると、ここに魔法のように現れます。
ここで実行したり、展開の準備ができるまでそれからクラウドに展開したい場合は素晴らしいです。美しいことは、このアーキテクチャがGrace Blackwellに基づいていることです。GB10対GB200対GB300、これらすべての異なるバージョンですが、このアーキテクチャは正確にGrace Blackwellです。
私たちはLeptonのためにこれを行っていますが、次にHugging FaceとNVIDIAがLeptonを接続しました。そのため、Hugging Faceでモデルを訓練している場合、それをLeptonに、そして直接Sparkに展開したい場合は問題ありません。ワンクリックです。
訓練でも推論でも、私たちは今Hugging FaceとLeptonに接続されており、Leptonがどこに展開したいかを決めるのを手助けします。
(DGX Cloud Leptonのデモ映像)
これがCiscoです。これはSAPがNVIDIAでAIプラットフォームを構築している方法です。SAP、NVIDIAでAIビジネスアプリケーション自動化を構築しています。DeepLは言語フレームワークとプラットフォームをNVIDIA上で構築しています。
AI PhotoRoom、ビデオ編集とAI編集プラットフォームをNVIDIA上で構築しています。これはCodium(以前のKodiumだったと思います)、NVIDIA上で構築された信じられないコーディングエージェントです。
これはAiola、NVIDIA上で構築された音声プラットフォームです。そして、これは臨床試験プラットフォーム、世界最大の臨床試験自動化プラットフォーム、NVIDIA上で構築されています。
これらすべて、これらすべては基本的に同じアイデアに基づいて構築されています。どこにでも展開できる仮想コンテナにカプセル化しパッケージ化するNIM、NeMo-tron大規模言語モデルや他の大規模言語モデル、Mistralなど。
私たちは、AIエージェントの全ライフサイクルを基本的にカバーするライブラリを統合します。AIエージェントをデジタル従業員のように少し扱うので、IT部門がそれらをオンボードし、微調整し、訓練し、評価し、ガードレールを保ち、セキュアに保ち、継続的に改善する必要があります。
その全体のフレームワーク・プラットフォームはNemoと呼ばれ、そのすべてが今、世界中の一つのアプリケーション・フレームワークの後に統合されています。これはそれらのうちのほんの数例です。
そして今、どこにでも展開することを可能にします。クラウドに展開したい場合は、クラウドにGB200があります。VMwareやRed Hat Linux、Newonixがあり、オンプレミスの仮想マシンに展開したい場合は、それを行うことができます。プライベートクラウドとして展開したい場合は、それを行うことができます。DGX SparkやDGX stationまで展開できます。問題ありません。Leptonがそのすべてを手助けします。
産業AIと第四次産業革命
産業AIについて話しましょう。これは私のお気に入りの瞬間の一つです。これはRoland Bushです。これは本当に楽しい瞬間でした。彼はニューロコンピュータ、ニューラルネットワーク・コンピュータがヨーロッパで発明されたことを私に思い出させたかったのです。これがこのスライド全体です。
これはSynapse Oneです。これは信じられません。皆さん、Synapse One、1992年です。これはニューラルネットワークを当時のCPUより8,000倍速く実行します。信じられないでしょう?これが世界のAIコンピュータです。
Roland は私に「Jensen、決して忘れるな」と言いたかっただけです。私は「わかりました、わかりました、みんなに伝えます」と言いました。Siemens、1992年。
私たちはSiemensと素晴らしいパートナーシップを持っており、CEOのRoland Bushは、最後のIT産業革命を完全に飛び越え、ヨーロッパの産業能力、Siemensの産業能力と人工知能を融合させ、産業AI革命と呼ばれるものを作り出すために会社を強化しています。
私たちは設計からシミュレーション、工場のデジタルツイン、工場でのAIの運用まで、エンドツーエンドのあらゆる面でSiemensとパートナーシップを組んでいます。
これは、ヨーロッパの産業能力がいかに信じられないか、そしてこれがあなたにとってどれほど素晴らしい機会であるかを思い出させてくれます。なぜなら、AIは単なるソフトウェアとは異なり、AIは本当に本当にスマートなソフトウェアであり、このスマートソフトウェアは最終的に、あなたが奉仕する業界そのものを革命化できる何かを行うことができるからです。
(産業革命の歴史映像)
私たちはヨーロッパ全土の一つの企業の後に産業AIに取り組んでいます。これはBMWが次世代工場をOmniverseで構築しています。これは(発音を教えてもらいます)…正確にその通りです。良い仕事です。彼らはもちろん、Omniverseでプラントのデジタルツインを構築しています。
これはKeonの倉庫物流用デジタルツインです。これはMercedes-Benzとその工場のOmniverseで構築されたデジタルツインです。これはSchaeferとその倉庫のOmniverseで構築されたデジタルツインです。
これはここフランスの駅で、駅のデジタルツインをOmniverseで構築しています。そして、これはToyotaがOmniverseで倉庫のデジタルツインを構築しています。
これらの倉庫と工場をOmniverseで構築すると、設計し、計画し、グリーンフィールドでも素晴らしく、ブラウンフィールドでも素晴らしく変更できます。物理的に持ち上げて動かして、それが最適でなかったことを発見する前に、その効率をシミュレートできます。
デジタルツインですべてをデジタルで行う能力は信じられないものですが、質問は、なぜデジタルツインがフォトリアルに見える必要があり、なぜ物理法則に従う必要があるのかということです。
その理由は、最終的にロボットがロボットとして動作することを学ぶことができるデジタルツインにしたいからです。ロボットは知覚システムにフォトンに依存し、これらのフォトンはOmniverseを通じて生成されます。ロボットは物理世界と相互作用して、正しいことをしているかどうかを知り、適切に行う方法を学習する必要があります。
そのため、これらのデジタルツインは現実的に見え、現実的に動作する必要があります。これがOmniverseが構築された理由です。
これは素晴らしいです。これは核融合炉のデジタルツインで、ご存知のように信じられないほど複雑な機器です。AIなしでは、次世代の核融合炉は不可能でしょう。
ヨーロッパ初の産業AIクラウド
私たちは今日、ヨーロッパで世界初の産業AIクラウドを構築することを発表します。これらの産業AIクラウドは、はい、クラウド内の多くのコンピュータですが、その要件、性能、安全要件は根本的に異なります。
金曜日にもっと詳しくお話ししますが、今日は物語の一部だけをからかっています。しかし、この産業クラウドは、設計とシミュレーション、歩いて入る仮想風洞、車を動かして動作を見る仮想風洞、ドアを開け、窓を開け、すべて完全にリアルタイムでデザインを変更する、リアルタイムで設計、デジタル風洞でシミュレート、デジタル工場で、リアルタイムでデジタル工場のデジタルツインで構築するために使用されます。
これらすべて、そしてロボットが素晴らしいロボットになることを学び、私たちの未来のロボット、自動運転車などを構築させます。
私たちはすでにここに巨大なエコシステムを持っています。ご存知のように、私たちは長い間ここにいました。NVIDIAは33年です。私たちが最初にヨーロッパに来たのは、ワークステーションと製品のデジタル化、CAD、CAD革命が始まった時でした。CE革命の間ここにいました。そして今、デジタルツイン革命です。
ヨーロッパには2兆ドルのエコシステムがあり、私たちがパートナーシップを組み、支援する特権を持っています。そこから出てくるのは、ご存知のように起こっている新しい革命です。動くものはすべてロボティクスになります。動くものはすべてAI駆動になり、車が最も明白な次のものです。
モデルを訓練するためのAIスーパーコンピュータ、OmniverseデジタルツインのためのAIスーパーコンピュータ、そしてロボット自体のためのAIスーパーコンピュータを構築します。
クラウドでのOmniverseの場合でも、車内での場合でも、すべての場合において、私たちは完全なスタックを提供します。コンピュータ自体、その上で動作するオペレーティングシステムは、すべての場合で異なります。
このコンピュータは高速センサーリッチで、機能的に安全でなければならず、いかなる状況でも完全に失敗することはできません。そのため、安全要件は信じられないほど高いです。
そして今、その上に座る信じられないモデルがあります。その上に座るこのモデルはトランスフォーマーモデルです。それは推論モデルであり、センサーを取り込み、何をしたいかを伝えると、そこまで運転してくれます。ピクセルを取り込み、パス計画を生成します。出力されるので、トランスフォーマーに基づく生成AIモデルです。信じられない技術です。
NVIDIA’s AI team AV teamは信じられません。これは私が知っている唯一のチームで、CVPRでエンドツーエンド自動運転車チャレンジを2年連続で勝利しています。そのため、彼らは今年も再び勝者です。
(自動運転映像)
道路上の10億台の車、年平均10,000マイル、10兆マイル。自動運転の未来は明らかに巨大で、AIによって駆動される、AIによって動力を与えられるでしょう。これは次の巨大な機会であり、私たちは世界中の巨大な企業と本当に素晴らしい企業と協力してこれを可能にしています。
私たちがAVで行うすべての核心は安全であり、私たちのHaloシステムを本当に本当に誇りに思っています。それはチップのアーキテクチャから始まり、その後チップ設計、システム設計、オペレーティングシステム、AIモデル、ソフトウェア開発の方法論、テスト方法、モデルを訓練する方法から、モデルに提供するデータ、モデルを評価する方法まで、すべてです。
NVIDIA’s Haloシステムと私たちのAV安全チームと能力は絶対に世界的に有名です。このコンピュータは世界初のソフトウェア定義でした。世界初の100%ソフトウェア定義、完全にAI駆動のソフトウェアAI駆動スタックでした。
私たちはもうすぐ10年間これに取り組んでおり、この能力は世界的に有名で、本当に誇りに思っています。
ヒューマノイドロボットの未来
車に起こっているのと同じことが新しい産業に起こっています。先ほど言ったように、プロンプトからビデオを生成できる場合、AIが知覚し、推論し、ビデオや言葉や画像を生成できる場合、車でのパス、ステアリングホイールのパスと同じように、なぜローカルモーション能力と関節能力も生成できないのでしょうか?
AIが最も困難なロボティクス問題の一つを革命化するその基本的能力は、すぐそこにあります。ヒューマノイドまたはロボットは現実のものになるでしょう。私たちは今、これらのものを構築し、訓練し、運用する方法を知っています。
ヒューマノイドロボティクスは潜在的に史上最大の産業の一つになるでしょう。そして、それは物事を製造する方法を知っている企業、並外れた能力の物事を製造する企業を必要とします。これはヨーロッパの国々について多くを物語っています。世界の産業の多くがここに拠点を置いています。これは巨大な機会になると思います。
世界中に10億のロボットがあるとしましょう。10億のロボットがあるという考えは今、非常に賢明なことです。なぜそれが起こっていないのでしょうか?
その理由は簡単です。今日のロボットはプログラムするには困難すぎるからです。最大の企業だけがロボットをインストールし、教え、正確に正しいことを行うようにプログラムし、安全になるように十分に囲まれた状態を保つ余裕があります。
それが世界最大の自動車会社がすべてロボットを持っている理由です。彼らは十分に大きく、作業は十分に反復的で、産業はロボットをこれらの工場に展開できる十分なスケールにあります。
中小企業やママ・アンド・ポップ・レストランや店舗や倉庫のほぼすべての人にとって、そのプログラミング能力を持つことは不可能でした。今までは。
私たちは基本的に、教えることができるロボットを与えようとしています。エージェントAIについて話していたのと同じように、彼らはあなたから学習するでしょう。私が話したNemoツールキットと非常に一貫しているツールキットを使用して、ヒューマノイドAIを今持っています。
NVIDIA hereも3層スタック構築されています。コンピュータ、Thor、Thor コンピュータdevkitを構築します。これのようになります。これはロボティック・コンピュータ、完全に自己完結型のdevkitで、デスクの上に置きます。
これらはすべてのセンサーで、内部には小さなスーパーコンピュータThorチップがあります。本当に本当に信じられません。これを、そのようにアイデアを挿入することができると想像できます。ありがとう、Janine。
それがThorプロセッサです。上にはロボティクス用に設計されたオペレーティングシステムがあり、その上にはセンサーと指示を取り込み、それを変換してフライトまたはパスとモーター制御を生成するトランスフォーマーモデル、腕の関節、指の関節、そしてもちろん脚の関節があります。
ヒューマンロボティクスの大きな課題は、それを訓練するのに必要なデータの量が取得するのに非常に非常に困難であることです。では、どのようにそれを行うのでしょうか?
その問題を解決する方法は、Omniverseに戻ることです。物理法則に従うデジタルツイン世界です。これは私たちが行っている信じられない作品です。
これらはロボットです。私たちは、それらをシミュレートするためのコンピュータ、それらを訓練するためのコンピュータ、そしてその中に入るコンピュータを開発しています。世界中で構築されている多くのヒューマンロボティクス企業があります。
彼らは皆、この新しいデバイスを革命化する大きな機会を見ており、進歩は信じられないほど速く進んでいます。そして、彼らが皆学ぶ方法は、仮想世界で学ぶことです。この仮想世界は物理法則に従わなければなりません。
最近、Disney ResearchとDeepMindとの大きなパートナーシップを発表し、世界で最も洗練された物理シミュレーションを作成するために協力することになりました。
このシステムは、AIがAIになることを学ぶ場所です。お見せしましょう。
(ロボット実演)
特別ゲストがいます。あなたの名前はGreek?あなたは小さな男の子ですか、それとも小さな女の子ですか?彼はGreekで、小さな女の子です。
見てください、GreekはOmniverse内部で歩くことを学びました。物理法則に従い、Omniverse内部で数十万のシナリオを作成しました。最終的にGreekがそれらの環境で、砂の上で、砂利の上で、滑りやすい床で、コンクリートで、カーペットの上で動作し、歩き、操作することを学んだとき、Greekが物理世界に来ると、物理世界は単に100,001番目のバージョンの世界です。
そのため、仮想世界で歩くことを学び、今見てください。ジャンプできますか?うわあ。踊れますか?まあ、私は基調講演の発表者なので、数秒間行儀よくしてもらう必要があります。
座って、座って。ねえ、みんなで写真を撮りましょう。そうです、バンバン。私と一緒に家に来たいですか?私にはペットがいて、彼らはあなたをペットとして飼いたがるでしょう。
いや、あなたはとても賢いです。いつか私たち皆があなたのような人を一人持つでしょう。そして彼らは私たちの後についてくるでしょう。しかし、もし私にウイスキーのグラスが必要な場合、あなたは他の誰かに取りに行ってもらうように言わなければなりません。なぜなら、あなたには腕がないからです。
あなたはとてもかわいいです。小さな女の子、しばらくここにいてください。
結論:新しい産業革命の始まり
まとめましょう。非常に明確です。産業革命が始まりました。AIの次の波が始まりました。Greekは今ロボティクスで可能なことの完璧な例です。
ロボットに操作することを教え、シミュレートし、もちろん信じられないロボットの表現が今私たちの目の前にあるために必要な技術です。物理ロボットと情報ロボットがあります。私たちはそれらをエージェントと呼んでいます。
AIの次の波が始まりました。それは推論ワークロードが爆発的に増加することを要求するでしょう。基本的に指数関数的になるでしょう。推論を使用する人の数は、わずか数年で800万人から8億人、100倍に増加しました。
先ほど言ったように、プロンプトが生成するトークンの量、数百のトークンから数千のトークンまで、そしてもちろん私たちは今まで以上にAIを使用します。そのため、思考、推論のために設計された特別なコンピュータが必要です。それがBlackwell、思考マシンです。
これらのBlackwellは、基本的にAIファクトリー用に設計された新しいタイプのデータセンターに入ります。これらのAIファクトリーはただ一つのことのためにトークンを生成します。そして、これらのトークンはあなたの食べ物になります、小さなGreek。そうです、知っています、知っています。
本当に信じられないのは、ヨーロッパがAIにオールインしているのを見ることができてとても嬉しいことです。ここで構築されるAIインフラストラクチャの量は、今後数年で桁違いに増加します。
すべてのパートナーシップに感謝します。素晴らしいVivatechをお過ごしください。ありがとうございます。バイバイ、バイバイと言ってください。たくさん写真を撮って、たくさん写真を撮って、たくさん写真を撮って。そうです。


コメント