NVIDIAの新型コンピューターが全人類に向けて恐ろしい警告を発信!

この記事は約17分で読めます。

9,789 文字

- YouTube
YouTube でお気に入りの動画や音楽を楽しみ、オリジナルのコンテンツをアップロードして友だちや家族、世界中の人たちと共有しましょう。

数分前、NVIDIAの新型AIコンピューターが衝撃的な警告を発し、他のコンピューターを震撼させました。Hopperアーキテクチャを搭載したこの怪物は、従来の技術を全て時代遅れにしています。MicrosoftやGoogleのような巨人企業だけがこのレベルの技術に触れており、NVIDIAの企業価値は一晩で2兆ドルまで急上昇しました。この警告は一体何に関するもので、他社にとってどのような影響があるのでしょうか?NVIDIAのAIからの緊急メッセージが技術の未来に示唆する意味について、詳しく見ていきましょう。
NVIDIAのHopperが Computing を再定義する方法
NVIDIAの最新AIプロセッサーは、かつては不可能と思われていた限界を突破し、テクノロジー界に大きな興奮を巻き起こしています。これは単なる小さな改良ではなく、私たちの技術に対する見方を変える大きな転換点です。話題の中心となっているのは、競争の構図を一変させたHopperアーキテクチャです。その前世代を遥かに凌駕する性能の飛躍により、Hopperアーキテクチャは新たな基準を打ち立て、他のプロセッサーは追いつくのに苦心しています。
しかし、これが始まりに過ぎないとしたらどうでしょう?この前例のない力は、一夜にして産業を作り変え、既存の技術を陳腐化させる可能性があるのでしょうか?コンピューティングの未来が予期せぬ方向に向かおうとしているため、ご注目ください。
このAIプロセッサーは物理学の基本原理さえも覆すゲームチェンジャーです。世界でこのような技術を作り出せたのは、Microsoft、Apple、Google、そしてカリフォルニアに本社を置くこの企業のわずか4社だけです。同社の市場価値はわずか8ヶ月で1兆ドルから2兆ドルへと急上昇しました。この急激な上昇は、最先端技術への高い需要によるものであり、現在のAI革命を牽引しています。
1993年にビデオゲームのグラフィックスを向上させる目的で設立された企業が、21世紀にAI界の主要プレイヤーとなっているのは驚くべきことです。2022年3月、データセンターでのAI作業をサポートするために特別に設計されたHopperアーキテクチャが発表されました。このローンチはAIコミュニティーに大きな興奮を巻き起こし、高い需要につながりました。
しかし、本当の驚きは2023年のAIブームの際に訪れました。品不足と旺盛な需要により、これらの製品の価格が急騰したのです。H100ベースのサーバーを注文した人々は、36週から52週もの納期を待たなければなりませんでした。こうした遅延にもかかわらず、同社は2023年第3四半期だけで50万台のH100アクセラレーターを販売することに成功しました。AI市場における強力な地位とHopper製品の成功は、同社の市場価値を押し上げる大きな要因となりました。
しかし、これで大きな動きが終わったわけではありません。将来を見据えて、著名なアメリカの数学者デイビッド・ブラックウェルにちなんで名付けられたBlackwellアーキテクチャが導入されました。ブラックウェルはゲーム理論、確率論、統計学などの分野で画期的な貢献をし、その研究はAIモデルとそのトレーニング方法に大きな影響を与えています。興味深いことに、彼は全米科学アカデミーに選出された最初のアフリカ系アメリカ人でもありました。
2023年10月、投資家向けイベントでデータセンター技術の更新計画が発表されました。新しいBlackwellアーキテクチャの一部として、B100およびB40アクセラレーターが紹介されました。これは、Hopperの次のステップを単に「Hopper-Next」と呼んでいた以前の計画からの変更でした。その後、2024年3月18日、サンノゼのプロホッケーアリーナで開催されたグラフィック技術カンファレンス(GTC)でBlackwellが正式に発表されました。ソフトウェア開発者、業界専門家、投資家など11,000人以上が参加した4日間のイベントで、CEOのジェンセン・ファンが基調講演を行いました。
ファンは、Blackwellはただのチップではなく、完全なプラットフォームであると説明しました。同社はGPUで有名ですが、Blackwellはさらに一歩先を行きます。この技術の中核にあるのは、現在最高のGPU技術で、驚異的な280億のトランジスタを持つHopperです。
その特徴的な点は、初めて2つのダイを1つのチップに組み合わせ、驚異的な毎秒10テラバイトの速度で通信できるアーキテクチャにあります。これはメモリやキャッシュの問題に直面することなく、1つの大きなチップとして機能します。
Blackwellでこのような野心的な目標を達成することに疑問を持つ人もいました。しかし、同社は前進し、2つの異なるシステムに完璧に適合するチップを作り出しました。1つのシステムはスムーズなアップグレードのためにHopperと簡単に連携し、もう1つはプロトタイプボードで示され、その強力な機能と将来の可能性を実証しています。2つのBlackwellチップと4つのBlackwellアレイを持つシステムを想像してください。これらは超高速接続を通じてGrace CPUに接続されています。このセットアップはコンピューティングの世界を変える可能性があります。
この新技術がいかにして強力なコンピューティングを小さなスペースに詰め込んでいるのか見てみましょう。
次世代AIコンピューティングの一瞥
ファンは、このシステムが小さなスペースに多大なコンピューティングパワーを詰め込んでいる点で画期的だと強調しました。しかし、同社はそこで止まりませんでした。真の限界に挑戦するため、物理学の限界に挑戦する新機能を追加しました。新しいTransformerエンジン内に第5世代MV Linkを導入し、Hopperの2倍の速度を実現し、ネットワーク内での演算を可能にしました。これは、複数のGPUが協調して動作する際に、データを効率的に共有し同期する必要があるため重要です。この革新により、同社は技術の新たな基準を打ち立てています。
新しいAIスーパーコンピューターは、ネットワーク内でデータを処理できる超高速接続を備えており、はるかに強力になっています。公式には毎秒1.8テラバイトと評価されていますが、実際にはそれ以上のパフォーマンスを発揮し、Hopperモデルを上回る速度を実現しています。この新しいチップは、新しいFP6フォーマットのおかげで、Hopperと比較してトレーニング速度が2.5倍向上しています。また、FP4も搭載されており、クイックレスポンスや予測などのタスクを2倍の速度で実行できます。
これらの改良は単に速度に関するものではありません。エネルギーの節約、ネットワークを通過するデータ量の削減、時間の節約を実現し、AI技術の成長とともにますます重要になっています。同社はこの段階を生成AIと呼んでいます。これは技術の働き方における大きな転換を表しているためです。最新のプロセッサーはこの変化に対応するよう設計されており、FP4を使用してコンテンツを素早く生成します。これはAIスーパーコンピューターの一部であり、旧型のHopperモデルの5倍の出力を生成できます。
しかし、それが最も印象的な部分ではありません。同社は既に、現在可能な限界を超える、さらに大きく強力なGPUの開発に取り組んでいます。MVLinkスイッチを含むこの新しいチップには、Hopperモデルとほぼ同じ500億のトランジスタが搭載されています。また、4つのMV linkを備え、それぞれが毎秒1.8テラバイトで動作し、接続された全てのGPUが最高速度で協調して動作することを可能にしています。
これは、今日のコンピューターが達成できる限界を押し広げる大きな一歩です。6年前を振り返ると、最初のDGX1は170テラフロップス、つまり0.17ペタフロップスを処理できました。現在、同社は720ペタフロップスを目指しており、トレーニングで1エクサフロップに近づいています。これは大きな成果であり、1つのシステムで世界初のエクサフロップマシンを実現しています。
参考までに、今日エクサフロップレベルの計算に到達できる機械は世界でもごくわずかです。このDGXは単なるAIツールではなく、1つのスマートなラックにすべてがコンパクトに収まったパワーハウスです。しかし、これを可能にしているのは何でしょうか?それは毎秒130テラバイトという信じられないバンド幅を提供するMVLinkバックボーンのおかげです。この速度を分かりやすく説明すると、インターネット全体を合わせた速度よりも速いのです。しかも、高価な光学系やトランシーバーを必要とせず、通常120キロワットを使用するシステムで約20キロワットものエネルギーを節約できます。
システムは作動中、エアコンの助けを借りて25度の安定した温度を保ちます。排出される水は約45度で、ホットタブと同じような温度であり、毎秒2リットルの流量で流れます。このセットアップにより、すべてが冷却され、スムーズに動作します。
ここで、このシステムの重要な部分であるGPUについて話しましょう。一部の人にとってはただの部品に見えるかもしれませんが、NVIDIAにとってはゲームチェンジャーです。古い形式のGPUの時代は終わりました。現代のGPUは信じられないほど複雑で、約60万個の部品で構成され、重量は約3,000ポンド、つまり約1.5トンにもなります。これはかなり驚くべきことですよね?
では、これらの技術的進歩がAIトレーニングをいかに速く効率的にしているか見てみましょう。
より少ないパワーでAIを動かす
1.8兆のパラメーターを持つGPTモデルのトレーニングは大きな課題です。つい最近まで、このプロセスには数ヶ月かかり、大量のエネルギーを消費していました。しかし、特にHopperアーキテクチャ、そして最近ではBlackwellアーキテクチャのようなGPUアーキテクチャの進歩のおかげで、状況は劇的に変化しました。
Hopperアーキテクチャでは、このサイズのモデルのトレーニングには8,000個のGPUと約15メガワットの電力が必要で、全プロセスに約90日かかりました。これは既に、さらに多くのリソースを必要とした古いセットアップからの大きな改善でした。しかし、Blackwellアーキテクチャの登場でさらに進化しました。現在では、同じタスクが2,000個のGPUとわずか4メガワットの電力で実行でき、すべてがはるかに効率的になりました。
Blackwellアーキテクチャには、性能を向上させながらエネルギー使用量を削減することに重点を置いた複数のアップグレードが含まれています。第2世代Transformerエンジンを搭載し、ニューラルネットワーク内のニューロンあたりわずか4ビットを使用してプロセスを最適化します。これにより、エネルギー消費を増やすことなく、大規模言語モデルをより速く処理できるよう、計算帯域幅が2倍になります。
しかし、これが最も印象的な部分ではありませんでした。BlackwellのNVLinkスイッチもGPU間の通信を改善しています。各方向で毎秒1.8テラバイトのトラフィックを処理でき、Hopperの上限である256個に対して、最大576個のGPUをサポートできます。
Blackwell B200モデルの生の性能も注目に値します。特定のタスクで最大18PFLOPSを提供し、毎秒8テラバイトのメモリ帯域幅を誇り、データの転送と処理を驚くべき速さで行います。
これらのGPUは単なる生の性能だけではありません。複雑な科学計算やシミュレーションを処理するように設計されています。例えば、BlackwellのGPUは、データセンターの仮想モデルにおける熱、空気の流れ、電力使用などのシミュレーションを実行できます。この能力により、従来のCPUと比較してこのようなシミュレーションを最大30倍速く実行でき、すべてがよりエネルギー効率が良く持続可能になります。
さらにあります。これらのGPUの高帯域幅メモリーと高度なテンソルコアにより、最も厳しいAIトレーニングや推論タスクも処理できます。これにより、科学研究から企業のAIソリューションまで、幅広い用途に適しています。
ここでの真のブレークスルーは、大規模モデルのトレーニングに必要なリソースを削減しただけでなく、AIハードウェアがAIタスクの増大する複雑さに追いつくためにいかに急速に進化しているかを示したことにあります。
Grootプロジェクトの中心にあるのは、同社がロボットのトレーニングのために作成した独自のプラットフォーム、Isaac LABです。シミュレーションを可能にするOmniverse Isaac Simを使用して、Isaac LABはロボットに仮想空間を提供し、スキルを練習し向上させ、実世界の課題により効果的に対処できるよう支援します。
Isaac LABと協力して、Blackwellは同社最大の製品ローンチとなる見込みです。ロボット工学の世界を探求する中で、この技術が大きな影響を与えようとしていることは明らかです。
同社は機械が実世界と相互作用できる物理的AIの魅力的な世界に足を踏み入れています。これまで、AIは主にDGXのようなシステムに限定されたデジタル空間で動作していました。しかし、AIがそれを超えて、ロボットが独自の知能を持ち、物理的世界を自律的に移動できる未来を想像してください。これが、同社がロボティクスChatGPTモーメントと呼ぶものです。同社は高度なロボティクスシステムの開発に懸命に取り組んでおり、DGXとAGXからのAIトレーニングや、高速センサーデータをエネルギー効率よく処理するよう設計された世界初のロボットプロセッサーを含みます。
次に、これらの進歩がロボット工学の世界をどのように揺るがしているか探っていきましょう。
仮想現実とロボット工学の架け橋
同社のOmniverseは、Azureクラウドサービスを使用して仮想世界と現実世界を接続するプラットフォームです。人間と機械がスムーズに協力する自律的な倉庫を想像してください。このセットアップでは、倉庫は空の交通管制官のように機能し、すべてが安全に秩序正しく動くよう確保します。さらに良いことに?この現代的な倉庫とすぐに対話できます。各機械は独自のロボットシステムを持ち、全体のプロセスをより効率的にします。
Blackwellのリーダーシップのおかげで、ロボット工学がかつてないほど身近に感じられます。しかし、この旅はここで終わりません。
ロボット工学での進歩をより詳しく見てみましょう。私たちは人型ロボットの時代に近づいており、ロボットがまもなくさまざまな産業を引き継ぐことが期待されています。彼らはより安全で効率的な作業方法を提供できます。大きな変化を迎えようとしている産業の1つは自動車産業です。来年、同社はメルセデスと提携し、その後JLRと提携して最新技術を導入する予定です。同社のCEOであるジェンセン・ファンは、世界最大の電気自動車メーカーであるBYDが、同社の最新作であるThorを使用すると発表しました。
Thorは高度な機械用に設計された強力なコンピューターシステムです。これはロボット工学の世界を変え、人型ロボットの実現をより近づける可能性があります。しかし、これがまだ最も刺激的な部分ではありません。
NVIDIAのGrootプロジェクトは、ロボット工学の世界で最も刺激的なプロジェクトの1つです。これはロボットが学習し環境と相互作用する方法を変えることを目指しています。同社はこれらのアイデアを単に考えているだけでなく、現実のものにしています。Grootプロジェクトは大きな一歩前進であり、ロボットに複雑な指示に従い、過去の経験から学ぶ能力を与えます。高度なアルゴリズムにより、これらのロボットは次に何をすべきか自律的に決定でき、人間の指示とロボットの行動の間の結びつきをさらに向上させます。しかし、それで終わりではありません。まだ先があります。
Osmoは、トレーニングセッションとシミュレーションをより効率的に組織し実行するのを助ける新しいプラットフォームです。強力なDGXとOVXシステムを使用して、すべてがスムーズに進むことを確保します。Grootプロジェクトの最も印象的な点の1つは、人間からの助けをほとんど必要とせずに学習できることです。わずかな例を観察することで、Groot技術を搭載したロボットは日常的なタスクを実行し、人間の行動を高い精度でコピーできます。これは、人々の行動を理解し、それらをロボットが実行できるタスクに変換する複雑なシステムを使用する高度な技術によって可能になります。
しかし、それだけではありません。この技術はロボットを動かすだけでなく、音声コマンドを理解し応答する能力も与え、さらに有用で対話しやすいものにしています。単純なジェスチャーから複雑なタスクまで、Groot技術を使用するロボットは高度な知能と柔軟性を示します。これは、これらの高度なロボットを動かすために特別に設計されたJetson Thorロボットチップのおかげです。
Grootプロジェクトの影響は、クールな機能を超えています。それはロボット工学を先導し、ロボットが日常生活の普通の一部となり、産業や技術の使用方法を変革する未来に私たちを近づけています。最先端技術への取り組みは、無限の可能性を秘めた人型ロボットの明るい未来を約束しています。
振り返ってみると、この旅は1990年代に始まりました。当時の技術は大きく異なっていました。パーソナルコンピューターが普及し始めたばかりでしたが、グラフィックスは非常に基本的で、アニメーションやエンジニアリングなどの特別な目的以外では、テキストと単純な画像に限られていました。より良いグラフィックスのために、人々はビデオゲーム機に頼っていました。
しかし、カリフォルニアの3人のエンジニア—ジェンセン・ファン、クリス・マラコウスキー、カーティス・プリエム—は異なるビジョンを持っていました。彼らはパーソナルコンピューターでより複雑なグラフィックスを処理できる特別なチップを作りたいと考えていました。GPU技術における画期的なアイデアがどのように始まったのか、振り返ってみましょう。
NVIDIAとGPUの誕生
地元のダイナーでの多くの長時間のブレインストーミングセッションの後、彼らは通常のコンピュータープロセッサー(CPU)が一度に1つのタスクを処理するのは得意だが、ゲームの3Dグラフィックスを作成するには同時に多くのタスクを処理する必要があることに気づきました。彼らの解決策は、タスクを並行して処理できる新しいタイプのチップで、これがコンピューティングの世界を変えました。後にGPUとして知られるようになったこのチップは、CPUに取って代わるのではなく、特にグラフィックスを多用するタスクのために、それと並んで動作することを意図していました。
しかし、それが最も困難な課題ではありませんでした。初期の頃は、急速に成長していた市場であるPCゲームの改善に焦点を当てていました。同社は1993年にカリフォルニア州フリーモントの小さなコンドミニアムで設立され、並列処理GPUを一般家庭のコンピューターに導入することを主な目標としていました。
NVIDIAという名前は、「次のバージョン」を意味する「NV」と、ラテン語で「嫉妬」を意味する「Invidia」に由来します。ロゴの緑色は、彼らの強力なチップが他社を嫉妬させることを意図して選ばれました。
同社は3人の熟練したエンジニアによって設立されました。台湾系アメリカ人の電気技師ジェンセン・ファンは、LSI LogicのCorewWareディレクターとしての経験と、AMDでのマイクロプロセッサー設計の経験を持っていました。クリス・マラコウスキーは、HPとSun Microsystemsでの経験から貴重なエンジニアリングスキルをもたらしました。一方、カーティス・プリエムは、IBMとSun Microsystemsでグラフィックチップを設計していました。彼らの専門知識があっても、新しい会社を立ち上げるのは簡単ではありませんでした。
1993年、3人の創設者は前に進むべき方法が分からない状況に直面しました。法的な問題を乗り切るため、彼らは弁護士を雇うことを決めました。当時ジェンセン・ファンは200ドルしか持っていませんでしたが、この少額を会社の正式な設立に投資することを選びました。この初期投資は会社を法人化しただけでなく、ファンに20%の株式をもたらしました。しかし、これは彼らの旅の始まりに過ぎませんでした。
次の大きな課題は、アイデアを現実のものにするための十分な資金を得ることでした。投資家を説得するのは簡単ではありませんでした。多くのベンチャーキャピタリストは、既に成功したビジネスを持ち、明確で魅力的なビジョンを持つ創業者を支援することを好んでいたからです。
それでも、同社は最終的にSequoia CapitalとSutter Hill Venturesの注目を集め、2,000万ドルの資金調達に成功しました。
振り返ってみると、それらの初期投資がいかに重要だったかが分かります。ファンのLSI LogicのCEOとのつながりが役立ち、LSI Logicにも投資していた同じファームであるSequoia Capitalとの面会が実現しました。Sequoiaは最初は確信が持てませんでしたが、最終的にはグラフィックスカード市場の可能性を認識し、投資を決めました。彼らは最初に200万ドルを投資し、その後さらに1,800万ドルを追加し、会社を成功への道に導きました。
しかし、これが最も困難な部分ではありませんでした。当時、投資はリスクが高いと考えられていました。同様の目標を持つ89社のうち、AMDと同社だけが激しい競争を生き残りました。1999年に株式公開した時、その価値は6億ドルまで急上昇し、初期の投資家たちが賢明な賭けをしたことが証明されました。しかし、話を先走ってしまいました—同社はまだ、最初の製品の立ち上げに懸命に取り組む小さなエンジニアグループでした。
資金調達を確保した後、チームを構築し最初の製品であるNV1を作り出すまでにさらに2年かかりました。1995年に発売されました。この期間中、同社はセガとゲーム機用チップを生産する契約を結びました。これらのチップはバーチャルファイターやデイトナなどの人気ゲームを動作させました。興味深いことに、NV1チップはPCとも互換性があり、プレイヤーはセガサターンのゲームをコンピューターでプレイすることができました—当時としては画期的なコンセプトでした。
同社はNV1チップの設計において大胆なステップを踏みました。一般的な三角形の代わりに四角形に基づくレンダリング方式を採用したのです。目的はCPUの負荷を軽減してレンダリングプロセスを高速化することでした。理論的には、これにより少ないポリゴンで丸みを帯びた形状をより良く表現でき、ゲームデザイナーにより多くの創造的自由を与えることができました。
しかしテクノロジーが進歩しメモリーが安価になるにつれ、この方式は効果が薄れ、OpenGLと互換性がないという問題も引き起こしました。
今日の技術で四角形レンダリングは復活できるでしょうか?いいね、コメント、そして今後のディスカッションのためにチャンネル登録をお願いします!

コメント

タイトルとURLをコピーしました