NVIDIAによるGroq買収は、単なる企業買収ではなく、AI業界における新たな戦略的トレンドを象徴する出来事である。本取引は、ライセンス契約とアクハイア(人材獲得)を組み合わせた構造を採用しており、従来の完全買収とは異なるアプローチを示している。背景には、AI推論ワークロードにおけるメモリ帯域幅の制約という技術的課題があり、特に高帯域幅メモリ(HBM)とオンチップSRAMの戦略的重要性が増している。Groqは大量のSRAMをチップ上に搭載することで低レイテンシな推論を実現する技術を持ち、NVIDIAはこの技術と人材を獲得することで推論市場における競争力を強化しようとしている。また、この取引構造は従業員の報酬体系やシリコンバレーの「エグジット」概念を変容させつつあり、AI競争において人材、技術、供給網の確保が垂直統合的に進行していることを示している。

NVIDIAによるGroq買収の真相
今週、唯一重要だったニュースは、Groq(Qで終わる方)の話でした。Grok(Kで終わる方)ではありません。AIモデル企業のことではないのです。Groq(Qで終わる方)は、チップ上での推論とメモリに特化した企業です。このGroqがNVIDIAに「買収された」と報じられました。ここで引用符を使ったのは、この話がはるかに複雑だからです。
これは2026年を決定づける動きの一つです。2025年の終わりに起きています。多くの人がホリデーシーズンや休暇に注目している時期だと思いますが、この話を見逃さないようにしたいのです。なぜなら、これから数ヶ月間、私たちがAIの世界で生きる環境を形作ることになるからです。
まず、Groqは実際に何を発表したのでしょうか。第一に、GroqはNVIDIAとの間で、Groqの推論技術に関する非独占的ライセンス契約を発表しました。そして同じ発表の中で、創業者のジョナサン・ロスと社長のスノニー・マドラ、そして他のチームメンバー数名が、この取引の一環としてNVIDIAに移籍すると述べました。これが取引のアクハイア(人材獲得)部分です。
Groqはまた、独立を維持するとも述べ、サイモン・エドワーズをCEOに指名し、同社の製品の一つであるGroq Cloudは継続すると発表しました。これは単純な買収ではありません。何か別のものなのです。能力の移転です。脳移植のようなもので、明確な支配権の変更イベントではないのです。
ライセンスとアクハイアの仕組み
では、ゆっくり見ていきましょう。実際に何が起きているのか定義しましょう。なぜなら、この取引のメカニズムこそが重要だからです。ライセンスとは明らかに、ある企業が別の企業の技術を使用する権利に対して支払うことを意味します。非独占的とは、売り手が同じ技術を他の当事者にもライセンスできることを意味します。書類上は企業買収ではないわけです。
そして、買収のように感じさせる別の要素があります。それがアクハイアです。アクハイアとは、買収される本当の資産がチームである場合のことです。主要なリーダー、主要なエンジニアたちで、彼らが会社の収益よりも、会社の製品よりも、何らかの形で重要なのです。
歴史的には、そのような買収は完全な企業買収を通じてのみ行われてきました。例えば、MetaがWhatsAppを買収したときのような完全買収取引です。ここで新しいのは、チームを雇用することが、フロンティアAI企業がAI分野の小規模スタートアップを取り込もうとするときに実行する戦略の一部になっているということです。
彼らはチームを雇用し、技術をライセンスし、一方で他の誰かの仕事はスタートアップの法人の殻を生かし続けることです。Reutersが正しく指摘したことの一つは、これが大手テック企業が単純な買収の代わりにこのようなライセンスと雇用の構造を使用しているという広範なトレンドの一部だということです。
そしてこれが重要なのは、スタートアップと従業員にとって「エグジット」という言葉の意味を変えるからです。以前は、スタートアップの話は本当にシンプルでした。エグジットイベントがあれば、公開市場に行くにせよ、民間企業に買収されるにせよ、会社は所有者が変わります。支配権の変更イベントがあり、それに関連するすべての株式トリガーが発生し、つまり従業員は、当時株式を持っていれば、会社で過ごした時間に対して何らかの報酬を得ることになります。
しかし今、これらすべてが異なります。Groqに残る従業員が何かを得るのかどうか、得るとしても何を得るのかは不明確です。そしてこれが起きたのはこれが初めてではありません。何度か起きています。これは大企業が重要な人材を掴んで自社の法人体に引き込むための方法になりつつあり、規制審査を引き起こさないという利点があります。戦略としては理解できますが、シリコンバレーのエグジットと文化の観点からは非常に厄介な状況を残します。
AI競争における人材の価値
そしてこれは、競争がどこに向かっているかについて、明白ではない何かを私たちに教えてくれます。少数の価値ある人材が企業全体よりも価値があることは、しばらく前から分かっていました。これは市場がミラ・ムラティについて語ったことです。彼女がOpenAIを去り、自分のビジネスを立ち上げ、名前だけで巨額のシードラウンドを獲得しました。
これは市場がイリヤ・サツケヴァーについても語ったことです。Safe Superintelligenceを立ち上げ、巨額のラウンドを獲得しました。非常に似ています。法人の殻が収容できる以上の価値を持つ人々がいるのです。そしてフロンティアAI企業が理解していることの一つは、彼らは技術や会社に付随する資産、キャップテーブル、何よりも人材を船に乗せたいということです。彼らはただ人材が欲しいのです。そしてこれはそれを実現する非常にクリーンな方法です。
皮肉なことに、私たちが「計算資源に制約されている」と言うとき、実は「人材に制約されている」のではないかと思うことがあります。AIを前進させることができる少数の人々がいて、彼らは自分が言いたいと思う価値があるのです。そしてそれが現時点で前進する上での本当の障壁なのです。興味深い考えです。
メモリ帯域幅という深い制約
しかし、計算資源以外に私たちが制約されているもう一つのものがあります。それはメモリです。私たちのより深い制約、そしてこれはしばらく強調してきたことですが、メモリ帯域幅に関するものです。そしてこれが今回の話の重要な部分です。なぜならGroqはメモリに取り組んでいたからです。
メモリとは本当に、大規模言語モデルの推論の中核にある行列乗算を実行している間に、チップがワーキングメモリにデータを出し入れできる速さのことです。現代のAIモデルは単に数学を実行するだけではありません。代わりに、彼らは常に膨大な量のデータを取得して移動させます。行列乗算を実行しますが、モデルの重みも扱います。パラメータのアクティベーションも扱います。
そして生成ワークロードでは、モデルが継続できるようにコンテキストを保存するKVキャッシュが重要であり、常に満たされ、読み込まれる必要があります。その結果、高速なAIは、チップの生の計算能力と同じくらい、チップに供給することに関するものなのです。
これは非常に理論的に感じられるかもしれませんが、私たちはすでにローカルマシンでこれを見ています。例えば、新しいラップトップでApple SiliconチップをM2からM5にアップグレードすると、すべてのクラウドLLMでスピードアップを感じるでしょう。
Claudeや、ChatGPT、その他のAI、Geminiなどと話していると、より速く感じます。なぜなら、チップに供給するためのトークン化がローカルマシンで行われるからです。これは私も知りませんでしたが、ローカルマシンで行われるのです。そのため、トークン化を効率的に処理するローカルチップが必要なのです。
ある意味で、私たちの速度の認識は、その周りで起こるメモリ管理のこのエコシステム全体によって支配されています。そしてそれがGroqのすべてだったのです。これが真実であることを示すものは、メモリシステムを機能させるコンポーネントが今や何年も何年も先まで予約販売されているということです。
韓国の企業SK Hynixは、高帯域幅メモリが実質的に複数年にわたって割り当てられていると繰り返し述べており、Reutersは2025年までずっと売り切れ状態だと報じ、その後HBMが2026年も売り切れだと報じました。ボリュームは今確定されつつあります。競争がどれほど激しいか、まさに驚異的です。
私たちは、Googleの幹部が、来年に向けたGoogleのTPU目標をサポートするために事前に割り当てられた高帯域幅メモリを確保できなかったために解雇されるという地点に達しています。それほどメモリは重要なのです。
高帯域幅メモリ(HBM)とは何か
では、高帯域幅メモリとは何でしょうか。それは人々が想像するような異なる種類のメモリではありません。DRAMです。動的ランダムアクセスメモリです。それが垂直に積層され、プロセッサのすぐ隣に物理的に接続された非常に広いインターフェースでパッケージングされているため、チップは従来のメモリソリューションからよりもはるかに高速にデータを引き出すことができます。
SK Hynix自体は、HBMを「複数のDRAMチップを垂直に相互接続して、以前のDRAMと比較して処理速度を劇的に向上させるメモリ」と定義しています。基本的に、これらのDRAMをコア処理チップ自体との非常に高帯域幅接続で積層することで、推論時のメモリ読み書きボトルネックを削減しているのです。
そして、なぜHBMがNVIDIAの会話に常に登場するのでしょうか。それは、現代のAIアクセラレータを実用的にするものの一つだからです。GPUは驚異的な数の演算を1秒あたりに実行できますが、モデルの重みとワーキングセットを十分に速く引き出すことができません。それができなければ、停止します。
モデルの重みなどのために非常に迅速にメモリを参照して引き出す能力を持っていなければ、停止してしまいます。それが人々がチップ上のメモリウォールと呼ぶものです。
企業のSemi Analysisは、HBMを「積層DRAMと超広帯域データパスを組み合わせたもの」と説明し、生成AI訓練と推論のために展開されているすべての主要なAIアクセラレータは本質的にHBMを使用しなければならないと指摘しています。AIモデルから必要とする高品質な推論を提供するために、非常に迅速にそのメモリにアクセスできるように、高帯域幅メモリを持つことが要件なのです。
パッケージング技術CoWoSの重要性
しかし、HBMには、非ハードウェアの人々が通常見逃す第二の制約があります。それはメモリダイの製造だけではありません。パッケージングについてもです。CoWoSという用語を聞いたことがあれば、これがそれについてです。定義しましょう。聞いたことがなくても心配しないでください。
CoWoSは、Chip on Wafer on Substrateの略です。これはTSMCの先進的なパッケージング技術で、ロジックダイとHBMスタックを、密な相互接続を持つ一つの大きなシリコンインターポーザー上に一緒に配置できるようにします。繰り返しますが、その密な帯域幅が重要なのです。
TSMCは明示的にCoWoSを「AIとHPCワークロードのためにシリコンインターポーザー上に積層されたHBMキューブと並んでロジックチップレットを収容するパッケージング」と説明しています。これが多く聞こえるなら、これらのツールを迅速に取得できるように共存させる必要があると考えてください。
巨大なアパートビルと巨大なダウンタウンのオフィスビルを同じブロックに共存させることを想像してください。そうすれば人々は家と職場の間を効率的に移動できます。非常に似た概念です。ただ、私たちはここで10億分の1メートルスケールで動作しているだけです。
Financial Timesは、先進的なパッケージングを、小型化が鈍化するにつれてますます中心的になっていると説明し、HBMスタッキングやCoWoSスタイルの統合のような技術が、私たちが求めている生成AIパフォーマンスを得るために本質的に必要になっていると指摘しています。
これは進行中のテーゼと一致しており、これはイーサン・モリックが最初に指摘したもので、私は本当に気に入っています。彼はムーアの法則についての論文を書きました。これは私たちがある意味では過去のものであり、ある意味ではまだ生きているものです。彼が指摘したのは、ムーアの法則は単一の法則ではなかったということです。実際には、非常に長い期間にわたって単一の問題に対する資本と人材の配分によって捉えられたトレンドラインの反映なのです。
これがまさにGPU技術で見ているものです。CoWoSやその他の技術は基本的に、物理的な小型化の限界に達し始めても、AIパフォーマンスの向上という継続的な課題に取り組む方法なのです。
HBM供給のボトルネック
これでチップエコシステムのコンテキストが理解できました。AI需要はGPU供給だけを引っ張るのではありません。したがって、それは本質的にHBM供給を引っ張ります。だから今週Googleの幹部が解雇されたのです。パッケージング能力を引っ張ります。少数の専門メーカーが非常に迅速に増産する能力を引っ張ります。
繰り返しますが、AIスタックのほぼすべての場所を見ると、一つの企業が重要なコンポーネントを供給しているのです。このエコシステム全体が一緒に機能するのは驚くべきことです。そして重要なことに、HBMはそれらのボトルネックの一つです。主要なメーカーはSK Hynix、Samsung、Micronです。それだけです。それしかありません。
さて、ここでGroqの話に戻ります。SRAMを紹介しましょう。なぜならSRAMこそが、Groqの議論が本当に興味深く、本当に本当に奇妙になるところだからです。
SRAMという異なるメモリ技術
SRAMは異なる種類のメモリです。スタティックランダムアクセスメモリと呼ばれ、通常キャッシュやオンチップストレージに使用されるメモリの一種です。スタティックの部分は、DRAMのように常時リフレッシュを必要としないことを意味します。つまり、DRAMよりも高速にアクセスできる可能性があります。
DRAMについて多くの時間を費やして話してきました。本当に広いハイウェイなどでチップに収まるキューブスタックとして。このSRAMはより速いのです。なぜなら、文字通りチップ上に存在するからです。同じビル内に住んで働くソリューションがあると想像してください。ひどい類推ですが、理解できると思います。文字通りチップ上に存在するので、より速くなり得るのです。
しかし、密度ははるかに低く、ビットあたりのコストも高くなります。通常の定義では、SRAMはDRAMよりも高速ですが、シリコン面積とコストの点で高価です。密度が少し低いためです。SRAMは通常、速度が必要だがそれほど多くのメモリを必要としないキャッシュと内部レジスタに使用され、DRAMはメインメモリに使用されます。
完璧なソリューションがあるわけではありません。私たちは両者を行き来しています。それがほとんどのチップアーキテクチャの仕組みです。ここで人々が誤解する重要なことがあります。先ほど説明したHBMスタックを注文するように、サプライヤーにSRAMを注文するわけではないのです。SK Hynixに行って「SRAMが欲しい」と言うわけではありません。
SRAMは一般的にチップ設計に組み込まれます。なぜなら文字通りチップの中にあるからです。より多くのSRAMは通常、より多くのダイ物理スペースを意味します。チップのダイが大きくなり、通常はより高いコスト、より多くの歩留まりの複雑さを意味します。SRAM スケーリングは、先進的なチップ設計においてますます困難になっています。
Semiconductor Engineingは非常に明確に、SRAMのスケーリング不能性が電力とパフォーマンス目標を達成する能力に挑戦してきたと述べています。なぜなら、チップが良くなり続けるにつれて、より良いSRAMが必要であり、SRAMはAIのワークホースメモリであり続けていますが、そこに解決策がなかったからです。
GroqのSRAM重視アプローチ
これがNVIDIAがGroqを買収した理由につながります。これがGroqの真の技術的な楔なのです。Groqは推論に焦点を当てたアクセラレータを作っており、しばしばLPU、つまり言語処理ユニットと説明されます。Groqのチップの製品概要には、チップあたり230メガバイトのSRAMがリストされ、最大80テラバイト/秒のオンダイメモリ帯域幅を主張しています。
Groqの公式ブログのフレーミングは、コントラストを非常に明示的にしています。最大80テラバイト/秒のオンチップSRAM帯域幅対、彼らが比較で約1桁低いと説明するオフチップ高帯域幅メモリ、8テラバイト/秒程度です。
そして後の投稿で、Groqはそのアプローチを「数百メガバイトのオンチップSRAMを、単なるキャッシュとしてではなく、モデルの主要な重みストレージとして統合すること」とも説明しました。これが、チップ専門家がGroqを低レイテンシと呼ぶ理由です。
必要なワーキングセットがダイ上、チップ上に存在できれば、モデルがチップの外に出なければならないときにモデルパフォーマンスに伴う停止や変動性のクラス全体を回避できます。これは、そのレイテンシを感じるワークロードにとって非常に重要になり得ます。音声システム、インタラクティブなコパイロット、リアルタイムエージェント、遅い応答がユーザー体験を壊すあらゆるワークフローです。
SRAMの容量制約
しかし、ここでニュアンスが出てきます。SRAMの速度は本物ですが、SRAM容量は制約のままです。SRAMを本当に魔法のように聞こえさせる同じGroqの製品概要は、スケーリングの数学に直面させられます。230メガバイト、これは1990年代には大量のメモリでした。230メガバイトを持っていた時代を覚えています。現代のAI用語では大量のメモリではありません。
単一のHBMスタックは数十ギガバイト単位で測定されます。例えばMicronは、HBM3Eを8ハイスタックで24ギガバイト、12ハイスタックで36ギガバイトと説明しています。Samsungも、HBM3E 12ハイを36ギガバイトと説明しています。
つまり、チップ上の広い相互接続を通じて数十ギガバイトが利用可能な地点に到達しています。これは256メガバイトよりも桁違いに多いのです。したがって、SRAMはHBMを置き換えることはできませんし、置き換えません。それから逃れることはできません。
SRAMができることは、オンダイ処理の利点が支配的であり、ワークロードがそのメモリ制約に合うように形成できる推論の狭いスライスで勝つことです。だから人々がSRAM重視の設計を、非常に決定論的な推論には説得力があるが、スケールでは非常に弱いと説明するのを見るのです。彼らは物理学で遊んでおり、基本的にLLMからより決定論的なパフォーマンスが必要なシンプルなジョブについては、Groqのソリューションが有用であると言っているのです。
そして容量の問題だけではありません。スケーリングの問題でもあります。業界は長い間、SRAMビットセルのスケーリングと格闘してきました。Tom’s Hardwareは別の新聞で、これについて報じており、特定のノード移行でSRAM密度の改善が困難であったと報じ、特にTSMCが3ナノメートルでの限定的な向上の後、2ナノメートルで意味のあるSRAMビットセルの縮小を主張したことを指摘しています。
言い換えれば、根本的な点は、SRAMはますます第一級のチップ設計問題になっており、TSMCのような第一級のチップ設計企業でさえ、チップにもっと収めるために毎世代縮小し続けることに苦労しているということです。
NVIDIAがこれを行う理由
では、ついに答えられます。なぜNVIDIAはこれを行うのでしょうか。最も率直な読み方は、NVIDIAが推論を戦略的なものとして扱っているということです。では、推論を本当に明確に定義しましょう。
訓練とは、モデルを取って、その重みを更新するために膨大な量のデータを通す時です。これはモデルを作成する非常に高価な1回限りのプロセスです。推論とは、訓練されたモデルを使用して出力を生成する時です。ChatGPTから得られるすべてのチャット応答、Banana from nanoから得られるすべての画像応答、すべての検索ランク、すべてのエージェントステップです。
訓練はエピソード的です。新しいモデルを作るときに起こります。推論は継続的です。訓練は非常に設備投資が重いです。たくさん支払って、それを投下してモデルを訓練します。推論は運営費になります。
AIが製品に組み込まれるようになれば、地球上のほとんどのトークンは訓練で消費されるのではなく、推論で提供されることになります。だからGroqの発表がこのように表現されているのです。彼らは「高性能、低コストの推論」へのアクセスを拡大しようとしています。
だからReutersは、NVIDIAの動きを、市場が訓練から推論へとシフトする中での競争的な推進の一部として、Groqを推論スペシャリストとして位置づけています。
資金調達の構造が示すもの
さて、資金調達の話を持ち込みましょう。なぜなら、それは同じ現実だからです。チップアーキテクチャの代わりに資本市場を通じて表現されているだけです。10月、Reutersは、イーロン・マスクのxAIがColossus 2データセンターのためにNVIDIAプロセッサを購入することに関連して、200億ドルの資金調達パッケージに近づいていると報じました。
重要な詳細は構造にあります。SPV、特別目的会社が、株式と負債のミックスを調達し、GPUを購入し、その後、その計算能力をxAIに効果的にリースまたはレンタルバックします。Reutersはまた、NVIDIAが株式部分に最大20億ドル投資する可能性があるというBloombergの報道を伝えました。
SPVは基本的に、一つの特定の仕事のために構築された法的および財務的なラッパーです。この場合、仕事はGPUを資金調達可能な資産クラスに変えることです。負債を裏付け、契約されたキャッシュフローを生成し、運営会社が伝統的な方法ですべてを直接資金調達することを要求せずにスケールできるハードウェアのプールです。
計算のためのプロジェクトファイナンスと考えることができます。GPUが希少で、HBMが制約され、電力とデータセンター容量が本当に制約になる世界では、供給を確保する資金調達を構造化する能力が、実際にAI競争全体の一部になります。目的のない派手なビークルを作りたいからではなく、時間をかけてシステムを実行できることを保証する方法だからです。
全体像:能力の垂直統合
そして、ここですべてがまとまります。NVIDIAのGroqは、低レイテンシ、SRAM重視、モデルの決定論的提供という特定の推論能力を、会社全体を購入することを強制せずに、NVIDIAのプラットフォームにより近く引き寄せることです。
xAIのSPVストーリーが、GPUを金融供給チェーンに変えることでスケーリングの物理的基盤、GPUを確保することに関するものであるのと同様に、これらの物語は両方とも同じことについてです。誰がモデル能力から製品能力への道をスケールで制御するか。NVIDIAはそのゲームでプレーする必要があり、だからNVIDIAはGroqを買う必要があったのです。
ライセンス+アクハイアという新パターン
そしてGroqの構造は、もはやユニークではありません。これは、フロンティアAIで本当に一般的になったライセンスとアクハイア取引のより大きなパターンの一部です。Reutersは、Googleが24億ドルのWindsurfのライセンス取引を行ったと報じました。数ヶ月前にそれについて話しました。その時問題として指摘しました。
Googleは主要なリーダーと研究者を雇用し、Windsurfを独立したまま残し、ライセンス料を通じて投資家に支払いました。これはMicrosoftでも見られたもので、Microsoftは主要スタッフを雇用しながらInflectionに約6億5000万ドルを支払うライセンス取引に合意しましたが、それは実際には買収ではありませんでした。
AmazonはAdeptで同じことをしました。Amazonはロボティクスに関してCovariantで再び同じことをしました。GoogleはCharacterで同じことをしました。これらを一緒に見ると、全体のストーリーは大手テック企業がスタートアップを買収しているということではありません。
ストーリーは、大手テック企業が会社を完全に買収せずに、能力、人材、権利をますます買収しているということです。そしてそれは、キャップテーブルで評価するものが変わり始めていることを示唆しています。そしてそれは、いくつかの買収を経験しない限り見逃しやすい方法で、従業員の結果とインセンティブを変えます。
伝統的な買収では、明らかに支配権の変更があり、それがオプションプランのような契約メカニズムをトリガーします。加速条項などがある場合があります。そしてそれがすべて合計すると、投資家への収益、優先株式への、普通株式への、場合によってはオプションを行使した場合などに従業員への収益になります。
Groqのようなライセンスとアクハイア取引では、そのどれも発生しませんでした。公平に言えば、これらの取引のいくつかがその懸念に対処するために構造化されている方法のヒントを見ることができます。Wall Street Journalは、Character AIのGoogleライセンス料が約27億ドルで、その一部が初期投資家の買収に使用され、買収イベントなしで少なくともある程度の流動性を生み出す明示的な試みがあったことを示唆していると報じました。
しかし、より大きな点は残ります。これらは特注の取り決めになる傾向があり、みんなが一緒に勝つことを保証しません。それが多くの人々が暗黙的にシリコンバレーのストーリーがそうであると信じていたことです。会社の最初の10人または最初の50人の一人としてサインアップすれば、創業者と一緒に勝つと思うのです。創業者ほどではないかもしれませんが、少しは。
今週から得るべき教訓
ですから、この週から一つの深い教訓を引き出そうとしているなら、NVIDIAが怖がっていると考えないでください。それは見たことがあります。そして、SRAMが未来だと考えないでください。それも見たことがあります。
本当は、AI競争が以前は別々だった現実の垂直統合を強制しているということです。ハードウェアはもはやただのハードウェアではありません。メモリです。パッケージングです。推論はもはやただの詳細ではありません。推論がゲーム全体になりつつあります。
資金調達はもはやただの資金調達ではありません。供給を確保する方法です。そして買収はもはやただの買収ではありません。それらはますます、AI競争で戦略的優位性を確保するために必要な人材とライセンス料を提供するための能力移転として構造化されています。
NVIDIAは推論ゲームに参加する必要があります。NVIDIAはリードを進化させ維持し続けるために、高速推論に強い製品を持つ必要があります。NVIDIAは、ちなみにGroq取引で正確に得たものですが、TPUチップの設計者を市場で自由にさせたくありません。
Groq取引には、GoogleのTPUチップを設計したGroqの創業者が含まれていました。彼らはその人物を市場で自由にさせたくありません。保険として連れてきたいのです。そして人々はこれを、NVIDIAがGoogleを心配していると描いています。NVIDIAがTPUの支配を心配していると。
それが正しい解釈だとは思いません。なぜなら、Googleの優位性は、GoogleのTPUチップがほとんど社内に留まることを前提としているからです。Googleは自社のTPUチップをライセンスしています。誤解しないでください。しかし、彼らはあなたがそれを買わないことを望んでおり、多くの企業にとって必須ではなくあれば良いものであり続けるような価格設定で大丈夫です。
その理由の一部は、GoogleのTPUチップがコモディティ化されれば、GoogleはTPUで持っている競争上の優位性を失うからです。NVIDIAは異なるゲームをしています。NVIDIAはハイパースケーラーのモデルメーカーゲームではありません。チップビジネスです。
NVIDIAは、コアビジネスを危険にさらすことなく、これらの特殊化されたLPUアプリケーションに取り組むことができるように、人材を味方につけておく必要があります。彼らは、Groqからの技術とノウハウを持ち込み、それをモデルメーカーにとって大規模で唯一のゲームである彼らの継続的な楔の一部として使用できることを確認する必要があります。
チップ、資金調達、人材の全体像
ですから、これはジェンセンによる少し防御的なプレーでしたが、誰が関与していたか、そしてなぜそれらの人々をGroqから外に出すことが価値があったかを考えると、絶対に理にかなっているプレーです。
すべての詳細を説明するのに時間をかけたかったのです。なぜなら、一つには、チップストーリーが十分に理解されていないと思うからです。資金調達のニュアンスや、なぜこれらの複数年取引が理解されていないかも理解されていないと思います。そして人材ストーリーも十分に理解されていないと思います。
ですから、これがAIの最先端で実際にビジネスがどのように行われているか、そして私たち全員が毎日使用し愛しているモデル体験を駆動する物理的制約をどのように前進させ続けることができるかについての全体像を提供できたことを願っています。
ええ、ナテ教授のクラスに来てくれてありがとうございます。これは少し長いものでしたが、楽しんでいただけたことを願っています。


コメント