NVIDIAに初めての真の競合が出現(Googleが圧倒している)

半導体産業
この記事は約19分で読めます。

GoogleとMetaが数十億ドル規模のAI半導体取引に向けて交渉中という報道により、NVIDIAの株価が急落した。この事態は、Google独自のTPU(テンソル処理ユニット)の最新世代であるIronwoodの発表を機に顕在化したものである。歴史的にGoogleはYahoo、Microsoft、Appleといった競合企業と戦ってきたが、現在の標的はNVIDIAであるようだ。本動画では、AI業界におけるバリューチェーンの4つの階層—アプリケーション、基盤モデル、推論、アクセラレータハードウェア—を解説し、Googleがこれらすべての領域で事業を展開している唯一の企業である点を強調する。GPUが偶然AI用途に適していた経緯、Googleが推論にCPUを使用している可能性、そしてTPUがGPUの代替として開発されている背景についても詳述している。MetaとGoogleの提携は、NVIDIAの価格交渉力に対抗するための戦略的な動きである可能性が高く、この発表だけでNVIDIAの時価総額が1120億ドル下落したという事実は、業界力学の変化を物語っている。

NVIDIA's first real competition (Google is KILLING it)
Never thought I'd see the day, yet here we are. Google inked a crazy deal with Meta, and now NVIDIA is scared as hell.Th...

NVIDIAとGoogleの衝突

NVIDIAの株価が、GoogleとMetaが数十億ドル規模の半導体取引に向けて交渉中だという報道を受けて下落しました。NVIDIAはGoogleとの取引で2500億ドルを失ったことに公式に反応しています。MetaがGoogle製AI半導体を使用するという報道でNVIDIAの株価が4%下落しました。一体何が起こっているのでしょうか。真面目な話、私たちは今完全な混乱状態にあります。

私がビデオゲーム用に愛用しているグラフィックカード会社が、2000年代からお気に入りの検索エンジンと戦争状態にあり、その原因はすべてAIをめぐるものなのです。実はここには興味深いストーリーがあります。それは半導体製造の歴史と、GPUがいかに偶然にもこの派手なAI技術の導入に不可欠なものになったかということです。

しかし、GoogleとNVIDIAの間のこの深刻な戦争は魅力的です。歴史的に、Googleには集中して取り組む主要な競合企業が一つあり、他社にはあまり注意を払っていませんでした。ずっと昔はYahooでした。彼らはYahooを潰しました。次にMicrosoftに移行し、飽きました。Appleに移行し、さらに飽きて、しばらくAmazonに焦点を当て、そして今はNVIDIAが彼らの照準の中心にいるようです。

ここで見られるように、収益に関してGoogleの唯一の実際の競合はMetaです。なぜなら、GoogleとMetaはこれまでに作られた唯一の二つの有能な広告ネットワークだからです。しかし彼らは、現在レーダーにも入っていない競合企業に長期的に負ける可能性よりも、現在のナンバーワン競合企業と提携することを選んでいます。

これには非常に多くの層があります。Googleが推論にCPUを使用するほどNVIDIAを嫌っているという点から、GoogleとそのTPU部門、Meta、その他すべての層との奇妙な関係、そして業界が現在どのように反応しているか、さらに私のAMD株が急速に下落していることまで。簡単な開示をしておきますと、私は今日話すすべての企業に基本的に投資しています。

重要というほどではありませんが、開示する義務を感じる程度には投資しています。そして、ちょうどポートフォリオを確認したところ、今日かなりのお金を失いました。では、今日のスポンサーで少し取り戻しましょう。皆さんに少し恥ずかしいことをシェアしなければなりません。私がチームを妥協なく最速で動かせる技術を選んできたことはご存知でしょう。

特に認証に関していくつか間違いを犯しました。認証のために選んだものがスケールを非常に難しくしていたのです。だから、明らかに自分で構築しなければならないですよね。これらの既製プロバイダーが解決策であるはずがありません。実際、私が選んだソリューションはかなり一般的なものです。

私が選んだソリューションは、OpenAIからVercel、FAL、Source Graph、私の会社のキャップテーブルを管理するCartaまで、誰もが使っているものです。だから明らかにこれは、誰でも採用して自分で展開できる、非常に確立されたオープンソース標準でなければなりませんよね。認証にはそれが正しいソリューションではないことが判明しました。認証には、サービス、プラットフォーム、統合、その他すべての間で正しく処理しなければならない小さなことが非常に多くあり、自分でやることは価値がありません。

何年もそれが価値があると自分を説得し、それを中心に全体のスタックを構築した私から言わせてください。だから私たちはT3 ChatをWorkOSに移行しました。そうです、私が紹介した他のすべての会社と同じように、私たちも今ではWorkOSアプリになりました。これにより私たちの生活はすでに非常に楽になりました。ようやくサービスを壊すことなく追加の認証オプションを導入できるようになります。

そして、ずっと前に連絡してきたビジネス顧客をついに獲得できます。管理ポータルを持つまでは彼らをオンボードする方法がなかったので、これまで前進する道がなかったのです。真面目な話、これはオンボードしようとしている大企業にとって生活を非常に楽にします。そして、今私たちにかかっている費用がいくらか気になるなら、0ドルです。

そしてそれは彼らが私をスポンサーしているからではありません。私はそれらを別々に保っています。それは最初の100万ユーザーが無料だからです。soyv.link/workosで今すぐチェックしてください。では、GoogleとNVIDIAの間で一体何が起こっているのでしょうか。どうやら、伝えられるところによると、これはすべてGoogleのブログのこの特定の投稿から始まったようです。最新のTPUであるIronwoodについて知っておくべき3つのこと。

なぜこれをBuzzfeedの記事のように表現したのか分かりませんが、それで行きましょう。第7世代のテンソル処理ユニットが登場しました。Ironwoodを現在までで最も強力でエネルギー効率の高いカスタムシリコンにしているものを学びましょう。Ironwoodについて深く掘り下げる前に、AIバリューチェーンの主要プレイヤーについて少し話したいと思います。AI体験には4つの要素があります。

実際にAIを操作するために使用するアプリケーションがあります。GPT-4oやClaude 4 Sonnetのような、レスポンスを生成するために使用している実際の巨大なトークンとパラメータの塊である基盤モデルがあります。お金を費やし、実際にモデルをホストするダッシュボードを持つクラウドである推論があります。

そして、レスポンスを生成するために使用されているCPU、GPU、TPU、チップそのものであるアクセラレータハードウェアがあります。例えばGrokやCerebrasのように、下位2つのセクションで遊んでいる企業がいくつかあり、Samanovaもそうです。これらの企業は推論をより高速にするために独自のアーキテクチャを構築しました。

そして彼らは、主にOpenAI、Anthropic、Googleのプロプライエタリモデルにアクセスできないため、主にオープンウェイトモデルから推論を生成するためにお金を払うことができる独自のクラウドプロバイダーを持っています。OpenAI、Anthropic、Googleはすべて独自のクラウド推論も持っています。彼らは両方とも、OpenAIがMicrosoftと協力して現在Azureでのみ彼らのモデルを使用できるようにしたり、Anthropicが彼らのモデルをGCPのVertex経由でGoogleで、またBedrock経由でAmazonで使用できるようにしたりするなど、この分野の他のプレイヤーと戦略的にパートナーシップを結んでいます。Microsoftはモデルに少し手を出していますが、Copilotのようなアプリケーション層やAzureのクラウド層により重点を置いています。Googleはそのすべてをやっている唯一のプレイヤーです。Googleは推論に使用するアプリを構築しています。あまり良くありません。Geminiのウェブサイトは私がこれまでに経験した最悪のAI体験の一つです。

非常に多くの方法で壊れており、Claudeを安定したソフトウェアのように見せますが、そこにあり、一応機能しています。しかしもっと重要なのは、Googleがこれまでに作られた最も人気のあるAIアプリを持っているということです。最も人気のあるAIを持っているのは誰かをGoogleで検索してみます。そして最も人気のあるAIによると、実際にはChatGPTです。これは特に面白いです。なぜなら正しい答えはChatGPTではないからです。

世界で今最も人気のあるAIは、圧倒的にGoogle検索を行ったときに得られるAI概要です。これは圧倒的に最大のAIアプリです。だからGoogleのGeminiのものが最悪でも—モデルではありません、モデルは良い場合があります—しかしgemini.google.comのようなGeminiのウェブサイトは本当に、本当にひどいです。

モデルを使用するときの苦痛を減らしたい場合は、特に画像モデルの場合は、T3 Chatを試してみることを検討してください。月額8ドルです。すべてのモデルにアクセスできます。新しいImagen 3で画像を生成したり、すべての新しいモデルを試したりするためにこれを使用したい場合、初めて購読する場合は、チェックアウト時にコードNanoを使用すると、最初の月はわずか1ドルになります。

きっと気に入ると思います。私たちがそれを構築した理由があります。それは他のすべてのAIチャットが本当に使いづらいからです。信じられないなら、1ドル使って私が間違っていることを証明してください。しかし、レポートに戻りましょう。Googleはすべての層でプレイしている唯一の企業です。彼らはGoogle.comやGeminiのようなアプリを持っています。Geminiモデルは実際に非常に良いので、基盤モデルを持っています。

彼らはクラウド推論を持っています。私はGCPが嫌いですが、GCPはGeminiモデルをホストする唯一の場所であり、Anthropicモデルをホストする3つの場所のうちの1つであるため、事実上必要です。そして今日私たち全員がここにいる理由である部分、アクセラレータハードウェアです。この分野にはそれほど多くのプレイヤーはいません。

AWSは試していますが、彼らのものはまだかなり遅れています。Metaはそれを探求することを検討していますが、彼らもあまり進んでいません。だからGoogleと提携しているのです。これらの他のラボはそれに触れていません。NVIDIAは明らかにこれをやっています。彼らのGPUは多くのものに使用されています。そして、GrokやSambaNovaのような、ワンオフの推論をサービスとして行っているこれらの特注企業があり、それからAMDがあります。AMDは文字通りこれだけをやっており、他に何もしていません。

しかし、AI作業のための新しいチップを作っているプレイヤーは実際にはそれほど多くありません。このチャートについて知っておくべき最後のことは、アクセラレータハードウェアを構築するための異なる方法があるということです。NVIDIAはGPUを使用しており、AMDもそうです。GPUはグラフィックス処理ユニットです。画面上に多くのピクセルがある場合、そのタイプの計算を行うために4,000個のより単純なコアを持つことができるのに4つのコアを持つのはあまり良くないため、グラフィックスのレンダリングを行うために構築されています。

GPUは少数の非常に難しいことをするのではなく、多くの非常に小さなことをします。だから彼らはこのタイプの行列変換のようなことに本当に優れています。しかし理論的には、それのためにさらに良いものを作ることができます。これは昔、暗号通貨で起こったことで、ビットコインはグラフィックカードでマイニングされ、最終的にASICが構築されました。ASICはマイニングを本当に効率的に行うために特別に作られた機械でした。

ゲームをプレイすることはできませんでした—ASICでゲームを実行することはないでしょう、多分Doomはできるかもしれませんが—これはこの1つの特定のタスクのための特定のチップであることを意味しています。それがGrokがやっていることです。それがCerebrasがやっていることです。それがSamanovaがやっていることです。彼らは推論のタスクのために特定のチップを作っています。そしてそれらのほとんどは、Llamaが機能した方法を中心に大きく構築されています。だからこれらの企業はすべて最初はLlamaをホストし、最終的にはLlamaの上に蒸留された他のものをホストしました。

GoogleはTPUでさらに先に進んでいます。Googleは多くの異なる理由でGPUが好きではないようですが、ここで彼らは本当にTPUを機能させようとしています。長い間見つけようとして見つけられなかった投稿がありますが、Runeからの非常に似たものがあるので、ここでそれを使用します。残念ながら、機械意識はGPU計算の創発的特性です。

TPUモデルは昇格できません。これは2023年のものです。非常に面白いです。これは明らかに冗談であることを意図していますが、要点は、グラフィックス処理のために構築されたこれらのGPUが推論とAIの究極のものであると考えるのは不合理だということです。それらはそれを行うために構築されたのではありません。たまたま私たちがトランスフォーマーの発見をしたときに存在していたすべてのもののうち、GPUがそれらのシステムに最もよくマッピングされたものだったというだけです。

それは私たちがより良いものを作ることができないという意味ではありません。GPUがこれらのトランスフォーマーを訓練するためにCPUよりもはるかに優れた仕事をしたという意味です。また、これは訓練に対してのみ当てはまり、必ずしも実行には当てはまらないことも注目に値します。実際に推論を行っているとき、CPUも推論にかなり効果的に使用できることを示す多くの有望な研究があります。

Googleが大量の推論にCPUを使用しているという多くの噂があり、それらはCPU上のニューラルネットワークの速度を改善するというこの論文のように、彼らが公開する研究によって裏付けられています。これは3人のGoogle従業員によって公開されました。なぜかと思いますか。様々な異なる情報源から、公開とプライベートの両方から、私はGoogleのオフィスではCPUよりもGPU上で実行されるものがはるかに多く、多くのCPU作業が行われていると比較的自信を持って言えます。おそらく訓練さえも、ただしそれについては確信はありません。彼らは新しいIronwoodアーキテクチャとしてかなり多くのTPUを持っており、それが現在一般利用可能になっていると言われています。今日のフロンティアモデルには、Gemini、Veo、AnthropicのClaudeが含まれ、すべてテンソル処理ユニットで訓練およびサービスされます。訓練はおそらく、サービスは時々。多くの組織にとって、焦点はこれらのモデルを訓練することから、同じモデルを使用して有用で応答性の高いインタラクションを提供することにシフトしています。

絶えず変化するモデルアーキテクチャ。エージェント的ワークフローの台頭に加えて、コンピューティングの需要がほぼ指数関数的に成長していることが、この新しい推論の時代を定義しています。特に、汎用コンピューティングとML加速の間のオーケストレーションと緊密な調整を必要とするエージェント的ワークフローは、垂直に共最適化されたシステムアーキテクチャにおけるカスタムシリコンの新しい機会を創出しています。

それは、私たちが良いチップを作ったという多くの言葉です。どうやら、彼らの新しいチップは以前のV5Pバージョンからピーク時で最大10倍速く、訓練と推論のワークロードの両方で最新バージョンのTrilliumと比較してチップあたり4倍優れており、これまでで最も強力でエネルギー効率の高いカスタムシリコンになっています。

彼らはまた、ARMベースのNシリーズも持っており、これはより伝統的な実行であり、x86ベースのVMを圧倒します。これらはベアメタルインスタンスになるので、ARMチップを使用してARMベースのサーバーでコードを実行できます。彼らは独自の電話プロセッサを作りたかったのでARM研究に多くの作業を投入し、まだ少し劣っています。

サーバーではその中にクールなものがありますが、TPUのものは本当に彼らが圧倒しているところです。これは彼らがしばらくやってきたことであり、YouTubeのビデオエンコーディングユニットを含みます。これを知らないかもしれませんが、実際にはほとんどの場合、メディアをデコードするためにCPUを使用しません。できます。

ほとんどのプロセッサは十分に強力ですが、それほど効率的ではなく、デバイス上の他のすべてがはるかに遅くなります。ここにある私のMacBook ProのMシリーズチップのような非常に強力で派手なものでさえ、CPUを使用してビデオを比較的うまくデコードできますが、ビデオがデコードまたはエンコードされているときに実際のCPUがヒットしないように、ダイ上に配置したハードウェアエンコーダチップを使用することを選択します。

YouTubeは多くの異なる解像度で毎秒数百時間のビデオを再エンコードしなければならないため、しばらくの間これに大きく投資してきました。だから彼らはそれをより効率的にするために独自のハードウェアを構築しました。彼らは、一つの屋根の下でモデル研究、ソフトウェア、ハードウェア開発との深いシステムレベルの共同設計を通じてのみ可能なパフォーマンスのブレークスルーを可能にするためにこれらのプロセッサを構築しました。

彼らはここで、モデル研究、ソフトウェア、ハードウェアを一つの屋根の下に持っていると言っています。そして、ここの直下に、注目すべきことにGoogleの屋根の下にいないAnthropicからの引用があります。Fortune 500企業からスタートアップまで、私たちの顧客は最も重要な作業のためにClaudeに依存しています。

需要が指数関数的に成長し続ける中、私たちはAI研究と製品開発の境界を押し広げながら、コンピューティングリソースを増やしています。Ironwoodの推論パフォーマンスと訓練のスケーラビリティの両方における改善は、顧客が期待する速度と信頼性を維持しながら、効率的にスケールするのに役立ちます。

そう、GoogleとAnthropicはAWSもAnthropicに投資し、これらのチップを使用していたのに、比較的近くなりました。そしてこれがおそらくMetaが飛び込んでいる理由です。訓練のために膨大な量のGPUを必要とするすべての企業は、NVIDIAの境界線的な恐喝価格に対処しなければなりません。NVIDIAは彼らが望むものを何でも請求し、それで逃げることができます。なぜなら彼らは圧倒的に最良のオプションだからです。

一般的な大量のプロセスを合理的でスケーラブルなアーキテクチャ上で必要とする場合、NVIDIAに固定されているようなものです。店に行ってGoogleチップを買うことはできません。これらの大量のためにも彼らと契約を結ぶことは必ずしもできません。なぜなら彼らはそれらを倉庫とクラウドプラットフォーム上のサーバーに保管したいからです。

NVIDIAは実際にはクラウドプラットフォームさえも持っていません。あちこちで手を出したことはあります。多くの人が私たちにNVIDIAプロバイダーをT3 Chatに追加するよう求めていることは知っています。NVIDIAプロバイダーにお金を払うことはできません。nvidia.comに行って彼らの推論にサインアップし、使用に対してトークンごとに支払う方法はありません。彼らはGPUレンタルの会社を買収し、現在それをサービスとしてある程度提供していますが、それは完全に別物であり、NVIDIAの中核事業のようなものではありません。

彼らは推論を提供していません。NVIDIAからGPUを購入します。サーバーから推論能力を借りることはありません。Googleは自分のサーバーを自分の倉庫で使用するためにあなたに請求します。だから彼らがチップも販売することは、彼らのビジネスモデル全体の目的をある程度無にします。自分のサーバー倉庫でそれを借りることができるのに、なぜチップを販売するのでしょうか。両方を持っているほとんどの企業はそうすることを選択します。

GrokやCerebras、SambaNovaのように。これらの企業はいずれも誰にもチップを販売していません。彼らはチップを作り、チップをホストし、推論に対して請求しています。Googleは奇妙なことに両方を行うことに興味を持っているようです。私は実際には彼らがそれほど気にしているとは思いません。彼らが多くのTPUを販売し始めるつもりだとは思いません。

私は彼らがただNVIDIAを少し窒息させたいだけだと思います。そして本当に、彼らは窒息しました。これは公式NVIDIAニュースルームのTwitterアカウントからです。私たちはGoogleの成功に喜んでいます。彼らはAIで大きな進歩を遂げ、私たちはGoogleに供給し続けています。NVIDIAは業界より一世代先を行っています。それはすべてのAIモデルを実行し、コンピューティングが行われるすべての場所でそれを行う唯一のプラットフォームです。

NVIDIAは、特定のAIフレームワークまたは機能のために設計されたASICよりも、優れたパフォーマンス、汎用性、および代替可能性を提供します。これは彼らがこの取引が起こる中で自分の株を救おうと最善を尽くしている様子です。絶対に愛らしいです。ええ、返信でTiny Corpが。これらのMダッシュはNVIDIA GPU上で生成されました。ええ、これはすべて今週初めのInformationレポートから来ており、Googleが2027年にAI半導体とデータセンターのための数十億ドルの取引をMetaと交渉中であるとしています。

NVIDIAがこれらのすべての交渉で強硬姿勢を取っているからです。ここには正当な可能性があります。Metaがこれらのチップを使用する意図がまったくなく、NVIDIAとのより良い取引を交渉で得るためだけにこれを行っているという可能性です。NVIDIAの時価総額は現在4.5兆ドルです。だからもしこれが株式で2.5%のコストがかかったとしたら、それだけで下落しました。それは1120億ドルです。彼らはGPUをMetaに無料で与えるだけで、お金を節約できたでしょう。最良のケースで50億ドルの取引が市場から1120億ドルを消し去ったという事実はちょっと狂気です。Metaはここで強硬姿勢を取っています。ザッカーバーグが部屋に入ってきて、「よう、NVIDIA、取引してくれないか」と言いました。Jensenは「ノー」と言いました。

「ああ、その株はかなり大きいようだ。何か起こったら残念だね。私が何かを起こさせたら」と言いました。それは狂気です。これがJensenに取引を与えるほど彼を怒らせるためのZuckの500IQプレイである実際のチャンスがあります。Yahoo記事でそう呼ばれているように、現在ほとんどのテック大手はチップを購入するのではなく、クラウドを介して使用しています。

ここで言われているように、Googleはテンソル処理ユニットであるチップへのアクセスを、Google Cloudを通じてAI開発者に貸し出しています。これは、Informationレポートが示唆するように、チップが外部で販売されるのではなく、Googleの自社データセンターに限定されていることを意味します。どうやら、これは彼らがこれについて話している唯一の会社ではありません。

なぜAMDがこれに基づいてNVIDIAよりも多く下落したのですか。クソ。どうやら、Anthropicはこれらすべての人々と長期的に遊んでいます。彼らはまたAmazonと彼らの新しいチップでも多くのことをやっているからです。魅力的です。これが進む方法はたくさんありますが、正直なところ、私はこの時点でGoogleが負けるとは思えません。

彼らが長期的にナンバーワンにならないかもしれませんが、少なくとも3位にならない世界はありません。彼らはここで非常に良い位置にいます。彼らはAIのAppleになりました。彼らが本当に洗練されて思慮深いという意味ではなく、自分の運命全体を所有しているという意味で。誰もこれを彼らから奪うことはできません。彼らは自分の垂直を所有しています。

彼らは良い位置にいます。私はGoogleと競争したくありません。そして私は投資ポートフォリオ全体を再考しています。ありがたいことに、私はこれらの大企業にはあまり投資せず、はるかに小規模な企業に投資する傾向があります。そして私の資金の大部分が現在、これらの企業のいずれかが勝つことに賭けている初期スタートアップにあることに非常に感謝しています。私が賭けている小さなスタートアップは、Googleが勝つか、OpenAIが勝つか、Anthropicが勝つか、NVIDIAが勝つかは気にしません。

彼らはその上に良いサービスを構築しているだけです。ラッパーであるのにこれほど良い時代はありませんでした。しかし、もしあなたがビッグファイブの一つのようなものなら、あなたは今クソ戦争状態にあります。少なくとも、これは見ていて楽しい戦争です。これは興味深いものでした。チップについてもう少し話せて嬉しいです。

皆さんがどう思うか教えてください。

コメント

タイトルとURLをコピーしました