ChatGPTが100倍高速化する…(CEREBRAS契約)

OpenAI・サムアルトマン
この記事は約11分で読めます。

OpenAIがCerebrasと3年間で数十億ドル規模の提携を発表し、AI業界における推論速度競争が新たな段階に突入した。GoogleのGemini 3がTPUで訓練されたことを契機に、NvidiaがGroqを200億ドルで実質的に買収し、続いてOpenAIがCerebrasと100億ドル以上の契約を締結した。AI業界は訓練よりも推論にこそ収益性があることを認識し始めており、特殊化チップへの投資が加速している。Cerebrasのチップは毎秒3,000トークン以上を処理でき、Nvidiaチップの約7倍の速度を実現している。この提携により、OpenAIはGPUリソースを推論からモデル訓練へ再配分でき、より優れたモデル開発が期待される。AI業界全体がコンピュート能力獲得の軍拡競争に突入している。

ChatGPT will be 100x Faster... (CEREBRAS DEAL)
Try Zapier’s AI orchestration platform for free today: The Subtle Art of Not Being Replaced 👇🏼 ...

OpenAIとCerebrasの歴史的提携

OpenAIが、最速の推論を提供するために、Cerebrasと3年間の数十億ドル規模の契約を結ぶことを発表しました。この話には本当に多くの要素が詰まっています。皆さんにお伝えするのがとても楽しみです。

この物語の始まりは、Gemini 3とGoogleから始まります。Googleは昨年11月にGemini 3をリリースしました。このモデルは驚異的でした。まさに最先端で、多くのベンチマークでトップを飾りました。そして特筆すべきは、このモデルがNvidiaのGPUではなく、TPUを使って訓練されたという点です。この違いについては後ほど説明します。つまり、初めてGPU以外で訓練された信じられないほど強力なモデルが登場したわけです。そして推論、つまり質問を投げかけてAIが答えを返すプロセスも、すべてTPU上で実行されていました。

Nvidiaの動きとGroq買収

Nvidiaは周囲を見回して考え始めました。「これは実際、大きな問題だ。何らかの方法で競争する必要がある。我々のGPUは素晴らしい」そして汎用性があるのですが、特殊化されたチップ、特に推論時には決して同じくらい速くなることはありません。

クリスマスイブ、ほんの数週間前に話を進めると、NvidiaがGroqを買収したと発表しました。これを引用符で囲んでいる理由は、会社全体を買収したという意味での真の買収ではなかったからです。むしろ、Groqで働いていた全員が基本的に退職し、Nvidiaに入社しました。彼らは技術に対して200億ドルのライセンス契約を結びました。しかしGroqという会社は、基本的に抜け殻のような状態になっても、まだ存在しています。

これはすべて独占禁止規制を回避するためでした。こうして契約は成立しました。ジェンスン・フアンは基本的に認めました。そう、特殊化チップには本当に特別な何かがあると。そして業界全体が気づいたこと、そしておそらくジェンスンがかなり前から知っていたことは、お金になるのは推論だということです。モデルの訓練ではありません。

推論こそが収益源

モデルは一度訓練されます。モデルを訓練する、つまりモデルを焼き上げるには、前もって多額のコストがかかりますが、その後は無期限に提供し続けます。そしてそれを非常に速く、非常に安価に提供できるということは、フロンティアラボとしてのマージンが劇的に増加することを意味します。推論こそが収益源なのです。そしてユーザー需要が増加すれば、収益も増加します。

訓練の場合はそうではありません。訓練は一度行われ、基本的にはコストセンターです。しかしモデルが焼き上がり、訓練が完了すれば、それを提供し続けるだけです。そして提供すればするほど、その最初の訓練に対するROIが増加します。それでジェンスンはGroqに200億ドルを投じました。

OpenAIとCerebrasの契約

そして今日に話を進めると、OpenAIがCerebrasと提携しました。ウォール・ストリート・ジャーナルによると、この契約は100億ドル以上の価値があります。そして彼らは3年間で750メガワットのコンピュート能力を購入することに合意しています。比較的短い期間ですが、OpenAIがCerebrasを買収する未来が明確に見えます。

興味深いことに、この前の金曜日のライブ番組で、CerebrasのCEOであるアンドリュー・フェルドマンをゲストに迎えたばかりなのですが、彼はまったく秘密を漏らしませんでした。アンドリュー、言及してくれなかったことに少し残念に思っています。

では、なぜサム・アルトマンはCerebrasを選んだのでしょうか。彼らはGroqを選ぶことができませんでした。なぜならGroqはちょうどNvidiaに行ったばかりだからです。そして、名だたる交渉の達人として広く知られるサム・アルトマンは、おそらくこう考えたのでしょう。「うわあ、これはNvidiaへの依存度が高すぎる。我々は彼らからすべてのチップを入手している。Nvidiaチップの上に構築された他の会社から推論を購入している」そして今、もしGroqの推論を購入するとしたら、基本的にすべてが一つの会社に流れることになります。プラットフォームリスクが高すぎます。

Cerebrasチップの圧倒的な速度優位性

また、Cerebrasのチップは多くの点で信じられないほどユニークです。一つは、地球上で最速のチップだということです。これを見てください。これはGPT-4o OSです。OpenAIのオープンソースモデルです。ご覧のように、Cerebrasは速度の点で圧倒的に優位に立っています。

Cerebrasのチップは他のどのチップよりもはるかに高速です。実際、ここでGroqを見ても、毎秒465トークンです。そしてここにCerebrasがあり、毎秒3,000トークンをはるかに超えています。推論速度については後ほど話しますが、しばらくの間スピード至上主義者だった私がついに正当性を証明されたような気分です。

この新しい速度向上の一部を使用できる場所の一つが、OpenAIモデルの使用です。そして今日のビデオのスポンサーはZapierです。すべてのモデルが信じられないほど優れたものになり、すべてのベンチマークを飽和させている今、おそらく私たちは今得ているものよりもさらに良くなることはできないと感じているかもしれません。しかし私が言ってきたように、AIの真の価値を引き出す鍵はツールにあります。

だからこそ、Zapier Agentsについてお伝えできることを嬉しく思います。Zapier Agentsはすべての最高のものを提供します。フロンティアモデルに加えて、エージェントに簡単にプラグインできる8,000以上の異なるアプリ、つまりツールがあります。これが真のAIオーケストレーションです。さらに、MCPを介したClaude、Cursor、Windsurf との緊密な統合により、ツールとエージェントをどこにでも持っていくことができます。

Gmail、Slack、Calendar、Notion、Docs、何でも。それらをエージェントに接続し、必要なツールへのアクセスを与えることは非常に簡単です。ZapierのAIオーケストレーションプラットフォームを今日無料でお試しください。リンクは下の説明欄にあります。彼らは素晴らしいパートナーです。私は何年もZapierを使用していて、大好きです。改めてZapierに感謝します。

それでは動画に戻ります。

Cerebrasの技術的優位性

さて、Cerebrasチップは信じられないほど高速です。今では皆それを知っていますが、別の点でも特別です。彼らはメモリを含むすべてをウェーハ自体に焼き付けます。そのため、多くのチップメーカーやゲーマーが現在メモリ在庫の不足の影響を受けているようですが、ちなみにそれがRAM価格が狂ったように急騰している理由なのですが、Cerebrasは影響を受けていません。彼らはそのタイプのメモリさえ使用していません。

実際、CerebrasのCEOであるアンドリュー・フェルドマンが、ライブ番組でまさにこのことについて話していました。クリップを再生します。

メモリ価格が絶対的に急騰しているのを見ていますよね。つまり、これは狂気じみていて、人々は十分に入手できません。これは広範なGPU市場にどのように影響しますか。そして、Cerebrasにはどのように影響しますか。

私たちはそれを使用していません。だから、私たちにとっては利益になります。つまり、他の人々がより多くを支払っているのであれば、他の人々がGPUを価値あるものにするために必要な部品を入手するのに6ヶ月、12ヶ月、または15ヶ月待っているのであれば、それは明らかに私たちの利益になります。

速度の重要性についての所感

では、信じられないほど高速で、メモリ在庫の影響を受けず、Nvidiaへの過度な依存がないということです。これを想像してみてください。ChatGPTですが、100倍速く、おそらくそれ以上かもしれません。

さて、少し自慢させてください。私はしばらくの間、速度、コスト、品質という方程式の中で、速度がいかに重要かについて話してきました。実際、1年弱前にXで投票を行い、「あなたにとって最も重要なのは何ですか。コスト、品質、それとも速度?」と尋ねました。品質が圧倒的に第1位でした。実際、速度は投票の約2%しかなかったと記憶しています。

しかし、速度は信じられないほど重要です。特にコーディングのユースケースにおいては。最もイライラすることは、タスクを送信して、AIエージェントがそのタスクを完了するのをただ座って待たなければならないことでした。

タスクをキューに入れて並列エージェントを実行できるようになったときには、かなり改善されました。しかし本当に、究極の解決策は、AIが100倍速で実行されることでした。そうすれば突然、コードをはるかに速く反復できるようになります。そして実際、これはコード以外にも当てはまります。あらゆるユースケースに当てはまります。

応答を待つことに問題がないユースケースはほとんどありません。例外はディープリサーチです。あるトピックについてリサーチを行いたい場合、通常はタスクを開始し、ディープリサーチを実行して、そのまま放置します。そして準備ができたときに戻ってくることに問題はありません。しかしほとんどすべてのケースで、私はできるだけ早く答えが欲しいのです。

AI業界の未来への影響

さて、自慢は十分です。これは未来にとって何を意味するのでしょうか。私たちは皆、特殊化チップがAIライフサイクルにおいて大きな役割を果たすことを今では知っています。汎用チップはおそらくまだしばらくの間、訓練の面で使用されるでしょう。TPUが主要モデルの訓練にNvidiaチップが必ずしも必要ではないことを証明しましたが、これらの特殊化チップは推論において重要な役割を果たします。

そして推論こそがお金のあるところです。それだけでなく、OpenAIはより多くのキャパシティを持つことになります。突然、彼らは推論側に追加のキャパシティをすべて持つことになります。これで、すべてのGPU、汎用チップを訓練に専念させることができます。つまり、OpenAIからより優れたモデルが実際に得られる可能性が高いということです。

なぜなら現在、彼らには選択肢があるからです。GPUを将来のモデルの訓練に専念させるか、推論側で抱えている信じられないほどの需要に対応するためにGPUを専念させるかです。もちろん、彼らはお金を稼ぐ必要があります。そのため、彼らはそれらのGPUを推論に投資することを選択しました。ですから、将来的にはより優れたモデルが期待できます。

Cerebras側では、おそらく今、IPOに向けて加速しています。彼らはしばらく前にIPOを申請しましたが、実際に取り下げなければなりませんでした。その後、最近多くの資金を調達しましたが、今ではIPOの達成を再び目指していると思います。これはその方向への大きな追い風になるでしょう。なぜなら今、すべてのフロンティアモデルラボがCerebrasを見て、ああ、おそらくそのキャパシティの一部を使えるだろうと考えているからです。そしてOpenAIは、ええ、それは可能だという承認の印を与えました。

コンピュート能力獲得の軍拡競争

私たちはコンピュート能力の全面的な軍拡競争の真っ只中にいます。実際、ほんの数ヶ月前、私はグレッグ・ブロックマンに、キャパシティリソースをどこに投資するか考える際に内部で行わなければならないトレードオフのいくつかについて直接尋ねました。そして、なぜGroqやCerebrasや他の特殊化チップを使用しないのかと尋ねました。そして、ソフトウェアを動作させるために多くのソフトウェアを書き直さなければならないのではないかと思いました。

彼は、いいえ、実際にはそうではないと言いました。すべて同じだと。そして彼は実際に、GroqやCerebrasのような企業との会話について興味深いことを言いました。そのクリップを再生させてください。

CerebrasやGroqのような新しいプレーヤーを検討したことはありますか。2017年にCerebrasを見たとき、私たちは非常に興奮しました。なぜなら、それはまったく新しいパラダイムだったからです。数字を見て、うわあ、もしそれらを100万個持つことができたら、AGIを構築できるだろうと思いました。まったく異なる、まったく異なるプラットフォームだと気づきます。

非GPU アーキテクチャの構築は、2017年に予想していたよりもはるかに困難であることが判明しました。しかし最初から、私たちは本当にエコシステム全体をマッピングしました。すべての異なるチッププレーヤーと話をしようとし、いくつかのアドバイスを与えようとし、ワークロードの形状について話しました。正直なところ、ほとんどの企業は私たちの話を聞きませんでした。

ある程度、彼らが私たちが間違っていると思っていたというわけでさえありませんでしたが、チップの世界から来た人々がいて、問題を見る特定の方法があり、ワークロードを理解していない場合、そして「いや、いや、いや、この視点は逆だ。本当に別の方法で考える必要がある。小さなモデルではなく、大きなモデルに関するものになるだろう」などの設計インプットを伝えようとしても、それを受け入れなければ、その上に全体的な世界観を再構築することは非常に困難です。

そして、この分野で成功したプレーヤーを本当に区別したのは、深層学習の視点を持つ人々を連れてきたり、ワークロードがどこに向かっているのかに本当に注意を払おうとする人々だったと思います。

フロンティアラボがGroqやCerebrasのような企業に行って、彼らのキャパシティを使用したり、チップを購入したり、推論サービスを購入したりしないのかが理解できませんでした。そして、彼らは今メッセージを受け取り始めているようです。NvidiaがGroqを取り戻し、OpenAIがCerebrasと提携しています。

OpenAIを見ると、彼らの収益に対する唯一の制限要因はキャパシティです。そのため、彼らは可能な限りあらゆる場所でそれを探しています。そしてこのすべては最終的に、これらのシステムのユーザーである私たちに利益をもたらします。

この動画を楽しんでいただけたら、いいねとチャンネル登録をご検討ください。次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました