
5,388 文字

私たちはこう自問します。基盤となるハードウェアマシンに何が求められるのか、そしてもしこの作業に最適化されたマシンを作ることができれば、それは飛躍的な進歩を遂げられるのではないかと。
NVIDIAは史上最大の6,000億ドルの時価総額の下落を経験しました。そしてその原因はたった1つのブレイクスルーにありました。新しいAIチップがNVIDIAのGPUを圧倒し、AI性能で57倍もの高速化を実現したのです。これはAIコンピューティングにおける完全な転換点であり、人工知能の未来を支配する企業の構図を塗り替える可能性があります。
その中心にあるのがDeepSeek R1という高度なAIモデルで、その推論能力で大きな話題を呼んでいます。しかしDeepSeekが注目を集める一方で、本当の破壊的イノベーションはCerebras Systemsによってもたらされています。この企業はGPUがもはやAIにとって最良の選択肢ではないことを証明したのです。
Cerebrasの新しいウェハースケールAIプロセッサは、DeepSeek R1を実行する際に1秒あたり1,600トークンを処理し、NVIDIAのGPUでは到底及ばない速度を実現しています。もしGPUがAIの基盤だと思っていたなら、これによって全てが変わるかもしれません。
しかし、DeepSeekとは一体何なのでしょうか?なぜこのAIモデルがこれほどの騒動を引き起こしているのか?そしてCerebrasはどのようにしてNVIDIAをこれほどまでに大きな差をつけて追い抜くことができたのでしょうか?
長年、AIモデルはテキスト、画像、コードをパターンに基づいて生成することに焦点を当ててきました。しかしDeepSeek R1は異なります。単に文章の次の単語を予測するのではなく、推論に特化し、複数のステップを要する論理的なタスクを処理することができ、ChatGPTやGeminiなどの従来のモデルよりもはるかに高度です。複雑な問題を解決し、情報を分析し、より深い洞察を提供する能力を備えており、これは研究から企業の意思決定まで、あらゆるものを変革する可能性があります。
さらに驚くべきはDeepSeekの効率性です。報告によると、米国の競合他社の1%のコストで運用することができます。OpenAIやGoogleがAIの改良に何十億ドルも費やしている一方で、DeepSeekは大幅に低いコストで同様のパフォーマンスを実現する方法を見出しました。
そのためDeepSeekは急速に注目を集めていますが、大きな問題が1つあります。それは多くの企業がDeepSeekの採用を躊躇させている要因となっています。DeepSeekは中国で開発されているのです。
これは、DeepSeekのAPIを使用する企業が、データを直接中国のサーバーに送信することを意味します。データセキュリティ、政府の規制、地政学的緊張に関する継続的な懸念を考えると、多くの企業がその使用を躊躇しているのです。
ここでCerebrasが登場します。同社はDeepSeek R1を完全に米国のサーバーでホストする方法を見出し、機密データを米国内に保持しながら、比類のないAIの速度と効率性を提供しています。
しかしCerebrasはどのようにしてこれを実現しているのでしょうか?その答えは、NVIDIAのGPUとは根本的に異なるブレイクスルーAIチップにあります。
長年、GPUはAIコンピューティングの中核でした。NVIDIAのチップは業界を支配し、ChatGPTからMidjourneyまで、あらゆるものを動かしています。しかしGPUは間違いなく強力ですが、根本的な欠陥があります。それらはもともとAIの推論用に設計されていなかったのです。
従来のAIワークロードには膨大なメモリ帯域幅と超高速なデータ転送が必要です。グラフィック処理用に作られたGPUはこれらの要求に対応するのに苦労し、AIの計算を遅くするボトルネックを引き起こします。AIモデルがより複雑になるにつれ、これらの制限はさらに顕著になります。
Cerebrasはこの問題に全く新しいアプローチで取り組みました。GPUのような小さなチップのクラスターを使用する代わりに、同社は単一のウェハースケールチップ上に世界最大のAIプロセッサを開発しました。この設計により、複数のGPUユニット間でデータを転送することによる非効率性が解消され、遅延なしで完全なAIモデルを単一の巨大なプロセッサ上で実行することができます。
その結果、DeepSeek R1の実行時に劇的な速度向上が実現されました。CerebrasのAIプロセッサは1秒あたり1,600トークンを達成し、NVIDIAのGPUの28トークンと比較して驚異的な57倍の速度を実現しています。
そしてこれはDeepSeekだけの話ではありません。ベンチマークによると、Cerebrasのウェハースケール技術は、数学的推論、複雑な質問応答、AIコーディングタスクなど、複数の重要な分野でOpenAIのGPT-4や他の主要なAIモデルを上回るパフォーマンスを示しています。
超高速AIの推論に特化した別の企業であるGroと比較しても、Cerebrasは依然として6倍速く、NVIDIAのような従来のGPUベースのソリューションと比較すると、ほぼ100倍も高速です。
このような巨大なパフォーマンスの飛躍があるにもかかわらず、1つの疑問が残ります。もしこの技術がそれほど優れているのなら、なぜNVIDIAは対応していないのでしょうか?
AI業界はハードウェアで動いており、過去10年間、NVIDIAはこの分野を支配してきました。企業はAIの研究から自動運転車まで、あらゆるものを動かすためにNVIDIAのGPUに何十億ドルもの投資をしてきました。彼らのチップは機械学習と人工知能のデフォルトの選択肢となり、NVIDIAを世界で最も価値のある半導体企業に押し上げました。
しかしDeepSeek R1の出現と、Cerebrasが記録的な速度でそれを実行できる能力は、NVIDIAの支配力に対する投資家の信頼を揺るがしました。DeepSeekがOpenAIやGoogleのモデルを上回るパフォーマンスを示しているというニュースが伝わると、投資家はGPUがもはやAIコンピューティングにとって最良の選択肢ではないかもしれないと気付きました。
市場は即座に反応し、NVIDIAの株価は史上最大の価値損失を記録しました。6,000億ドルが消失したのです。これはAI業界におけるさらに大きな変化を示唆しています。
長年、NVIDIAはGPUがAIワークロードにとって唯一の実行可能な選択肢であるという前提に依存してきました。しかし今、Cerebrasのような企業が、専用のAIチップがより高速で、より安価で、より効率的であることを証明しています。
専用のAIプロセッサは著しいパフォーマンスの優位性を示し、長年AIインフラを支配してきたGPU中心のモデルに挑戦しています。これは1つのAIモデルや1つの企業の話ではありません。AIの実行方法の未来全体に関わる問題です。
もしGPUがもはやAIの推論にとってデフォルトの選択肢でなくなれば、NVIDIAは素早く方向転換をしなければならないか、さもなければAIハードウェア市場における支配力を失うリスクを負うことになります。
では、これはNVIDIAの未来にとって何を意味するのでしょうか?彼らはこの新しいAIハードウェアイノベーションの波に適応できるのでしょうか?それともGPUからの大きな転換の始まりを目の当たりにしているのでしょうか?そしてより重要なのは、これがAI自体の未来にとって何を意味するのかということです。
AIの採用はもはや速度と効率性だけの問題ではありません。誰がデータを管理するかということが問題なのです。データプライバシー、政府の監視、サイバーセキュリティに対する懸念が高まる中、多くの企業が中国のAIモデルをワークフローに統合することを躊躇しています。
この問題は理論的なものではありません。近年、米国の法律制定者は、データの不正使用に関する懸念から中国のテクノロジーを取り締まってきました。TikTokの親会社であるByteDanceは、ユーザーデータの取り扱いについて繰り返し精査を受け、複数の禁止措置や法的な戦いに直面しています。
同じ懸念が今、DeepSeekのようなAIモデルにも当てはまります。ここでCerebrasが状況を一変させます。DeepSeek R1を完全に米国の土地でホストすることで、Cerebrasは中国の管理を回避し、企業がセキュリティリスクなしにDeepSeekの強力なAI機能にアクセスする方法を提供しています。
Cerebrasの上級幹部であるJames Wangは、これを「AIの覇権を取り戻す」と表現し、中国がAIで大きな進歩を遂げる一方で、米国には今、リーダーシップを取り戻す機会があることを示唆しています。
そしてこれはビジネスだけの問題ではありません。グローバルなAIの支配権に関わる問題なのです。AIレースはもはや誰が最も高速なモデルを構築するかだけの問題ではありません。誰がインフラを所有し、誰がデータを管理し、どの国がルールを設定するかという問題なのです。
Cerebras、OpenAI、Groのような企業が最先端のAIチップとホスティングソリューションを開発する中、米国は外国のテクノロジーに依存することなく、AIイノベーションのリーダーとしての位置を確立しようとしています。
しかし、より大きな疑問が残ります。GPUはまだAIの未来なのでしょうか?それとも、これは専用のAIチップが主導権を握る瞬間なのでしょうか?
長年、AI開発はGPUを中心に構築されてきました。企業はAIモデルのトレーニングと実行に唯一の実行可能な選択肢だと信じて、NVIDIAのチップの獲得に何十億ドルもの投資をしてきました。研究所から大規模なAIの展開まで、そのGPUがすべてを動かし、AI分野におけるNVIDIAの支配力は揺るぎないように見えました。
しかしCerebrasは、それがもはや当てはまらない可能性があることを証明しました。ウェハースケールAIプロセッサにより、Cerebrasは専用のAIチップが従来のGPUよりも高速で、より効率的で、より安価であることを示しました。
メモリのボトルネックを引き起こすGPUのクラスターに依存する代わりに、Cerebrasの単一チップアーキテクチャは非効率性を排除し、AIの推論に大きな速度向上をもたらしています。
そして彼らだけではありません。Google、Amazon、Microsoftのような技術giants も、NVIDIA主導のGPUエコシステムから離れ、独自のAI専用プロセッサを開発しています。
Googleは機械学習ワークロード専用に設計されたTPU(Tensor Processing Units)を、AmazonはクラウドベースのAI推論用に設計されたTrainiumとInferenciaのAIチップを、Microsoftは独自のAIエコシステムを動かすためのMayaAIチップを開発しています。
この変化は明確です。AIは専用ハードウェアへと移行しています。では、これはNVIDIAにとって何を意味するのでしょうか?
もしAI企業がGPUへの依存を止めれば、NVIDIAは最大の市場を失う可能性があります。現在、同社はまだAIトレーニングを支配していますが、AIの推論がより効率的になり、普及するにつれて、企業はより高速で安価な代替手段を探しています。そして競争は急速に進んでいます。わずか数年で、Cerebras、Gro、その他のAIチップのスタートアップ企業はパフォーマンスでGPUを大きく上回りました。もしNVIDIAが早急に方向転換を図らなければ、AI分野で地位を失う可能性があります。
しかし、これらの新興企業が市場を支配する前に、競争力のあるAI専用チップを開発することができるでしょうか?それは数十億ドル規模の問題です。
1つ明確なことは、NVIDIAはもはや無敵ではないということです。長年、GPUはChatGPTからTeslaの自動運転車まで、あらゆるものを動かすデフォルトの選択肢でした。AIコンピューティングにおける彼らの支配力は疑問の余地がなく、GPUベースのインフラに数十億ドルが投資されてきました。
では、これからどうなるのでしょうか?私たちはAIハードウェアの軍拡競争を目の当たりにしようとしています。米中のAI競争は加速しており、AIの能力が進化するにつれて、誰がテクノロジーを管理し、どこでデータが処理されるかという問題はさらに重要になっていくでしょう。
ここまでご覧いただいた方は、以下のコメント欄で皆さんの考えをお聞かせください。より興味深いトピックについては、画面に表示されているおすすめ動画をご覧ください。ご視聴ありがとうございました。


コメント