イギリスを拠点とする半導体設計大手のArmが、自社初となるAIチップ「Arm AGI」を開発し、ファブレス半導体企業としての新たな一歩を踏み出した。本動画では、テキサス州オースティンにある新設のチップラボを独占取材し、圧倒的な電力効率を誇るこの新しいCPUのテスト風景を公開している。また、最初の顧客となったMetaのインフラ戦略や、AIエージェントの普及に伴うCPU需要の急増、そしてNvidiaやIntelといった競合他社との複雑なパートナーシップについて、ArmおよびMetaの幹部や専門家が詳しく解説している。

Armの新たな挑戦:自社製AIチップの誕生
Armが設計したチップは、ほぼすべてのスマートフォン、Appleのコンピュータ、Nvidiaのサーバーラック、そしてAmazon、Google、Microsoftのデータセンターに搭載されています。そして今、Armはこれらの巨大な顧客の多くと競合することになります。なぜなら、物理的なシリコンを製造するという全く新しいビジネスに参入し、ファブレス半導体企業の仲間入りを果たしたからです。
このチップはまさにAGIの時代に向けて設計されており、信じられないほど消費電力が低く抑えられています。驚異的な高性能を誇り、徹底的に最適化されているんです。
これがArmの新しい自社製中央演算処理装置、Arm AGIです。電力効率の高い推論に特化して構築されており、Metaを最初の顧客として迎えています。
私たちにとっては、世界にまた新しい選択肢が一つ増えたということです。サプライチェーンの多様性がすべてですからね。
彼らにとって初めてのチップがMetaに採用されたことについては、正直少し驚いています。最初のチップを成功させるのは非常に難しいことですから。
私たちはテキサス州オースティンに来ています。Armがこのプロジェクトを実現させている、真新しいチップラボを独占取材するためです。
この中には文字通りたくさんのサーバーがあり、世界中の人々がログインしてシリコンの最適化作業を行っています。Metaのような顧客、さらにはOpenAI、F5 Networks、SAPといった顧客に向けて準備を進めているところです。
CPUの巨人に挑むArmの歴史と進化
35年以上にわたり、イギリスを拠点とするこの半導体設計企業は、自社のアーキテクチャ、つまり命令セットをほぼすべての大手半導体メーカーに販売し、Armベースのすべてのチップからロイヤリティを徴収してきました。IntelやAMDといったCPUの巨人が使用する従来のx86 PCおよびサーバーアーキテクチャに対し、より低消費電力の代替案を提供してきたのです。
2028年や2029年に建設するデータセンターの電力をどうやって賄うのか、実際のところ私たちにも全く見当がつきません。特定のパフォーマンスレベルにおいて低消費電力を実現するという点で、Armは本当に優れています。
しかし、最高のAIチップを作る競争において、Armが競合相手になることについて、Armのトップ顧客たちはどう考えているのでしょうか。エージェンティックAIが普及する中でなぜCPUがルネサンスを迎えているのか、そして今日のAIチップメーカーがひしめく激戦区で、新しいArmがどのように成功を収めることができるのか。MetaとArmのトップリーダーたちに話を聞き、その理由を探りました。
満を持してのローンチと業界の反応
この新しいチップが登場する前、Armは目に見える形のあるものは何も作っていませんでした。むしろ、Intelが約50年前に導入して以来支配的だったx86アーキテクチャの代替として、自社のコア設計のライセンスを販売してきました。
x86は実績があり、間違いのない選択肢でした。ほとんど何でも動かすことができますからね。一方、Armがロイヤリティとライセンスを通じて提供してきた価値は、余計なものを一切含まず、自分たちが望むチップをそのまま作れるということでした。
Armは1990年にケンブリッジの七面鳥小屋で12人の創業者たちによって立ち上げられ、AppleやTexas Instrumentsとの早期の契約のおかげで、2000年代初頭にはほぼすべての携帯電話で主要なチップアーキテクチャになるまで急成長しました。その後、2018年にNeoverseプラットフォームを立ち上げ、データセンター向けチップのアーキテクチャに進出しました。
同年、AmazonがARM Neoverseをベースにした初のカスタムプロセッサ、Gravitonを発売したことで、これがメインストリームになりました。モハメド・アワド氏も2018年にArmに入社しました。
私たちがローンチして以来、Neoverseをベースにしたチップは12億5000万個以上もデータセンターに出荷されてきました。ますます多くのハイパースケーラーがカスタムシリコンに参入するにつれて、Neoverseは勢いを増していきました。
2023年にArmが2度目の株式公開を果たしたとき、それは過去2年近くで最大規模の新規公開株となりました。x86よりもカスタマイズ性が高い同社の命令セットにより、Amazon、Google、Microsoftのようなファブレス半導体メーカーは、インターコネクト、メモリサポート、コンピュートサブシステムといった他のArmの技術を統合しながら、自社の設計を調整することができます。
もしArmが存在していなかったら、独自のプロセッサを持っているこれらの企業は、自社でプロセッサを作ることはできなかったでしょう。
Armは長い間、CPUを作るための構成要素を保持してきました。では、なぜ今、次の大きな一歩を踏み出すことにしたのでしょうか。
エージェントが活躍する世界において私たちが目の当たりにしているのは、たくさんのGPUがエージェントを次々と起動させており、それらのエージェントが外に出て実行しなければならないという状況です。
そして、その実行を担うのがCPUなのです。以前は人間がそのプロセスのボトルネックになっていました。しかし今やAIがこれらのエージェントを大量に生み出しているため、そのボトルネックは取り除かれました。そのため、そのすべてに追いつくためのCPUの需要は本当に天井知らずに跳ね上がっています。
Armは、過去1年以上の間、おそらく直近4回の決算発表でこのことをほのめかしてきました。このラボは18ヶ月以上前から準備が進められてきました。なぜ今がローンチの適切なタイミングなのでしょうか。
私たちが常に言っていたことの一つは、シリコンが手元に戻ってきて、それがうまく機能していると確信できたときにローンチするということでした。そして、強力な顧客の需要があることも分かっていました。そうしたすべての条件を満たした今、私たちはその段階に到達したのです。
本当におめでとうございます。Armの皆さん、おめでとうございます。
実際に、自社のチップを作るためにArmのアーキテクチャをライセンス契約している何十もの顧客が、物理的なシリコンの分野で彼らと競合するというArmの参入を公に支持しています。
これは1兆ドル規模の市場です。そして私たちが何度も目の当たりにしているのは、実際に私たちのパートナーが前に出て、これが業界にとって素晴らしいことだと理解し、実感してくれているということです。
AWSやGoogle、Microsoft、Nvidiaといった顧客は皆、これがエコシステムにとって良いことだと言ってくれています。
少なくとも8社の顧客がすでにArmの新しいCPUの購入を約束しており、発表が行われたイベントでは、既存顧客の約50社がこのチップへの支持を表明しました。Nvidia、AWS、Google、Samsung、Broadcom、Microsoft、Micron、TSMCといったビッグネームが名を連ねています。
多くのお客様が支持してくださっていますね。でも、全員ではありません。今日、Qualcommの姿はありませんでしたが。
それはQualcommに聞くべき質問だと思いますよ。彼らは過去に私たちの強力なパートナーでしたし、今後も強力な関係を築いていけることを楽しみにしています。
Qualcommは、主力のSnapdragon PCおよびスマートフォン向けプロセッサの基盤にArmを採用していますが、今回の製品と競合するArmベースのサーバーCPUの開発も進めています。また、両社は2022年以降、Armの技術に基づく特定のチップを製造する権利を巡って訴訟を繰り広げてきました。
AMDについてはどうでしょうか。どのような反応を予想していますか。
AMDも私たちの素晴らしいパートナーの一つです。彼らがFPGAの分野でやっていること、Xilinxや一部の組み込みプラットフォームでの取り組みを見ていただければわかるように、それらはすべて私たちがAMDと非常に深く関わっている領域です。
ですから、今後も彼らとの強力なパートナーシップを続けていきたいと考えています。彼らが市販シリコン市場に参入してくる可能性について、過小評価も過大評価もしたくありません。私たちは顧客の要求に応えるために可能な限り速く走るつもりですし、競争自体は良いことです。私たちに緊張感を与え、常に全力で走り続けさせてくれますからね。
テキサス州オースティンの新チップラボに潜入
AMDは、サーバーCPUの市場シェアにおいてIntelに次ぐ第2位です。x86の生みの親であるIntelも、チップ製造のためのファウンドリを運営しています。
もちろん、一部の分野ではIntelと競合していますが、多くの分野では彼らと提携もしています。彼らのIPU製品、つまりデータセンターの管理に使われるネットワーク製品を見てみてください。それらはすべてArmをベースにしています。
彼らは私たちのライセンシーなんです。過去にも密接に協力してきましたし、今後もIntel Foundryと密接に協力し続け、将来に向けて提携する方法を探っていきます。
ほぼすべてのファブレスAIチップメーカーと同様に、Armも現在、自社のCPUをTaiwan Semiconductor Manufacturing Companyで製造しています。
TSMCの3ナノメートルノードで製造されるArmのCPUは、今のところすべて台湾で製造されていますが、TSMCは間もなくアリゾナ州に3ナノメートルのファブを稼働させる予定です。3ナノメートルのファブがオープンしたら、アリゾナに製造を移す計画はありますか。
ここアメリカで製造できれば嬉しいですね。結局のところ、お客様が何を求めているかによると思います。
チップがTSMCから戻ってきたら、Armは初期のイテレーションをテストする必要があります。そこでArmは、2年足らずでこの施設を建設しました。テキサス州オースティンに、3つの独立した部屋と急拡大するチームを擁する、総額7,100万ドルの全く新しいラボです。
ご覧の通り、ここは現在も建設工事が進行中です。オースティンでスタートしたのはもう20年以上前のことで、当時はおそらく10人から15人程度だったと思います。今では1000人を超え、急速に成長しています。
チップの初期立ち上げは、このオースティンラボの最初の部屋で行われます。
これは検証用ボードです。ここにチップを差し込むことで、チップからあらゆる信号を引き出し、すべてが期待通りに機能しているかを確認することができます。
次に、チップは隣の部屋にあるサーバーラックに組み込まれ、さらにテストが行われます。
これらのヒートシンクの下には、2つの異なるArm AGI CPUが配置されていますが、これらは接続され、単一のCPUとして機能しています。何百ものコアが連携して動作し、システム上のすべてのメモリにアクセスできるのです。これはデータベースのワークロードなどに非常に適しています。
そして最終的に、これらのチップは第3の、そして最後となるテスト段階のためにここへ運ばれてきます。
ここはすべて自動化されたテスト装置のセットになる予定で、故障解析を行ったり、出荷前に部品の事前スクリーニングを行ったりできるようになります。ある意味、私たちは離陸しながら文字通り滑走路を建設しているような状態なんです。
最後に、最大64個の新しいCPU、合計8700コアがサーバートレイに配置され、それがCPU専用の空冷ラックにスライドして収められます。これはArmが敷地内の小規模な模擬データセンターでテストしているものです。これは非常に高密度な構成であり、世界中のデータセンターの顧客にアピールできるとArmは確信しています。
AGI時代に向けた圧倒的な電力効率
x86のラックと比べて、ワット当たり2倍のパフォーマンスを得ることができます。つまり、同じ設置面積、同じ消費電力で2倍のパフォーマンスを発揮するということです。
データセンターが多くの電力制約に直面している中で、それはどれほどゲームチェンジャーになるのでしょうか。
計り知れない影響があります。例えば、1ギガワットのデータセンターを想像してみてください。今日では、そこに約1,000万個のCPUコアが搭載されることになります。
エージェンティックAIの普及に伴い、その数は1億個かそれ以上に増えると私たちは考えています。それはとてつもない量の電力を必要とするでしょう。
アワド氏によれば、この電力効率の良さは、ArmがAGIチップを汎用人工知能に特化して徹底的に最適化するという決断を下したことに大きく起因しているそうです。だからこそ、このような名前が付けられているのです。
このチップは、レガシーなアプリケーションやソフトウェアをサポートすることに頭を悩ませていません。そうしたレガシー要素は、既存の設計のいくつかにおいては、ある意味で負担となっています。なぜなら、シリコンの面でもオーバーヘッドを生み、電力の面でもオーバーヘッドを消費するからです。
そしてパフォーマンスの面でもオーバーヘッドを生み出します。今の世界では、電力は流れる金のようなものです。もしクラス最高のCPUがあり、可能な限り最高のワット当たりパフォーマンスを提供してくれるなら、インフラの他の部分により多くの電力を回すことができる世界が想像できるでしょう。
メモリもまた、Armを含む現在のAIチップメーカーにとって不足している必需品の一つです。
私たちは、この製品が生産に入る時期についてかなり正確に把握していました。ですから、そのサプライチェーンを確保するために、かなり前から取り組んできたのです。
ウェハーの生産能力も、業界全体が直面しているもう一つの課題です。TSMCの最も先進的なノードである3ナノメートルの生産能力を十分に確保できるかどうか、懸念はありますね。需要は非常に高いですから。
ええ、間違いありません。需要の確保は一つの課題です。しかし、私たちが築いてきた関係や、彼らと協力して進めてきた確実な事前計画のおかげで、現在の状況についてはかなり自信を持っています。
最初の顧客、MetaのAIインフラ戦略
データセンター計画を静かに縮小しているOpenAIのような他のテクノロジー大手とは異なり、MetaはAIインフラへの投資に全力を注ぎ続けています。そのため、Arm CPUの最初の顧客としてMetaが選ばれたのは論理的な選択と言えます。
私たちにとって、これは購入の選択肢を幅広く多様に持つための方法なんです。今の世の中では、実際には数社のプレイヤーしかいませんからね。ですから、これによって私たちのエコシステムにまた新たなプレイヤーが加わることになります。
ポール・サーブ氏はMetaに18年間在籍しており、MetaのすべてのソフトウェアがArm上で動作するように取り組んでいる5人のエンジニアのうちの1人です。
私たちがどんなワークロードを投げかけても、それを動かしてくれます。これは基本的に、コンピュートCPUの完全な代替品、つまりそのまま置き換えられるドロップイン・リプレイスメントとなるように設計されており、私たちの開発者にとっては変更を意識させない透過的なものになる予定です。
サーブ氏は、Facebookが2011年にOpen Compute Projectを立ち上げた際にも関わっていました。今では、ArmやNvidiaのような何百ものメンバー企業が、データセンターのエネルギー消費とコストの削減を支援するオープンなハードウェア設計に取り組んでいます。
私たちがArmと最初に交わした会話は、もし私たちがこれを構築するなら、自社の中だけに留めておきたくない、というものでした。私たちはチップを売るための販売チャネルを構築しようとしているチップメーカーではありませんからね。世界中で利用できるようにしたかったのです。
Metaは、ルイジアナ州にある最大5ギガワットの容量を持つハイペリオン・サイトから、オハイオ州とインディアナ州で建設中の1ギガワットのサイトまで、計30か所のデータセンターを計画または稼働させています。
また、Metaはテキサス州にある巨大なスターゲイト・サイトのスペースをリースすることも検討していると報じられています。ここは、OpenAIとOracleが最大10ギガワットの容量まで拡張する計画を白紙に戻した場所です。
Metaは、彼らのLLaMAモデル、つまり稼働し始めた前回のLLaMAモデルで少し苦境に立たされました。
期待ほどうまく機能せず、遅れをとってしまったのです。また彼らは、自分たちがやりたいことを実現するための計算能力が足りていないことにも気づきました。そこで彼らは設備投資を増やし、新しいデータセンターを建設し、第三者に頼って彼らから容量を確保しました。そして、これらすべてのデータセンターを満たすためには、大量のチップが必要になるのです。
巨大市場への参入とNvidiaとの強力なパートナーシップ
Metaは、2月に発表された大規模な新規契約により、NvidiaとAMDの両方から提供されるGPUでそれらのデータセンターを埋め尽くそうとしています。また、2023年から製造している自社開発のMeta推論・学習アクセラレータ(MTIA)のラインナップも強化しており、3月には4つの新しいMTIAチップを発表しました。
それらすべてのアクセラレータを駆動するためのCPUは、Nvidia、そして今後はArmから供給されることになります。ある意味で、彼らはこのプロセッサの共同開発を支援したとも言えます。
取引の財務状況は明らかにされていませんが、Metaは1月に、2026年にAIに対して1,150億ドルから1,350億ドルを投資する計画であると発表しました。
Armにとって、自社の約50倍もの年間収益を上げるこのソーシャルメディアの巨人と提携することは、大きなチャンスを意味します。
また、Armという会社自体も、より高い収益数字を求めているのだと思います。
仮に、Metaが将来的に予定している1,150億ドルから1,350億ドルの設備投資のうち、5%を獲得できたとしましょう。それはArmのトップライン、つまり売上高においてゲームチェンジャーとなります。
アワド氏によると、ArmのCPUは現在輸出規制の対象ではないため、中国に販売することも可能です。中国は2025年のArmの収益の約19%を占めており、この割合は2023年以降、着実に減少傾向にあります。
次にArmのCPUを購入する可能性のあるアメリカの顧客としては、Nvidiaが特に興味深い存在です。NvidiaはかつてArmを400億ドルで買収しようとしましたが、2022年に規制当局によって阻止されました。その後、Nvidiaは保有していたArmの株式をすべて売却しています。現在の関係はどうなっているのでしょうか。
私たちの関係は良好で、最も強力なパートナーの一つです。
彼らの設計のあらゆる側面において提携しています。私たちの側としては、Arm AGI CPUは、データセンターにおいて彼らの製品のいくつかと共存する可能性があるものだと考えています。
それができない理由が見当たりません。ジェンスン・フアンは、より多くのGPUを売るためにはより多くのCPUが必要であることを理解していますから、彼は非常に現実的です。
自社製プロセッサの未来と実稼働への期待
ArmはCPUの価格を明らかにしませんでしたが、競争力があるとし、自社でプロセッサを製造する余裕がない企業でもコンピューティングにアクセスできるよう支援することを目指していると述べています。
アナリストのパトリック・ムーアヘッド氏は、価格は数千ドルになるだろうと予測しています。
今日、Armのデータセンター向けチップを手に入れる方法はたくさんありますが、自社で開発するには1,000人のエンジニアと5億ドルの予算が必要です。ですから、間違いなく市場のニーズは存在しています。
Armがこれを実行し、成功を収め、歩留まりも良好で、Arm製のCPU上でAIのワークロードが大規模に稼働している。そう言えるようになるために、私たちが待つべき証明ポイントのようなものはあるのでしょうか。
そうですね、すでにシリコンは手元に戻ってきています。
実際のワークロードも実行しています。顧客のラボにもシリコンが渡っています。彼らは積極的にテストを行い、検証し、生産に向けての認定作業を進めています。
そして、今年後半には量産に入る予定です。


コメント