
6,457 文字

今日、私たちは第7世代のTPU、Ironwoodを発表しました。Ironwood TPUは、これまでで最大かつ最も強力なTPUポッドです。1ポッドあたり9,000以上のチップを搭載し、最新の高性能TPUから10倍以上の性能向上を実現しています。Googleの新しいAIチップは地球上最速のスーパーコンピュータを圧倒しました。わずかな差ではなく、24倍もの差をつけたのです。
Cloud Next 2025で発表された彼らのカスタムIronwood TPUは、スケールした場合42.5エクサフロップスに達し、エル・キャピタンの1.7エクサフロップスを大きく上回ります。このビデオでは、その数字が実際に何を意味するのか、Ironwoodが何をするために作られたのか、そしてそれがAIの経済性をどのように一夜にして変えているのかを解説します。しかしそれだけではありません。
また、このチップがGoogleのフルスタックAIインフラストラクチャにどのように適合するのか、そしてなぜこの動きがAWSやMicrosoftとのクラウド戦争を再定義する可能性があるのかも探っていきます。さあ、詳しく見ていきましょう。
Ironwoodの特徴は何か?
ここ数年、TPUのようなカスタムシリコンを含むほとんどのAIハードウェアは、トレーニングに焦点を当ててきました。これは、巨大なモデルが言語を理解し、パターンを認識し、新しいコンテンツを生成する方法を教える計算集約型のプロセスです。しかしトレーニングは一度だけ行われます。推論は常に行われています。質問をしたり、画像を生成したり、プロンプトを入力するたびに行われるのです。
ここがIronwoodがGoogleの過去のTPU戦略と一線を画す点です。これはGoogleが推論専用に設計した初めてのTPUです。この決断は、AIモデルがより強力になり、より頻繁に使用されるようになるという業界全体の変化を反映しています。推論はいつの間にかトレーニングではなく、主要なボトルネックになっていたのです。
各Ironwoodチップは、高スループット、低レイテンシーの推論向けに設計されており、Googleがこれまで提供してきたどのようなものよりも大幅に優れた計算密度とエネルギー効率を実現しています。第6世代のTrillium TPUと比較すると、Ironwoodはあらゆる面で性能が向上しています。メモリは6倍、帯域幅は4.5倍、ワットあたりの性能は2倍になりました。
なぜそれが重要なのでしょうか?それはAIがもはや研究室だけに存在するものではなくなったからです。金融、医療、小売、メディアなど、あらゆる場所で見られるようになりました。これらはすべて、ミリ秒単位の時間とワット数が重要な場所です。
これはGoogleだけが言っていることではありません。GoogleのマシンラーニングシステムおよびクラウドAI担当バイスプレジデントであるアミン・バードによれば、Ironwoodは生成AIの次の段階と、その膨大な計算および通信要件をサポートするために構築されています。チップアーキテクチャ全体が、単に応答するだけでなく、推論し、統合し、相互作用するAIエージェント向けに最適化されています。
つまり、これは単に高速なチップというだけでなく、次世代AIシステムのためのインフラ展開なのです。推論の時代の到来です。
Ironwoodの重要性を理解するには
Ironwoodの重要性を理解するには、私たちが入りつつあるAIの段階を理解する必要があります。この5年間、私たちはGPT、Gemini、Claudeなどの基盤モデルについて話してきました。その多くはサイズ、パラメータ数、トレーニングの複雑さに基づいて競争していました。
しかし今、注目は訓練されたモデルが実際に実世界のタスクを実行するために展開される「推論」に移りつつあります。Googleはこれを「推論の時代」と呼んでいます。なぜでしょうか?それはトレーニングが一回限りのコストであるのに対し、推論は毎日何十億回も発生する継続的なコストだからです。
チャットボットが質問に答えるたび、検索結果がパーソナライズされるたび、画像が生成されるたびに、それは推論なのです。そしてそれらの操作は安くありません。GoogleによるとAIの計算需要は過去8年間で毎年10倍のペースで成長しており、2016年から1億倍の増加を示しています。
そして、18〜24ヶ月ごとにチップの性能が2倍になるというムーアの法則は、単純についていけません。だからこそカスタム推論ハードウェアがとても重要なのです。Ironwoodは、ワットあたりの計算量を大幅に増やすことでこの曲線を先取りするGoogleの試みであり、インフラ予算やエネルギーグリッドを枯渇させることなく複雑なAI機能を提供することを可能にします。
この変化はまた、AIが単に答えを取り出すだけでなく、積極的に推論し、計画し、問題を解決する方向に向かっていることも反映しています。Ironwoodは、AIが単純なチャットボットから、Gemini 2.5のような最も要求の厳しい思考モデルの指数関数的に増大する要求に応えるために協力し、動的に反応するマルチエージェントシステムに移行するにつれて、これらのワークロードを効率的に処理するように設計されています。
これにより、ポッドあたり42.5エクサフロップスという驚異的な計算能力が実現します。その規模感を理解するために、世界第1位のスーパーコンピュータは1.7エクサフロップスをサポートしています。
Ironwoodの驚異的なスペックの内部
数字について話しましょう。それこそがIronwoodが市場の他のどんなものからも距離を置き始める点だからです。個々のIronwoodチップは、ピーク時に4,614テラフロップスの計算能力を提供します。これは1秒あたり兆単位の浮動小数点演算です。これをGoogleのTPUポッドで使用される9,216チップの構成にスケールアップすると、42.5エクサフロップスになります。
参考までに、核シミュレーションと国家安全保障アプリケーション向けに設計されたエル・キャピタンは、最大で1.7エクサフロップスです。メモリに関しては、各Ironwoodチップには192ギガバイトの高帯域幅メモリ(HBM)が搭載されており、これはTrilliumの6倍です。
これにより、より大きなモデルの実行、より高速なトークン処理、推論タスク中のボトルネックの削減が可能になります。チップあたりのメモリ帯域幅も大幅に向上し、1秒あたり7.2テラバイトと、前世代のTPUと比較して4.5倍の増加を実現しています。また、特に大規模データセンターにおいて電力制約が大きな問題になっている世界では、Ironwoodは効率面で実質的な利益をもたらします。
Googleは、Trilliumと比較してワットあたりの性能が2倍に向上し、2018年に発売された最初のクラウドTPUと比較して効率が約30倍になったと主張しています。なぜそれが重要なのでしょうか?それは多くの企業や機関が高度なAIモデルを使用したいと考えていますが、それらのシステムに電力を供給し実行するコストによって阻まれているからです。
Ironwoodの効率性は、より多くの計算、より少ない電力、そして特に大規模な展開では低いコストを意味します。これらは孤立した主張ではありません。これはCloud Nextで共有されたGoogleの内部メトリクスに基づいており、業界のベンチマーク標準に沿ったものです。彼らは今後数ヶ月でさらなる性能結果を発表する予定です。
Googleの最先端モデルを動かす
では、GoogleはIronwood上で正確に何を実行しているのでしょうか?その中心にあるのはGemini 2.5ファミリーです。同社の最新世代のAIモデルです。これらは単なるテキスト予測器ではありません。Gemini 2.5モデルはネイティブな推論能力を備えて構築されており、テキスト、画像、ビデオ、さらにはオーディオなど複数のモダリティにまたがって動作します。
まず、科学研究、創薬、財務モデリングなどの高度なユースケース向けに最適化されたGemini 2.5 Proがあります。これは、複数ステップの推論、コンテキスト認識、長文生成を必要とする複雑なクエリを処理するように設計されています。Googleによれば、大規模な文書を分析し、グラフを解釈し、結論を統合することができます。
これらはすべて、単なる次のトークン予測以上のものを必要とするタスクです。そしてこれらはすべて、高スループット推論のためにIronwoodによって特別に最適化されたTPU上で実行されます。
次に、Gemini 2.5 Flashがあります。これはチャット、要約、スマートアシスタンスなどの高ボリューム、低レイテンシータスク向けに調整された、より軽量で高速なバリアントです。入力の複雑さに基づいて推論の深さを動的に調整し、リアルタイムのユースケースにおけるコストと応答性のバランスを取るのに役立ちます。
テキストを超えて、GoogleはIronwoodによって駆動される生成メディアツールのスイートを展示しました。これには、テキストから画像、テキストからビデオ、そして新たに導入されたテキストから音楽へのモデルであるLIIAが含まれ、これは書かれたプロンプトから音楽作品を生成します。ここでの目標は単に大きなモデルを作ることではありません。より賢く、より適応性の高いシステムを作ることです。
そして、Ironwoodの効率性により、これらのシステムはグローバルスケールで一貫して手頃な価格で実行することができます。
Ironwoodを支えるシステム
Ironwoodは孤立して運用されているわけではありません。それはカスタムハードウェア、専用ネットワーキング、最適化されたMLソフトウェアインフラストラクチャにまたがる垂直統合型AIスタックの一部であり、すべて社内で開発されています。
ソフトウェア側では、GoogleはDeepMindによって開発された機械学習ランタイムであるPathwaysを活用しています。Pathwaysは、何百、何千ものTPUチップにわたってスケーラブルなモデルサービングを可能にします。分散ワークロード、負荷分散、クラスター全体のメモリ最適化を確保し、開発者が最小限のオーバーヘッドで大規模モデルを展開しスケールすることを容易にします。
そして、GoogleのマネージドワイドエリアネットワークサービスであるクラウドWANがあります。これにより、企業はGoogleのプラネットスケールのプライベートネットワークにアクセスでき、最大40%のパフォーマンス向上を実現しながら、同様の割合で総所有コストを削減します。これはレイテンシーに敏感なアプリケーションやグローバルAI展開戦略にとって重要です。
ここでGoogleを際立たせているのは、シリコンからその上で実行されるソフトウェアまで、スタック全体を社内でコントロールしていることです。AnapernalabsのTraniumやInferentiaなどのチップに依存するAWS、またはNvidiaと提携しOpenAIのモデルを使用するAzureとは異なり、Googleのエコシステムは内部で構築、テスト、展開されています。これにより、イテレーションサイクルの高速化とコンポーネント間の緊密な最適化が可能になります。
Ironwoodは、10年に及ぶTPU開発努力の最新の成果であり、それがAIインフラストラクチャレースにおいてGoogleに独自の立場を与えています。
マルチエージェントAIシステムに対するGoogleの計画
ハードウェアと効率性が見出しを飾る一方で、Googleはさらに基盤的な可能性を秘めた、マルチエージェントAIシステムへの転換も導入しました。
これは2つの新しいツールの形で登場しました。エージェント開発キット(ADK)とA2Aプロトコル(エージェント間相互運用性プロトコル)です。ADKにより、開発者は相互作用し、協力し、問題を一緒に解決できる複数のAIエージェントを構築できます。これらのエージェントはそれぞれドメインに特化することができます。スケジューリング用、分析用、コンテンツ生成用など、チームとしてユーザーのリクエストを満たすために働きます。
一つのチャットボットというよりも、協力するモデルチームと考えてください。A2Aプロトコルはその概念をGoogleのエコシステムを超えて拡張します。異なるプラットフォーム、モデル、あるいはベンダー上に構築されたAIエージェント間の通信を可能にするように設計されています。つまり、Geminiを搭載したエージェントが、まったく異なるLLM上で実行されているエージェントと対話できるようになり、相互運用可能なクロスプラットフォームAIエコシステムへの道が開かれます。
これは企業に複数の方法で役立ちます。ベンダーロックインを減らし、ツールの互換性を促進し、チームがゼロから始めることなく最高クラスのAIソリューションを組み合わせることを可能にします。GoogleはすでにSalesforce、SAP、ServiceNowを含む50以上の企業パートナーが初期実装に取り組んでいます。
そして、これが単なる実験以上のものであることは明らかです。知的システムのための標準化された通信レイヤーを作成するための戦略的な推進力なのです。
企業にとってのAIゲームチェンジャー
視点を広げると、Ironwoodとそのサポートエコシステムはスピードレコードを破ることだけが目的ではありません。AIを展開する企業への影響は現実的かつ即時的です。
まず、コスト効率の要素があります。Ironwoodの計算密度と電力効率の向上により、企業は運用コストを低く抑えながらより高度なモデルを展開できます。特に金融、物流、研究など、スケールでのリアルタイム推論が不可欠なセクターでは重要です。
次に、エネルギー障壁に取り組みます。多くの大規模組織はインフラコストと環境への影響のために高度なAIの導入を避けてきました。IronwoodがGoogleの最初のTPUに比べて30倍の効率性を実現したことで、エネルギー効率の高いAIがはるかに実現可能になりました。
第三に、標準化された通信プロトコルを持つマルチエージェントシステムへの移行により、企業が異なる部門、ツール、ベンダーソリューション間でAIを統合することが容易になります。これにより、別々のタスクに対して別々のモデルを維持するオーバーヘッドが削減され、より柔軟なシステム全体のインテリジェンスが可能になります。
Google Cloud Nextでは、400以上の企業顧客事例が共有され、製品のパーソナライゼーションからサプライチェーン予測まで、これらのテクノロジーがどのように使用されているかが紹介されています。
そしてこれはGoogleの最初の一手に過ぎません。AWSとMicrosoftが推論に最適化されたソリューションで応える可能性が高いため、AIインフラストラクチャ競争の新たな戦線が見えてきています。最大のモデルをトレーニングするのは誰かではなく、それをより賢く、速く、そして手頃な価格で実行できるのは誰かという競争です。
ここまで視聴いただいた方は、以下のコメント欄であなたの考えを教えてください。より興味深いトピックについては、今画面に表示されているおすすめ動画をご覧ください。ご視聴ありがとうございました。


コメント