本動画は、AI革命を支える巨大なデータセンターの実態を包括的に解説している。ChatGPTなどのAIサービスを利用する際、その背後では膨大な電力を消費する巨大な施設が稼働しており、これらのデータセンターは単なるクラウド上の存在ではなく、実際の建物として存在する。OpenAI、Oracle、SoftBankが進めるStargateプロジェクトをはじめ、主要テック企業が数兆ドル規模の投資を行っている現状、データセンターの構造と機能、電力需要の急増、冷却システムの進化、建設プロセス、地域経済への影響、そして環境への配慮まで、データセンター産業の全貌を明らかにしている。AI時代における次の産業革命の基盤となるインフラストラクチャーの重要性と課題を、具体的な数値とともに示す内容となっている。

データセンターとは何か
ChatGPTを開いてプロンプトを入力し、エンターキーを押します。その後、何が起こるのでしょうか。皆さんが目にするすべてのAIの応答は、隠されたバックボーンによって支えられています。空気、時には水で冷却された数十億ドル規模の巨大な倉庫で、都市全体を動かすのに十分な電力を使用しています。これらの巨大でハイステークスなマシンは、実際にはクラウドの中に存在しているわけではありません。
それらは建物の中に存在しています。そして、これらの建物はデータセンターと呼ばれています。この動画を通して、データセンターとは何か、どのように機能するのか、そしてこの驚くべきAI革命をどのように支えているのかを理解するために必要なすべてを説明していきます。現在、データセンター業界で起こっている構築の規模について、アイデアを提供させてください。
OpenAI、Oracle、SoftBankがStargateというプロジェクトで提携したばかりで、その目標は米国におけるAIインフラの構築に数兆ドル、そうです、Tの付く兆ドルを投資することです。つい最近、NvidiaはOpenAIにその目標に向けて1000億ドルを提供することを約束しました。主要なテック企業すべてが、次の産業革命、技術革命となるものの構築に、可能な限りの資金を投入しています。
データセンターの基本構造
それでは、詳しく見ていきましょう。クラウドという用語を耳にするたびに、実際に話されているのは、これらの巨大なデータセンターのことです。データセンターは計算のための工場として考えることができます。AI用途に使用されるGPUのラックであろうと、その他の用途に使用されるCPUのラックであろうと、名称は変わりません。
施設は依然としてデータを管理し、提供しています。そして、これらのデータセンター、これらの巨大な建物は小さな都市のようなものです。高速スイッチを介して通信するサーバーとAIアクセラレーターの列、ペタバイト規模の情報を保持するストレージアレイ、すべてを稼働させ続け、確実に稼働し続けるための電力生成、配電、バッテリー。
そして、この膨大な量の計算によって生成されるすべての熱を取り除き、チップが過熱しないようにチップ自体から熱を移動させる冷却システム。そして最後に、悪意のある者が物理的に建物に侵入したり、デジタル的にシステムをハッキングしようとしたりするのを防ぐための、非常に洗練されたセキュリティです。自分でPCを組み立てたことがある方なら、これらは基本的にそれを enormously拡大したバージョンです。
CPU、GPU、メモリ、ストレージ、電力、そしてそれらすべてがあります。それを拡大して10億倍にするだけです。ほんの数年前まで、これらのデータセンターは主に人工知能に焦点を当てていませんでした。しかし、2022年後半にChatGPTが世界に公開されて以来、すべてが変わり、人工知能を実行するために必要な種類の計算に特化したデータセンターの構築に数兆ドルが流れ込んでいます。
AIが必要とする計算とは
そしてそれは行列乗算です。その行列乗算は、非常にシンプルな数学、基本的な乗算ですが、非常に多くの回数実行する必要があるため、AIワークロードを実行するためには高度に洗練された非常に高価なGPUチップが必要となります。安定したデータセンターの成長を、これらのテック企業間の絶対的な戦争に変えました。そして、ChatGPTのような生成AIシステムは、タスク特化型AIの10倍から30倍もの電力を消費します。これらは汎用システムです。
AI画像生成は、スマートフォンを完全に充電するのと同じくらいの電力を使用することがあります。そして、各ChatGPTクエリは約2.9ワット時を消費するのに対し、従来のGoogle検索は約0.3ワット時です。そして、毎日何十億ものAIプロンプトについて話しているとき、これらの小さな数字は巨大な数字に積み上がります。このビデオのこの部分をスポンサーしてくれたDell Technologiesに簡単に感謝します。
Dell Technologiesには、Nvidia RTX Pro Blackwellチップを搭載したラップトップとデスクトップPCのファミリーがあり、これらはAIワークロードにとって絶対的な獣です。下にリンクされている製品ファミリーをチェックしてください。AIはこれらの巨大なデータセンターをさまざまな方法で使用します。まず、トレーニングがあり、それはモデルを焼き込んでいるようなものです。
それらの初期トレーニングの実行は、ある種の計算のバーストのようなものです。それらは高強度ですが、時間の量は限られています。一方、推論は、ChatGPTのようなモデルにプロンプトを与えるときです。それは答えについて考え、そして答えを提供します。それは推論と呼ばれます。それらは24時間365日実行されます。そして、ChatGPT、Google Gemini、MetaのLlama、その他すべての顧客のすべてのニーズに対応するために、これらの施設のオペレーターは大規模にGPUを注文しています。
供給は需要に全く追いつくことができません。企業は、今後数年間だけで、AI最適化されたデータセンターインフラの構築に、それぞれ数千億ドルを費やす計画を立てています。したがって、基本的な名称は変わっていません。それらは依然としてデータセンターですが、内部のすべては、より密度が高く、より熱く、より電力を消費し、より高いステークスになっています。
電力需要の急増
では、電力について話しましょう。なぜなら、これらは電力を大量に消費するからです。2023年、これは最近のAIインフラ構築の波の始まりでしたが、エネルギー省は、データセンターがその年だけで、2023年だけで使用された総電力の4.4%を使用し、それが2028年までに7%から12%に達する可能性があると推定しています。電力会社PJMは、2030年までに約30ギガワットの新しいピーク電力需要を予測しており、その大部分はデータセンターからのものです。
30ギガワットを文脈に当てはめると、それは約2500万から3000万世帯が使用するのとほぼ同じです。大規模な原子力発電所は約1ギガワットを生成します。したがって、その電力使用をサポートするには30基が必要になります。しかし、AI計算とAI使用は、私たちが歴史的に持っていたものとは同じではありません。それは、歴史的に電力生成で行ってきたすべてを拡大するだけではありません。
それは非常に異なる獣です。より高密度です。より一定の負荷であり、特定の変電所の近くにクラスタリングされています。したがって、Google、OpenAI、Microsoftのような企業が次のデータセンターをどこに配置するかを考えるとき、彼らは考慮すべきことが非常に多くありますが、主に、すべてのチップに電力を供給するのに十分な電力をどのように生成するかということです。次に、実際のラックがあります。
これらは、すべてのGPUとGPUを実行するすべてのチップを収容する金属フレームです。そして、これらの新しいAIラックはモンスターです。NvidiaのReuben時代のシステムは、この10年の後半には、ラックあたり約600キロワットに達する可能性があります。それは、今日の従来のラックが得るものの5倍から10倍です。今日のハイエンドクラスターは、ほんの数年前の10から15キロワットと比較して、すでにラックあたり80から120キロワットになっています。
そして、密度の増加、電力使用の増加のため、データセンター業界はより良い冷却への移行を余儀なくされました。なぜなら、これらのチップすべてに電気が流れているとき、それらは本当に、本当に熱くなるからです。そして、これらのチップを常時実行できるように、その熱をできるだけ早く放散する必要があります。そこで、彼らは直接液体冷却、より重い電力ケーブル、より厚い床、新しいサービスルーチンへとより多くシフトし始めました。
Cerebrusのデータセンターのツアーからのこのクリップをチェックしてください。そこでは、彼らが液体冷却を効果的に使用しています。これがどれほどクールに見えるか見てください。しかし、冷却についてより深く掘り下げましょう。なぜなら、冷却がなければ、これらのデータセンターは基本的に即座にシャットオフするからです。チップによって生成される熱は圧倒的になります。シリコンは溶けます。すべてがうまくいかなくなります。
したがって、すべてを素敵に涼しく保つ必要があります。そして、それは小さな偉業ではありません。そして、冷却は設計上の選択です。水冷は電力を節約します。空冷よりもはるかに効率的ですが、もちろん、水を使用しています。空冷と閉ループ液体システムは水を節約しますが、多くの場合、より多くの電力を使用します。業界全体での典型的な水使用効率は約1です。
キロワット時あたり9リットル。そして、オペレーターが完全に閉ループシステムを使用できる場合、水使用効率をできるだけゼロに近づけることを目指すことができます。それを文脈に当てはめましょう。世界中で巨大なデータセンターを運営しているGoogleは、Council Bluffsのデータセンターの場所が2023年に約10億ガロンの水を消費したことを開示しました。
そして再び、それはオペレーターがデータセンターをどこに配置するかを決定することに帰着します。地域の政策、気候、コミュニティの意見、これらすべてがデータセンターがどこに配置され、その設計がどうなるかを決定する計算に入ります。しかし、これらのデータセンターの1つを構築することは、実際にはどのように見えるのでしょうか。州、市、地方政府の承認を得たとしましょう。完璧なサイトを選択したとしましょう。
データセンターの建設プロセス
その構築は実際にはどのように見えるのでしょうか。すべてのAI施設の背後には、大規模な構築スプリントがあります。そしてもちろん、それは高いセキュリティを伴います。今日、ハイパースケールのデータセンターを建設するには、コンセプトから試運転まで約18から30か月かかります。しかし、最も有名に速いプロジェクトは、Elon MuskとxAIチームのColosusプロジェクトで、わずか122日で建設しました。当時は前例がなく、今でも再現されていません。
一般的なデータセンタープロジェクトは、計画と実現可能性評価から始まり、通常約3から6か月かかります。適切な電力と光ファイバーを備えた土地を見つける必要があります。もちろん、インターネットを実行するための光ファイバーです。次に、設計とエンジニアリングが続き、約6から12か月かかります。次に、許可と承認が重複して約6から18か月かかります。
建設には1年から2年かかります。そして最後に、テストと試運転には追加で3から6か月かかります。MicrosoftのFairwater Supercomputer Campusのような、AI特化型プロジェクトは数百エーカーに広がり、何マイルもの基礎を注ぎ、閉ループ液体システムで冷却される何千ものGPUを設置します。
それは数百億ドルに及ぶ投資です。しかし、一度建設されると、これらの建物は要塞のように運営されます。高いフェンス、衝突バリア、24時間365日のセキュリティ、地球上で利用可能な最高のサイバーセキュリティ保護、単一の入口ポイント、バッジに加えてバイオメトリクスを使用した二要素アクセス、至る所にカメラ、そしてすべてのラックのロックされたケージ。
事前に承認された訪問者のみが入ることができ、サーバールームはエスコートなしでは立ち入り禁止です。では、それらは実際にどこに配置されるのでしょうか。なぜそれらを選択するのでしょうか。そして、地域経済への数学はどのように見えるのでしょうか。現在、北バージニアは世界最大のデータセンター市場であり、空室率はほぼゼロで、ギガワット規模の新しいデータセンターが今まさに建設されています。
Loudon Countyの予算は、データセンターが一般資金収入の約38%を生み出していることを明示的に述べています。そのため、彼らは実際に固定資産税を削減することができました。したがって、その意味では、地元住民に利益をもたらしています。しかし、Phoenix、Chicago、Oregon、Ohioはすべて、次世代のデータセンターを構築するための投資先として素晴らしい場所として台頭しています。
そして、それは利用可能な土地、電力、水のおかげです。しかし、ここに問題があります。構築が行われている間、膨大な数の雇用が創出されています。データセンターが完成すると、それを運営するには数十人しか必要ありません。したがって、それは地方政府が考慮すべきことです。しかし、電力が切れたらどうなるでしょうか。天然ガスが止まったらどうなるでしょうか。何かが起こったらどうなるでしょうか。どのようにバックアップするのでしょうか。ほぼすべての大規模な米国のデータセンターは、緊急バックアップとしてこれらの巨大なディーゼル発電機を保持しています。
そして、私たちはCerebraストアでそれらのいくつかを見る幸運に恵まれました。それらはこのように見えました。そして、これらの素晴らしいバックアップディーゼル発電機は実際にはめったに使用されませんが、使用されるときには汚染を生み出します。オペレーターは現在、グリッドベースのバッテリー、オンサイトガスタービン、一部のサイトでは水素、そして将来的には原子力エネルギーを含む代替案をパイロットしています。
本当に良いデータセンターの構築は多くの透明性を持ち、これは地元のコミュニティが何に巻き込まれているのか、何が起こっているのかを知るために良いことです。最良のプロジェクトは電力を第一に考え、水について透明で、コミュニティと統合されています。したがって、まず、彼らがサイトを選択するとき、彼らは電力オプションを探します。北欧や中西部北部のような豊富なクリーンまたは確実な電力が最良で、その後、彼らは適切な量の電力を適切な時に生成し、配信することを確実にするために、公益事業会社と協力します。そして、生成されているこのすべての熱も処理する必要があります。
たとえば、Metaはデンマークにデータセンターを持っており、年間100から165ギガワット時の熱を地域暖房システムに輸出しています。したがって、彼らはその熱を再利用しています。彼らはまた、水使用を公開する必要があります。これは非常に重要です。
オペレーターは、可能な場合は閉ループシステムを選択するか、適切な場合はエアクールのようなドライクーリングを選択する必要があります。モジュラー設計を使用し、可能な限り再生可能エネルギーを使用する必要があります。では、このゲームの最大のプレーヤーは誰でしょうか。まあ、あなたは間違いなく彼らすべてを聞いたことがあり、おそらく誰であるかを推測できるでしょう。この急増は、一握りのハイパースケーラーによって主導されており、ハイパースケーラーは複数の巨大なデータセンターを持つ会社にすぎません。
Amazonは現在、独自のTranium 2チップを使用してProject Rainierを構築しており、AmazonのAWSは市場の総シェアの約31%を持っており、Microsoft Azureは約24%を持っています。そして、Microsoftは2025年だけで800億ドルを投資する計画です。Google Cloudは11%で次に来て、カスタムテンソル処理ユニットを使用してデータセンターを構築するために750億ドルを費やすことにコミットしています。
次に、Oracle、Cloudwave、Meta、その他いくつかの企業があります。では、いくつかの神話を打ち破りましょう。データセンターは停電を引き起こすのでしょうか。いいえ。グリッドは、これらのデータセンターに電力を供給するのに十分な電力を持っていることを確実にするために、何年も前から計画しています。さらに、それは地元のコミュニティと州を混乱させることはありません。
ディーゼルスタックは一日中稼働しているのでしょうか。いいえ、それらはバックアップのためだけにあり、バックアップは緊急事態でのみ発生します。すべてのデータセンターは水を大量に消費するのでしょうか。それは多くの人々の大きな懸念です。いいえ、そうではありません。設計は、完全に水を使用しない空冷から、閉ループ水システム、高蒸発塔まで多岐にわたります。
そしてもちろん、スペクトルのどこに位置するかは、設計と地域の政策に本当に依存します。したがって、AIの次の章は抽象的ではありません。それは非常に明確です。私たちはコンクリート、銅、シリコンチップ、水、電力について話しています。課題は、それらが建設されているコミュニティを最小限に混乱させながら、これらを迅速に拡大できるかということです。
次にChatGPTや他のモデルにプロンプトを入力するとき、何が起こるかを正確に知っています。この動画を楽しんでいただけたなら、いいねとチャンネル登録を検討してください。次の動画でお会いしましょう。


コメント