Sam AltmanがAIモデルのトレーニングに要するエネルギーを人間の成長過程に例えた発言が、SNS上で約2000万回表示され激しい批判を呼んでいる。この発言は単なる失言にとどまらず、データセンターへの地域住民の反発やAIに対する社会的不信感の高まりという文脈と重なり、AI業界全体のPR戦略上の問題点を浮き彫りにした。本動画では、炎上の経緯、批判的反応の数々、発言の全体的な文脈、そしてAIリーダーが今後いかにして社会との対話を築くべきかについて詳しく考察している。

炎上のきっかけとなった発言
AI業界で見逃せない出来事がありましたので、今日はそれについて話していきます。Sam Altmanの最近の発言が、あらゆる意味で爆発的な話題になっています。私がこれまで見てきた中でも、間違いなくもっともバイラルになった出来事のひとつです。
見出しにはこう書かれています——「Sam Altman、AIのトレーニングに必要なエネルギーを子育てに例える」。少し誇張気味に聞こえるかもしれませんが、事の全体像を見ると、これが一つの発言に対するバックラッシュとしては過去最大規模だということがわかります。
では、すべての発端となった発言を見ていきましょう。以前の動画でも取り上げたインタビューがあるのですが、Sam AltmanがインドであるインタビュアーとAIについて話していたもので、話題はよくあるエネルギー問題についてでした。全体像を理解してもらえるよう、フルクリップもお見せします。
そこでSam Altmanはこう言いました——「AIモデルのトレーニングにどれだけエネルギーがかかるかという話がよくされますが、人間をトレーニングするのにも大量のエネルギーがかかります。賢くなるまでに約20年の人生と、その間に食べる食事のすべてが必要なんです。」
この動画を収録した時点で、このクリップは約2000万回再生されています。そしてその2000万回は、好意的な反応では決してありません。AIを取材してきた私の経験の中でも、最悪レベルのPR事例といえるでしょう。
フルクリップと核心的な主張
まずクリップをご覧いただいてから、様々な反応を見ていきます。
「この比較でいつも不公平だと思うのは、AIモデルのトレーニングにどれだけエネルギーがかかるかを、人間が一回の推論クエリをこなすのにかかるエネルギーと比べるという点です。でも、人間をトレーニングするのにも大量のエネルギーがかかります。賢くなるまでに約20年の人生と、その間に食べる食事のすべてが必要です。さらにそれだけじゃなく、捕食者に食べられないことを学び、科学を理解することを学んだ、これまで生きてきた1000億人の人類の幅広い進化があって初めて、今のあなたが生まれたわけです。だから公平な比較とは、ChatGPTに質問したとき、モデルのトレーニング完了後にその質問に答えるのにどれだけエネルギーがかかるか、それを人間と比べることです。おそらく、そういう意味でのエネルギー効率ではAIはすでに人間に追いついているでしょう。」
激しいバックラッシュの実態
これがTwitter上での激しい議論の火種になりました。いや、「議論」とも言い難いですね。はっきり言って、多くの人が——おそらく正当な理由で——この発言に怒っています。バックラッシュの規模は本当に凄まじいものがあります。
「これは人類への裏切り者の発言だ」という声も上がっています。AIモデルのトレーニングに使うエネルギーと人間の育成エネルギーを比較するというのは、AI業界の外にいる人々がAIに対してより否定的な見方を持つことにつながります。
以前の動画でも言いましたが、普通に生活している人々の中でAIをただただ嫌いな層が確実に増えてきており、シリコンバレーの人々はそのことに気づいていないと思っています。そしてこのまま特定の話し方を続け、AIモデルをどう開発しているかについてコミュニティと対話しないままでいれば、AIの技術がどれほど優れたものになっても、最終的には人口の大多数がAIを望まなくなる状況になるだろうと、あの動画で言いました。
ここでは「Power to the People」というアカウントが「彼は人間の命をロボットのものと同じだと言っている。戦わない限り、彼らは人類を終わらせる」と書いています。「戦う」という表現は確かに現実を映していて、実際に人々は戦い始めています。
いくつかの過激な反応をお見せします。というのも「過激」と言えるほどの内容を呼びかけているからで、同意はしません。議論が必要だとは思います。ミームで引用しながら「あいつを撃て」と言っている投稿もあります。もちろん私は暴力を推奨しているわけでは一切ありません。しかし、あるCEOに対して「撃て」という引用ツイートが圧倒的な支持を集めているという事実は、AIがどう受け取られているかを真剣に考えさせられます。繰り返しますが、暴力は完全に間違っています。ただ、一般の人が「撃て」と言って圧倒的な支持を受けるという状況を見ると、AIに対する認識がどこまできているかを考えざるを得ません。
データセンター閉鎖という現実
そしてバックラッシュと「戦い」の話に戻ると、ある短いツイートが状況を端的に表しています。「Sam、データセンターが閉鎖されてるんだよ。今それを言わないでくれ」というものです。
これはAIに好意的な人物が、Sam Altmanにただ頼んでいるわけです——こういう発言をやめてくれ、全体の戦略を台無しにすると。
実際、2025年にデータセンタープロジェクトのキャンセルは4倍に増加し、25件のプロジェクトが地域住民の継続的な反対によって中止されました。2024年が6件、2023年がわずか2件だったのと比べると、明らかに増えています。アメリカ全土のコミュニティがデータセンターに対して反旗を翻していて、地域の資源への負担が理由です。データセンター近くに住む人々からは、水源の問題、電気料金の高騰、大気汚染といった報告が相次いでいます。
これは孤立した出来事ではありません。そもそもオンライン上でAIが嫌われているのは、ソーシャルメディアにAIが浸透し、ネット上の社会的な繋がりをある意味で壊してきたという背景があります。そこへ今回の発言が来て——「彼は人間の命と機械のものを同列に比べている」——バックラッシュに油を注ぐ形になっています。だから「Sam、今データセンターが閉鎖されてるんだぞ」という話になるわけです。AI業界にいる人間として、このタイミングでこういう議論を持ち出すのは得策ではありません。
バックラッシュがどれほどリアルかというと、バージニア州議会の共和党の安定した議席で、データセンターの負担を選挙の争点にした民主党候補が議席を獲得するという事態が起きました。Trumpでさえ「データセンターのせいでアメリカ人の電気料金が上がることは絶対に望まない」と発言しています。
あるデータによれば、昨年1四半期だけで、計画されていたAIデータセンター開発980億ドル分がコミュニティの組織的な反発によって頓挫したといいます。Data Center Watchによると、これは2023年以降に記録されたすべての混乱を上回る規模です。
AIエネルギーコスト問題の本質
データセンターの話を少し脇に置きましょう。ただし、これがAIのエネルギーコストを巡る議論が起きている理由のひとつであることは事実で、フロンティアモデルのトレーニングには膨大なエネルギーが必要であり、そのために地域的な影響を受けている人々が現実に問題を抱えているということは、もっとうまく対処されるべきだと思います。
データセンターの話から離れて、Sam Altmanの発言そのものを分析してみましょう。David Fairchildという人物の投稿がとても興味深く、100万回以上表示され、いいねとリツイートが5万件近く集まるほど人気を集めました。
彼はこう書いています——「これは単にAIのエネルギー消費を擁護しているのではない。人間を基本的に非効率な肉製コンピュータであり、役に立つようになるまでに食料と何年もの時間を注ぎ込まなければならないという人類学を密かに持ち込んでいる。そこを受け入れてしまえば、次の展開は明らかだ——人間がコストのかかる生物学的トレーニングであるなら、人間にとって悪影響であったとしても、合成知能を構築するために膨大な電力を使うことが、同等どころか優れているとさえ感じられるようになる。それはディストピアだ。人間の発達をシステムのバグであるかのように聞こえさせている。人間の創造的な繁栄を犠牲にして計算能力を高めることが非論理的に聞こえるようにしている。電力網は逼迫し、価格は上がる。でも、人間も食べるんだから、何が違うの?と。もちろん違いは何なのか、みんなわかっているはずだ。人間は非効率なコスト項目じゃない。人間こそが目的なのだ。子供が大人に成長する様子を見て、それを知性をトレーニングするために使われたエネルギーと表現できるような世界観は、何か深遠なことを言ったのではなく、ひどく腐った世界観を晒してしまっている。」
AI推進派の人の中には、なぜこんなに人々が怒っているのかわからないという方もいるかもしれませんが、この言葉が説明してくれています。自分を非効率なコスト項目として見ている人間など、一人もいないからです。Sam Altmanがこう言うことで——全文の文脈はこの後すぐにお見せします——外側から見てとにかく印象が悪い。
「こいつらを本当にどうにかしなきゃ」というような過激な反応も、大量のいいねとリツイートを集めていました。このAIバックラッシュの議論は、企業がより多くの製品やサービスを展開するにつれて、さらに悪化していくと思っています。AIが社会にとって良いものになりえると信じていますが、それはキャリアを完全に破壊するものとして売り出されているうちは無理です。
「ソシオパス」論争とSam Altmanへの不信
「このように人間について語る人間は、他の人間に影響を与えるいかなる仕事にも就かせてはいけない」という声も上がっていて、そこからSam Altmanはソシオパスだという議論に発展しています。実際に多くの人がそう言っているのを目にしました。私がそう言っているわけではありませんが、あまりにも何度も目にしたので触れないわけにはいきません。
「彼は巨大なスプレッドシートと赤ちゃんが道徳的に同等だと言っている。この命がいかに神聖かという理由のひとつは、このようなソシオパスを何か重要なものに近づけてはならないということだ」という声もあります。
Googleで「Sam Altmanはソシオパスか」と検索すると、Emil P. Torresによる記事が出てきます。長年にわたる虚偽、操作、虐待的な行動の歴史について書かれており、OpenAIのシニア社員たちがAltmanを心理的に虐待的だと表現していること、非常に有害であること、社員同士を対立させていたという告発、Anthropicに移った一部の人々がSam Altmanを誠実さに欠け、社員に嘘をついてきた人物だと述べていたことなどが記されています。社員は会社について否定的なことを言えなかったとも。Altmanは繰り返しOpenAIに持ち分はないと主張してきましたが、OpenAIスタートアップファンドから利益を得ていたことも書かれています。また、「一貫して率直ではなかった」として解雇され、Helen Tonerがその具体的な例をいくつか提示したという内容もあります。
Sam Altmanに何が起きているのか、彼がなぜこういう発言をするのか、私にはわかりません。ただ、年月を経るにつれて彼の評判は悪化の一途をたどっています。外から見たときのSam Altmanのイメージが、ポジティブなものとして映ることはなかなかありません。ネガティブな情報のほうが広まりやすいという側面はあるにせよ、解雇の件、ソシオパス疑惑、あれやこれやの嘘話——とにかくイメージが良くない。世界最大級のAI企業のCEOとして、日々何百万人もの人々と接するサービスを提供している立場として、今回のような発言はその状況を何ひとつ改善しません。
数字が示す比較の誤り
次に、数字の話です。ある人物が具体的な計算をしてくれました。Sam Altmanの主張を実際の数字で検証すると、むしろ彼の論点を助けない結果になります。
人間を20年間育てるのにかかる食料エネルギーは、すべての食事を合わせて約17メガワット時。しかしGPT-4のトレーニングには5万〜6万メガワット時の電力がかかっていて、これは人間を成人まで育てるのに必要なエネルギーの約3000倍です。
しかもGPT-4はすでに時代遅れのモデルです。誰も使っていない。次のモデルはもっとコストがかかり、その次もさらに上がります。H100のレンタル料が60〜70%まで暴落しているように、ハードウェアの世代交代は激しく、前世代のチップを急速に陳腐化させています。そしてAltmanは現在、Stargateのために10ギガワットを要求しています。ニューヨーク市全体の電力消費量に相当します。PJM電力市場の直近の容量オークションでは信頼性目標を6,623メガワット下回り、価格は一夜にして11倍に跳ね上がりました。Schneider Electricは2033年までに全国で175ギガワットの電力不足が生じると予測しています。
AIが機能するかどうかを誰も疑っているわけではありません。問題は、データセンターと弁当箱を同列に比べているこの人物が、必要な電力網の費用を誰が負担するのか、それが存在しなかった場合どうなるのかを、十分に説明できているのかということです。
そしてこう結論づけています——Altmanの比較はおよそ3桁分違っています。AIモデル1つのトレーニングに使われるエネルギーは、人間3000人を成人まで育てるのに相当します。それもGPT-4の話。今トレーニングされているモデルはそれよりはるかに大きい。この比較がずさんだから間違っているのではなく、数字と比較が根本的に成立していないから間違っているのです。
AIリーダーのPR戦略の問題
少し前に触れた「フレーミングの問題」に戻りましょう。Mertという人物はここで道徳的な議論ではなく、戦略的なPR上の議論をしています。AIリーダーたちが意図せず自分たちへの政治的な反対勢力を生み出すのがいかに下手かを指摘しています。「AIリーダーたちは文化的な感受性があまりにも欠けていて、社会主義者が権力を握る原因を作りかねない。AIを次なる宇宙開発競争のような刺激的なレースとして描く代わりに、ターミネーターとウルトロンの孤児のように描いてしまっている」というわけです。
これは本当に核心をついた言葉だと思いますし、全面的に同意します。AIというのは、宇宙開発競争のように全員を引き上げ、国民的誇りをもたらし、人類を前進させる、鼓舞するようなプロジェクトとして大衆に売り込める可能性があるものです。それなのにAltmanのような人物は、AIを一般の人々への脅威であるかのようにマーケティングし、人間と非効率な機械を比べ、エネルギーへの懸念を軽視し、人間をコスト項目として扱っています。ターミネーターとウルトロンというのはオチの部分ですが、怖がらせ、作っている人々への反感を煽り続ければ、人々はそれを規制すると約束する政治家に投票するようになります——だから社会主義者が権力を握ることになる、というわけです。
AI推進派であったとしても、Sam Altmanに対して少し苛立つべきだと思います。重い規制や再分配を求める人たちに、弾薬を手渡しているようなものです。技術自体は十分に優れています。でもこれだけ空気を読めないのであれば、全員にとって状況を台無しにすることになります。
AI業界内部からの批判
AI楽観派の意見を見てみると、この意見が支持を受けているのがよくわかります。ある人物はこう言っています——「私はAI開発を仕事にしていて、自分たちが作っているものを信じている。でもこういうレトリックは、私の仕事をより困難で、より危険なものにする。Sam Altmanが人間の成長をモデルのトレーニングと比べるのは、感覚がズレていて戦略的にも無謀です。人々は仕事を失っています——これは事実です。人々は怒りを募らせ、AIを解決策ではなく敵と見なしています。データセンターやそれを作る人々を破壊しようと計画している人もいます。その怒りとバックラッシュはあなたのいる場所には届かないかもしれませんが、実際の仕事をやっているエンジニアや開発者には届いています。もっとも目立つAI企業のCEOは、人間を非効率な計算資源として描写すべきではない。反人間的であってはなりません。リーダーとしての役割は、AIがどう人類の現実の問題を解決するかを示すことであり、楽な立場からライフサイクル全体のエネルギー計算問題に人間の命を還元することではありません。AIに携わる人が、敵意に満ちた社会的な物語のせいで傷ついたなら、非人間的なフレーミングを選んだあなたのようなリーダーにもその責任があります。私はテクノ楽観主義者であり、AIは人間の能力を高めると信じています。この新しい形の知性と毎日一緒に仕事をして、それが何であるかを心から敬意を持っています。これは本物であり、重大であり、これまで存在したものとは全く異なります。でも私は人間の卓越性も信じています。これは根本的に異なる2つの形の知性が協力し合うものとして受け入れなければなりません。そして最後の一文が本当に重要だと思います——真のテクノ楽観主義の立場とは、AIが人間より安上がりだということではなく、この惑星に2つの形の知性が存在するようになって、その組み合わせはどちら単独よりも強力だということです。OpenAIのリーダーとして、選んだわけではなくても、あなたは今AIを開発しているすべての人を代表しています。あなたの言葉ひとつひとつが、世界がこの技術とその背後にいる人々をどう見るかを形成します。どうかそのように行動してください。」
この言葉には全面的に同意します。OpenAIの顔として何かを発言するなら、AIは人間を助け、人間と並んで歩む技術として、少なくともそのように描写するよう極めて慎重でなければなりません。すべての人間の仕事を奪い、人間を非効率な肉製コスト項目として扱う狂った技術的進歩として語るのではなく。
これがシリコンバレーの問題です。長い間、リーダーたちの多くが社会の残りの部分との感覚のずれを指摘されてきました。
別のAI楽観派はこう言っています——「これだけで、Sam AltmanがAIの良い会社を作れるという私の信頼を失ったかもしれない。彼が言いたいことはわかるけど、これは人間とモデルをアウトプットのためのコストに分解し、人間性そのものと個人の価値を無視しようとしている。」
今ではOpenAIに対して応援どころか逆を望む人も出てきています——「どういうわけか、OpenAIが炎に包まれるくらいのことが起きてほしいと心から思ってしまう」という声も。
投資家から資金を集め、APIを展開し、IPOを目指し、次の世代・次の産業革命を推進しようとしている会社として、文脈から切り取られて人々が結集する可能性のある発言をすることに、何の意味もありません。
発言の全体的な文脈
全文の文脈も含めてお伝えしたいと思います。一方的な話にはしたくないので。Sam Altmanが比較の発言をする直前の文脈がこれです。全体を見れば若干印象が変わりますが、それでもフレーミングは変えなければなりません。
その直前にはこんな発言があります——「AIのトレーニング、データセンターへの投資、水の問題については——水の問題は完全にフェイクです。以前はデータセンターで蒸発冷却を使っていましたが、今はそうではありません。ネットで見かける『ChatGPTを使うたびに17ガロンの水が必要』みたいな話は、完全な嘘で、現実とは全くかけ離れています。ただし公平なのはエネルギー消費の問題、クエリ単位ではなく総量として。世界がAIをこれだけ使うようになったのは本物だし、私たちは原子力や風力・太陽光に早急に移行する必要があります。昨年Bill Gatesに同じ質問をして、興味深い数字を教えてもらいました。当時の計算では、ChatGPTの1クエリにiPhone10台分のバッテリー相当のエネルギーが使われていて、今はiPhone1〜1.5台分まで下がっているという話でした。それは正しいですか?」「それに近い数字であるはずがありません。」「はるかに少ないです。」「そうですか。でも彼の理論は、AIは人間の進化から学んでエネルギー効率を高めていくというものでした。」
これが発言の全体的な文脈です。こうして見ると、彼の主張はカットされたクリップよりも少し複雑であることがわかります。AIのトレーニングと人間の育成のコストが同じだと言っているわけではなく、モデルがトレーニングされた後、1回の質問に答えるためのコストは、人間が同じタスクをこなすよりもエネルギー効率が高い可能性があると言っているわけで、それはより限定的で、より擁護しやすい主張とも言えます。
ただ、それでもやや論点のすり替えになっています。トレーニングのエネルギーを全体として考えると、「1クエリあたり」に比較を絞り直したからといって総トレーニングコストが消えるわけではありません。GPT-4のトレーニングに5万メガワット時を使ったのは誰かが払った費用で、次のモデルはさらにかかります。推論単位でフレームを絞ることで、人々が実際に懸念している累積的なエネルギーの構造や全体的なフットプリントを無視することになります——彼自身もそれは本物の問題だと認めているにもかかわらず。
つまり全文の文脈は、特定の推論の比較という点では彼の見栄えをやや良くするものですが、水の主張の点では逆効果です。そして「人間のトレーニング」という例え話が炎上するのは、文脈があっても避けられなかったでしょう。


コメント