本動画は、AlphaGoやMuseの開発に携わり、現在はAnthropicに所属するJulian Schrittwieserが提起した「AIバブル論は誤りである」という主張を解説している。人間は指数関数的成長を理解することが苦手であり、2020年のCOVIDと同様に、今日の不完全さに注目して将来の急速な進歩を見逃しているという。実際にフロンティアラボの内部では減速の兆候は全く見られず、AIが自律的に作業できる時間は7ヶ月ごとに倍増しており、18ヶ月後には10倍の生産性が実現するとの予測が示されている。重要な評価指標はAIが監督なしで働ける時間の長さであり、これが経済的価値と強く相関している。内部の研究者と外部の観察者の間には大きな情報格差があり、クラウドプロバイダーのGPU需要の急増は実需を示しており、バブルではないことを裏付けているという内容である。

AIバブル論の誤りについて
もし私たちが今日AIについて、2020年にCOVIDについて犯したのと同じ過ちを犯しているとしたらどうでしょうか。指数関数的な成長率ではなく、今日の不完全さに目を向けているとしたら。AlphaGo、Muse、そして現在はAnthropicに所属するJulian Schrittwieserは、データが示すところによれば、10倍の生産性が実現するまであと18ヶ月であり、フロンティアラボは一切の減速を見ていないと述べています。
言い換えれば、バブル論はフェイクニュースなのです。彼が先月書いた1時間のポッドキャストと、さらに優れたエッセイで述べたことを見ていきましょう。数分で非常に簡潔にお伝えし、私の見解もお話しします。早速始めましょう。
さて、まずなぜバブル論は逆なのでしょうか。Julianの主張は、人間は指数関数的成長を理解するのが非常に苦手だということです。何かが定期的に倍増する時、人間は一貫して今後何が起こるかを把握できません。なぜなら今日は昨日と何も違って感じないからです。
そのため、バブル懐疑派はAIがタスクで間違いを犯し続けるのを見て、決して機能しないと結論づけます。あるいは最近では、2025年初頭には考えられなかった数時間に及ぶAIエージェントの作業を見て、「十分に速く進歩していない」と言うのです。
これは、Julianが主張するには、症例数が毎週倍増していたにもかかわらず、人々がCOVIDを単なるインフルエンザだと軽視した時と同じ認知エラーです。私たち人間は、自分が見るパターンを延長することに焦点を当てる傾向があり、指数関数を見るのが非常に苦手なのです。そしてこれには賢い人々も含まれます。急速な変革の時期には、単純な数学が専門家の直感を打ち負かすことがよくあります。
冗談めいた言い方をすれば、グラフの直線が専門家の直感を打ち負かすということです。なぜなら専門家は過去にどれだけ速く物事が変化したかに固定される傾向があるからです。これの素晴らしい例の一つ、私の個人的なお気に入りの一つは、太陽光発電の設置率です。
太陽光発電の設置率のグラフを見ると、それは指数関数的な曲線です。真っ直ぐ上に上がっていきます。しかし太陽光発電の予測のグラフを見ると、毎回外れています。なぜなら専門家は指数関数を正しく理解できないからです。
これにより、指数関数的な状況にある時はいつでも、資格を持つ研究者から広範な懐疑論が生まれます。なぜなら彼らは、私たちが本当に極めて急速な進歩を見ているということを理解するのに苦労し、彼らのすべての専門知識は異なる曲線、より通常の曲線、より段階的な採用率に較正されているからです。
Julianはこれがまさに私たちがAIで見ているものではないと主張しています。私も同意します。最後の部分が彼の論点にとって最も重要だと思います。Julianは、外側からは進歩が遅くなっているように見えるかもしれないが、Anthropic内部の彼の立場から、そして長年のフロンティアAI研究者として、そのようには見えないと同意しています。
そのため、内側から見えるものと外側から見えるものの間には途方もない情報格差があります。だからこそ私はあなたのためにこの要約をしたかったのです。なぜならJulianのインタビュー、Julianの投稿は十分な注目を集めていないと思うからです。私たちは、AI企業が内部でどのように測定値を見ているかを、もっと詳しく理解する必要があります。
これは奇妙な状況を生み出す可能性があります。これらのシステムを構築している人々は、重要な指標での爆発的な成長について話しますが、外部の人々はまだこれは本当なのか、いつ展開されるのかなどを議論しています。
この一例として、Julianが言及していることで、私も非常に重要だと思うのは、AIエージェントが監督なしでどれだけ長く作業できるかということです。Julianが働いている会社であるAnthropicがClaude Sonnet 4.5をローンチした時のことを覚えているでしょう。彼らは30時間でSlackを構築したという主張とともにそれをローンチしました。私はそれについて話しました。
人々は手を振って、公式のテスト結果は何と言っているのか、時間軸を延ばしているのかなどと言う傾向があります。しかし重要なのは、本当に非常に非常に長い、複数日にわたるそのような逸話を見続けているということです。数ヶ月前にはそれを見ていませんでした。
ですから重要なのは、特定のテストにおける特定のモデルの測定値ではありません。重要なのは、AIの潮流が押し寄せているかどうか、どれだけ急速に押し寄せているかです。Julianの主張は、潮流は本当に速く押し寄せているということです。壁にぶつかったかどうかを議論するのは愚かなことです。
彼の視点からは内部から、そして私たちが外側から見ている場合、より良く、より良く、より良く、より良いパフォーマンスのこれらの物語を見続けています。特にAIが自律的に動作できるかどうかなど、非常に重要なことについてです。そしてそれが、内部の研究者が外部のニュースアンカーや外部のジャーナリストが見ないような方法で物事を見ているという彼の視点の根源です。これは本当に重要な見方だと思います。
そして、なぜAIバブルが逆なのかについて話すなら、私はそれが根本だと思います。もしあなたがサンフランシスコにいるなら、サンフランシスコを訪れるなら、AI研究の最先端にいる人々と話すなら、彼らの誰も壁にぶつかっているとは言っていません。
そしてそれはSam Altmanのような巨額のエクイティを持っている人々だけではありません。彼らにはそのインセンティブがありますよね。それはJulianのような単なる研究者たちなのです。彼らはただシステムをより良く機能させる方法を理解しようとしているだけです。彼らも壁にぶつかっていないと言っています。
そして私のような立場にいる人間にとっては非常に奇妙なことです。私は外側にいて、それを理解していない人々と多く話をします。彼らは私に頻繁に尋ねます、「Nate、AIバブルはあるのか?」と。私は言わなければなりません、私はJulianが見ているのと同じものを見ています。私はバブルの証拠を見ていません。そして私は彼がこのポッドキャストをやってくれて本当に嬉しいです。彼がこのブログ投稿をしてくれて嬉しいです。なぜなら彼はそれを本当によく明確に述べていると思うからです。
誇大広告ではないものは何か
しかし、何が誇大広告ではないのかに飛び込みましょう。私たちがバブルの中にいないこと、そしてAIが進歩し続けていることを示唆する証拠は何でしょうか。なぜなら、私たちがデータセンターにどれだけ費やしているか、大企業での資本支出の割合としてどれだけ費やしているかなどの議論で失われがちだと思うからです。
どれだけの電力が必要になるか。今はそれを脇に置いておいて、AIモデルの進歩の証拠を見てみましょう。Julianの主張は、私が以前言及した、AIがどれだけ長く仕事を成し遂げられるかが、実際には意味のある進歩を測定するための核心的な指標だということです。私はこれは二つの理由で本当に興味深いと思います。
一つは、これは主要なモデル製作者たちが簡単にゲーム化できない指標に収束しているということを意味するかもしれません。そしてそれは素晴らしいニュースでしょう。なぜなら私たちはこのテストやあのテストで90%、95%に到達する多くの指標を持っていて、誰もが目を回しているからです。SWE-benchがその例です。
人々はARC-AGIについて常に議論しています。それをどう難しくして簡単にゲーム化できないようにするか、数学のテストなど、延々と続きます。画期的な洞察は本当に、経済的に重要なことと、AIが働ける時間数の間には相関関係があるということです。AIがより長く働けるなら、Julianは主張します、私たちはAIからより多くの価値を得るでしょう。
ですから、それは単に仕事を委任できるかどうかではなく、仕事を委任して、迅速な応答だけでなく長期的な作業に対しても効果的に答えを得られるかどうかなのです。Julianが引用している組織であるMETRは、これを測定するための基準です。彼らは、わずか7ヶ月で15分のタスクから2時間のタスクへと移行したことを追跡しています。
物事がどれだけ速く動いているか、それがこれです。そして、はい、私がSlackの再構築について説明した30時間のタスクは、2時間と比較すると外れ値ですか? 絶対にそうです。しかし全体的な潮流は押し寄せており、私たちは15分から2時間へと非常に速く移動しました。
ですからJulianの主張はここで本質的に、AIが自律的に働ける時間数は経済的に有用な仕事と非常に密接に相関しているため、それらを同じ指標として見るべきであり、他の指標を使用すべきではないということです。
さて、彼は他の指標を使用すべきではないとまでは言っていません。私は他の多くの指標は有用ではないと思うとまで言っています。そして彼がここで正しいと思います。本当の進歩とバブルの誇大広告を分けるのは、METRのような独立した組織で、その期間がしばらくの間7ヶ月ごとに倍増していることを証明でき、今後も7ヶ月の倍増軌道に乗っていることです。
これは単に事後的なスピンではありません。これは私たちが年初から行ってきた予測です。私は研究者たちと話していたことを覚えています。1月に、AIの自律タスクにおける6、7ヶ月ごとの倍増曲線を見ており、2025年から2026年まで続くと予想していると言っていたAI分野の他の人々と話していたことを覚えています。
それは反証可能な予測であり、大きな意味があります。なぜなら、それが実現しなかったと言えるからです。この場合、彼らは予測を立て、それは実現しました。私たちはまさに彼らが予測したものを見ています。自律エージェントが仕事をする能力が延び、延び、延びているのです。ちなみに、これはClaudeだけの話ではありません。
JulianはAnthropicで働いていることは知っていますが、Devin(Codex)も非常に長時間稼働するワークロードに対応できます。私はXで、研究者がDevinに60時間のタスクを依頼し、60時間自律的にそれを実行できたという話を見ました。繰り返しますが、これは一つの逸話です。私はそれがMETRテストで60時間のスコアを出すと言っているわけではありません。METRテストは技術的には、AIの時間だけでなく、人間に相当する時間を測定します。しかし要点は、潮流が押し寄せているということです。
より長く、より長い自律タスクを実行できることが見えています。さて、懐疑論者は、「見てください、Nate、あなたはSWE-benchについて話しました。テストをゲーム化できると話しました。おそらくAIラボはこのテストに最適化したのでしょう」と主張するでしょう。
しかしOpenAIは、GDP-valと呼ばれる完全に異なる評価を発表しました。これは44の異なる職業にわたる1,300以上の実際の作業タスクであり、OpenAIによってではなく、非常に経験豊富な専門家によって採点されました。彼らは人間の作業を採点しているのかAIの作業を採点しているのかを判別できませんでした。
それは二重盲検テストであり、結果は、モデルが訓練された時には存在しなかった完全に作成された試験において、同じ指数関数的改善のパターンでした。言い換えれば、二つの独立した測定システムは、一つは測定されたモデルの後に完全に作成され、同じ倍増パターンを示しました。
あなたは本物の何かを測定しているのです。そしてそれがJulianの主張の一種です。Julianは実際にOpenAIを特に称賛しました。なぜならGDP-valを公開したからです。Anthropicのモデルが最も良い結果を出したにもかかわらずです。そしてJulianは正しく、それはOpenAIチームの誠実さの証だと言いました。彼らは自分たちのモデルを宣伝して、それが最高だったと言おうとしているのではありません。
彼らはこの場合Opus 4.1がそのテストで最高だったと言っています。きっと、1ヶ月待てば分かるでしょう。さて、ベンチマークについて多く話してきたので、私が言っているのはベンチマークを信頼すべきだということだと思うかもしれませんが、私はベンチマークは多くの注意を払うべきものではないとかなり明確に述べています。
では、その解決策は何でしょうか? 答えは、ゲーム化しにくいベンチマークを選びたいということです。だから私はGDP-valを指摘しました。そしてJulianも両方を指摘しています。非現実的なテストで、ゲーム化しやすいテストで公開リーダーボードに最適化することは絶対に可能であり、それが多くの公開リーダーボードでトップに立ったGrok 4とGemini 2.5 Proの現実世界でのパフォーマンスで見られるものです。
両方ともGDP-valの実世界タスクでは低いパフォーマンスを示しました。これはグッドハートの法則の例です。指標に最適化すると、能力を構築する代わりに指標をゲーム化するのです。Julianが主張しようとしているのは、意味のある能力を構築したい、それらを意味のある方法で測定したい、そして実際の仕事をすることを示したいということです。
測定についての考察
ここで一歩下がって全体の測定の会話を見ると、私たちはもっとシンプルな測定についての会話をする必要があると思います。エージェントが有用な仕事をできるかどうかについて、もっと多く話す必要があります。そして、モデルがどこかの公開リーダーボードで1、2、3、4のスコアを出したかどうかについては、もっと少なく話す必要があります。なぜならそれは重要ではないからです。
そしてJulianがそれを言ってくれたことに本当に感謝しています。なぜならそれは本当に真実だからです。技術面全体を通して、Julianも壁を見ていません。そして彼はかなり詳しくそれについて話しています。彼は強化学習を追求し、膨大な量の人間が書いたテキストを見ることで成長し続けることができるという考えについて話しています。そしてそれは真実です。
そしてそれは優れたモデルを形成するために本当に重要です。彼が指摘することの一つは、科学論文や高品質の書籍のような優れた人間のテキストのこの種の体系が、特にAnthropicが効率性と安全性の両方の利点を与える事前学習を追求することを可能にするものだということです。これは洒落た言い方をすれば、もしあなたが人間の知識の強力でクリーンなコーパスから始めるなら、実際にはRedditをそこに投げ込んだりする場合に持つような汚染の問題を必ずしも抱えないということです。
これは実際にフロンティアモデルの多くから大部分が削除されたものです。人々はそれを知りませんが、Redditは大部分削除されています。なぜならそれは高品質なデータソースではないことが判明したからです。完全になくなったわけではありませんが、全体の1、2%程度です。
彼が述べたもう一つの技術的なポイントで、私が本当に重要だと思うのは、彼が2016年に機械学習システムを構築していた時の自分自身の経験に戻ったことです。彼はAlphaGoプロジェクトの一員でした。これはGoogleで構築されたAIシステムで、チェスよりも難しいゲームである囲碁をプレイできるものです。
AI史に詳しい方なら、Move 37と呼ばれる有名な話があります。そしてJulianはそれについて話します。なぜならそれは今日の私たちにとって重要だからです。当時、AlphaGoは最高の人間プレイヤーを打ち負かすことを学ぼうとしていました。そしてそれはまだ達成していませんでした。
そしてある時点で、実際の囲碁マスターとの実際のゲームで、37番目の手を打ちました。これはすべての解説者から間違いだと考えられました。それは基本戦略に違反しており、誰もが災害だと思いました。しかし後でゲームが進むにつれて、マスターたちはAlphaGoが彼らが持っていないレベルでゲームを理解していることに気づきました。
そしてそれはゲームに勝利をもたらすものでした。そしてマスターたちはその後、実際にMove 37は見事だったことに気づきました。JulianはこれとMove 37のこの考えについて話しています。そして彼が示唆しているのは、エージェントが作業できる時間の長さ、彼らができる有用な作業の量を延ばし始めると、AIにとってのMove 37の瞬間に到達するだろうということです。
そして私たちはそれが何になるかを前もって知ることができませんし、本質的にできません。しかしそれは私たちが準備する必要があるものです。おそらく2027年、2028年のどこかで、ノーベル賞級の科学的ブレークスルーのようなものを期待する必要があります。AIが人間の直感よりも速く、より効果的に解決空間を探索でき、AIのおかげで不可能だったであろう世界を変えるような何かを得ることができる場所です。
話したい最後の技術的な部分は、暗黙的な世界モデルという考え方です。Julianはそれについてかなり話しています。私が本当に重要だと思うことの一つは、現代のLLMは私が説明したAlphaGoシステムのような類似のことをしているということです。彼らは複数ステップの解決策を計画するのに十分な精度で結果を予測します。
ですからJulianがポッドキャストで話していることの一つは、初期のAIがAlphaGoで行ったように、複数ステップの解決策を効果的に計画できるなら、チェスモデルが行ったように手を計画する、これは1990年代のDeep Blueの時代に遡りますが、示唆は、LLMが同じことをしているなら。
彼らがエージェントとして複数ステップの解決策を自律的に計画し、何時間も作業を行うことができるなら、その時点では、それは本当に単なる次のトークン予測ではなくなります。それは予測を使って可能な行動シーケンスを検索し、その後に行動の連鎖を計画することです。
ゲームをメタファーとして使うことはここで役立つと思います。なぜならAlphaGoやチェスで先の手の連鎖を実際に見ることができるからです。そしてそれは似たようなことです。囲碁のボードゲーム、チェスのボードゲーム、すべては正しい順序での正しい手に依存し、これらのシーケンスを理解することで戦略を開くことができます。
そしてそれは、これらのゲームをプレイできるAIシステムを構築する際に学んだことです。さて、同様に、私たちは今、LLMが次のトークン予測で十分に優れており、可能な行動シーケンスを全体として予測できることを学んでいます。そしてそれは私たちが見始めている重要な変化であり、2026年に本当に出てくるだろうと思います。
タイムラインと予測
さて、タイムラインがどのように見えるかを見てみましょう。Julianが反証可能な主張について大きく語る時の一つは、彼は反証可能な主張をしたいと思っており、自分自身の肌を賭けたいのです。私はそれらを言い返して、あなたに考えてもらうだけです。
しかし彼が考えているのは、AIは2026年半ばまでに人間の介入なしに8時間のフルタイムで働けるようになり、今年2026年の終わりまでには多くの産業で人間の専門家のパフォーマンスに匹敵し、2027年の終わりまでには日常的に人間の専門家を上回るようになるだろうということです。
彼が言っているのは、今後12から30ヶ月で、私たちは彼が間違っていることを証明することも、正しいことを証明することもできるということです。そして実際に彼がやっていることは、グラフにこれらの直線を引くことだけです。
では、これは何を意味するのでしょうか? 第一に、これはAIシステムをどこに展開したいかを非常に慎重に考える必要があることを意味します。ですから、これをあなたがタスクにおいて強いところと弱いところとして考えるべきだと提案したいと思います。なぜならAIは間もなく、あなたが弱いことをAIが拾い上げることができる時点に到達するからです。
私はすでにこれをソロ創業者で見ています。彼らはAIに自分たちの弱点を拾い上げさせることができるのです。ソロ創業者が伝統的にただ苦しまなければならなかった方法で。そして私はこれが他の労働者にも当てはまるだろうと思います。
私が重要だと思うもう一つの例は、10倍の仕事ができるという考えについて、どう話し、どう考えたいかを決め始める必要があるということです。なぜなら、10倍の仕事が一部の人々にとってのみ価値があることは必ずしも明確ではないからです。
私たちは自分自身のために10倍の生産性を選ぶことができます。私たちが望むところに飛び込み、AIの支援があるため、以前は不可能だった方法でスキルセットで優れることを選ぶことができます。ですから、社会としてそれが何を意味するかについて話すことは難しいことの一つだと思います。
しかし、あなたと私が今できる簡単なことの一つは、それが私たちにとって何を意味するかについて話すことです。もしあなたがビジネスオーナーなら、従業員に力を与え、10倍のことをできるように支援することが何を意味するかを考えることはどういうことでしょうか。
もしあなたが従業員なら、翼を広げて、以前にできたよりもずっと多くのことをできる能力を持ち、メカスーツを持ち、それに自信を持つことが何を意味するかを考えることはどういうことでしょうか。なぜなら根本的には、私たちはあなたが自分の強みをやるという考えに戻るからです。
あなたは特定の分野で本当に本当に深い専門知識を持つことになります。そしてJulianはこれを主張しており、私も同意します。価値を解き放つのは、その深いAI専門知識を中心とした人間とAIの協力なのです。
ですから私は大規模な置き換えの世界を見ていません。そしてAnthropicのこの研究者もそれを主張していないことは興味深いと思います。彼も人間とAIの協力の世界を見ていますが、私たちはそれに備える必要があります。それが何を意味するかについて考える必要があります。
私はいつもこれを言いますが、これらすべての準備期間は急速に閉じています。チャートに平らな線を引くことができて、あなたが上昇しているなら、私たちは今このために準備する必要があります。そしてそれは私がこのポッドキャストでいつも話していることの一つです。あなたは今準備しなければなりません。他の時間はありません。
6ヶ月待てば簡単になるということはありません。このAIバブルの会話全体についてあなたに一つのことを残すことができるなら、心に留めておいてください。そこにあるすべてのクラウドプロバイダー、Microsoft、Amazon、Google、それらすべてがAIの需要に対応するためにGPUをドアに入れるためにできることすべてをやっています。需要はそこにあります。
もし企業からの需要がそれほど高いなら、私たちがバブルの中にいると主張することは難しいです。実際、10月28日にAmazonが30,000人の労働者を解雇した時、それからAIと自動化への直接的な線はありません。人々はこれがすべてAIとあなたの仕事を自動化することだという主張をするでしょう。いいえ、それは他の企業からのAIに対する需要が非常に大きいため、より多くのクラウドコンピュートのためにより多くのGPUを購入するための現金を解放することへの直接的な線です。
これらの大手クラウド企業での資本支出比率が制御不能になっています。そして彼らは固定費を下げようとしています。それは給料を意味します。ですからAIが役割を自動化しているのではありません。既存の人々はより多くのストレスを抱えています。企業からのAIの需要に資金を供給するためにGPUを購入するためのお金を持つために現金を解放する必要があるのです。それはバブルではありません。
Amazonで解雇された30,000人の人々にとっては本当に困難な時期です。そして他にもそのような話があるかもしれません。しかし私は物語を本当に明確にしたいです。それはAI自動化の話ではありません。それは急増する需要に対処するためにクラウドコンピュートを確保することについての話です。人々は次の四半期報告での公開市場のために固定費を削減するための財務的決定をしているだけです。
そしてそれは企業がすることです。これらすべてをまとめると、Julianは私たちがバブルの中にいるとは思っていません。私もバブルの中にいるとは思っていません。


コメント