「AIバブル」?アルトマンが実際に言ったこと、事実、そしてNano Banana

AIバブル
この記事は約16分で読めます。

この動画は、AI業界が「バブル」状態にあるかどうかについて詳細に分析している。サム・アルトマンの発言が誤って解釈された経緯、メディアが何年も前からAIバブルを予測し続けていること、最近発表されたMcKinseyやMITの研究の限界、そして実際のAI技術の進歩と実用化の現状について8つのポイントで検証している。特に企業の公式AI導入プロジェクトと個人利用での効果の違い、推論能力の飛躍的向上、ベンチマークの進化などを通じて、AIの真の価値と将来性を客観的に評価した内容である。

An ‘AI Bubble’? What Altman Actually said, the Facts and Nano Banana
Wait, why did Sam Altman say AI was in a bubble? Or did he? Is it? 8 points for you to consider, before we all get distr...

Googleの新機能と「AIバブル」論への反論

数時間前にリリースされたGoogleの画像編集アップグレード、コードネーム「Nano Banana」を見てみいや。これだけでもう、わしらがAIバブルの中におるんやないっちゅう証拠になるで。

ほら見てみ、ベンチの上の小さな金属パーツみたいな細かいディテールとか、ほぼ正確な新しい影とかな。けど、AI studioで頭にフリッパーを当ててiPhoneを持たせてみたら、まあそこまでうまいこといかんかったわ。

よう見んかったら、これはPhotoshopの真の代替品やって言えるかもしれんな。でもこのAIバブルの話やけど、もっと事実に基づいて考えたい人らのために、この動画の残りの部分があるんや。これはわしらの今後数ヶ月、数年の生活にかかわってくる話やからな。

ChatGPTの背後にいるCEOは確かにAIがバブルやって言うたみたいやし、実際にここ数日間に発表されたMITの研究でも、AI投資の大部分がゼロリターンやって主張しとったわ。株価も下がったしな。

サム・アルトマンの発言の真意

でも文脈が失われてもうたんや。わしはここ数週間でAIバブルのトピックについて発表された論文、研究、記事を12本読んだで。そやから、わしらみんながAIモデルが本当にバブルに押し込んでしもうたんかどうかを評価する時に考慮すべき8つのポイントを用意したんや。そうそう、心配せんでええ、Nano Bananaはまた出てくるからな。

ポイント1つ目は、サム・アルトマンは実際にはAIがバブルやと思うとは言うてへんっちゅうことや。あれはThe Vergeのジャーナリストが、投資家らがAIについて「過度に興奮している」っちゅう彼の発言を編集して要約したもんやったんや。

アルトマンが言うたのはこうや。「バブルが起こる時、賢い人らがAIについての真実の核心について過度に興奮するんや」。そして「わしらは投資家全体がAIについて過度に興奮している段階におるんやろうか?わしの意見では、イエスや」って言うた。

「AIは長い間で最も重要な出来事なんか?」って付け加えて、「わしの意見ではこれもイエスや」って言うたんや。

サム・アルトマンみたいなCEOらが実際に自分らのツールを理解しとるんか、発言を信頼できるんかっちゅう話は後で触れるとして、まずは彼の投資家の過度な興奮についての観察の文脈を見てみよう。

覚えといてもらいたいのは、アルトマンをOpenAIから解雇したんは元チーフサイエンティストのイリヤ・サツケヴァーやっちゅうことや。そいつはその後OpenAIを出て、何の製品もなしに320億ドルで評価されるSafe Super Intelligenceを設立したんや。たぶんこれがアルトマンが投資家の過度な興奮について考えとる理由やろな。

それから、アルトマンが解雇された時の短期間の代理CEOやった元CTOのミラ・ムラーティもおる。今はThinking Machines Labを運営しとって、これまた公開製品なしに120億ドルで評価されとるんや。

投資家の過度な興奮について話す時、彼がこれらのことを指しとるんやないかと思うても驚かんわ。

メディアの予測の一貫性

ポイント2は、メディアが何年も毎月バブルを予測しとったんなら、AIバブルを予見したって主張できへんっちゅうことや。

ウォール・ストリート・ジャーナルを例に取ってみよう。1年前、OpenAIの売上は少なくとも20億ドルで、同社は2025年、つまり今年にその額を倍にできると考えとったって言うた。そして、それでもOpenAIの現在の約900億ドルの評価を正当化するのに必要な収益には程遠いって付け加えた。

覚えとき、20億から今年40億になるっちゅう予測やったんや。

そして、OpenAIが1億ユーザーを突破したっちゅう報道や興奮を軽視したワシントン・ポストの記事もあった。「AIの誇大宣伝バブル」っちゅうタイトルで、これは単にウェブサイトの訪問数で、正式な月間アクティブユーザーやないって言うたんや。

ほな、2025年8月現在のアップデートはどうなっとるんか?OpenAIは週間7億アクティブユーザーを突破したんや。1億が誇張やったなんてとんでもない話やな。そして年間120億ドルの収益を達成した。40億が過大評価やったなんてこれまたとんでもない。

ドットコムバブルとの類似点は理解できるけど、pets.comが今日死んだリンクになっとる一方で、chat.comが20年後にそうなるとは思わんわ。

最近の研究への批判的検証

ポイント3は、AIがバブルやっちゅう主張に燃料を加えた最近の3つの研究があるっちゅうことや。そう、全部読んだで。でもみんなの正気のために、発見を一連の簡潔なコメントに大幅に要約するわ、これがわしのスタイルやからな。

最初はニューヨーク・タイムズで引用されたMcKinseyの研究で、企業の8割が全社的なAIプロジェクトの結果として測定可能な利益増加を見てへんっちゅうもんや。「全社的なAIプロジェクト」っちゅう詳細が重要なんや。

問題その1、実際に引用された研究は2024年中頃のAI推論パラダイム以前に行われたもんや。

問題その2、McKinseyの研究全体は、偶然にもMcKinseyと協力した企業でAIが大きな利益向上をもたらしたケーススタディの広告みたいに読めたんや。ここで関係あるかもしれんのは、AIコンサルティングが確実にMcKinseyの利益を押し上げとるっちゅう事実や。McKinseyの収益の40%を占めるっちゅうウォール・ストリート・ジャーナルの記事を見てみ。

見出しで2番目によく引用された研究は、MITのもんで、より徹底的で最近のもんみたいやった。52組織の153人の上級リーダーを調査したんや。公平に言うと、企業プロジェクトのわずか5%がすべての価値を得とって、大多数は損益に正負どちらの影響も与えてへんって言うとる。

うまくいくのは、ソフトウェアのベンチマークよりもビジネスの成果に焦点を当てたもんらしいわ。でももっと興味深いのは、見出しが見落とした、この研究がしとるもっと微妙なポイントや。みんな気に入ると思うで。

論文では「公式な企業の取り組み」、さっき強調した全社的プロジェクトのことやな、「公式な企業の取り組みは生成AIの分水嶺の間違った側に留まっとる一方で、従業員は個人のAIツールを通じてすでにそれを越えとる」って言うとるんや。

次の文章が決定的やと思うわ。「このシャドウAIは往々にして、公式な取り組みよりも良い投資収益率を提供する」

翻訳すると、みんなみたいな人が自分のAIワークフローを使って生産性を向上させる時、会社のAIツールを使うのがいやになるんや。

さらに、このシャドウ使用はフィードバックループを作り出すんや。従業員は良いAIがどんな感じかを知っとるから、静的な企業ツールに対する寛容性が低くなるんや。

要するに、仕事でAIを使うことで得られる利益は、データではしばしば見えへんっちゅうことや。上司らは採用や解雇を決める時にそれを無視するかもしれん。

もうちょっとフォーマルに言うと、ウォール・ストリート・ジャーナルが「AIの見落とされた970億ドルの経済貢献」っちゅうタイトルの記事で説明しとるわ。ちなみに、それは2024年の話で、今年は1兆ドルに近いかもしれん。

この見えん余剰って何やねん?それは実際に支払う額を超えて、AIにアクセスするために支払うであろう額のことや。言い換えれば、現在のツールを取り上げられへんために支払うであろう額のことを考えてみ。それは月0ドルや20ドルよりちょっと多いかもしれん、それが話しとる消費者余剰っちゅうもんや。それを経済全体で合計すると、数千億、もしかしたら数千億ドルになるんや。

バブルのポイントに戻ると、AIの進歩の定義が狂気じみたGDPの加速やとしたら、OpenAIの取締役会の残り少ないOGメンバーの一人が予測したように、それはアダム・ダンジェロやけど、年間最大50%の成長を期待しとったんや。まあ、それが定義やったら、その認識はバーストしたバブルっちゅうことになるな。

MIT研究の詳細分析

でもMIT研究を置いてく前に、最後に2つの簡単な説明をしとこうや。何百万人もの人がそこから出た見出しを読んだことを考えると、時間をかける価値があると思うわ。

1つ目は、付録を掘り下げてみると、2024年1月に始まったプロジェクトについて聞いとったっちゅうことがわかる。覚えとるかもしれんが、2024年9月にOpenAIのo1 previewで推論パラダイムが登場したんや。

1年前のAIでのコーディングはかなりひどかったけど、今は全く違う話や。まだ完璧やないけど、ずっと良うなっとる。そう、2025年初頭のモデルでの大規模コードベースへの影響がコーダーにとってかなり混在しとるっちゅうMeter reportを十分承知した上で言うとるんや。それに興味があるなら、Patreonでその研究の主執筆者とのインタビューをチェックしてみ。

2つ目の簡単な説明は、MIT研究の著者らがAIエージェントフレームワークのNANDの使用を推奨しとったから、企業がまだ大きな価値を得てへんと示唆する理由があったっちゅうことや。McKinseyみたいに、この研究もモデルの現在のメモリ不足やリアルタイムでの適応性について素晴らしい指摘をしたけど、まさにそれらの問題への潜在的解決策として自分らのフレームワークを提供したんや。

見出しを読む時に頭の片隅に置いといてもらいたいことやな。

漸進的進歩の本質

AIバブル問題についての4つ目の文脈は、漸進的進歩の性質についてや。AIの各週の進歩を見ると、小さな前進のステップに見えることがある。ヒューマノイドロボットメーカーFigure AIの新しいHelix歩行デモみたいに、遅いけどなんとなく不吉に避けられへん進歩や。

すべてが漸進的に見える。でも一方で、各年末のAIの進歩だけを見せられたら、AIをバブルやと考える傾向は少なくなると思うわ。

その年末のポイントについてやけど、イーロン・マスクがGrok 4の改善のマーカーとして取り上げたみたいな、わし自身のSimple Benchみたいなベンチマークだけの話やない。

知らんかもしれんが、Simple Benchは基本的に論理的推論のプライベートテストや。そして各世代のモデルは前のもんを上回る性能を示しとる、Claude 3.7がランダムに例外やけどな。

でも違う、わしが話しとるのは、ほぼ専門家レベルでチャート、表、技術図を操作するモデルの能力をテストするMMUみたいなもんのことや。

各年末のスナップショットを文字通り撮ってみることができるで。やってみよう。このややこしいアメリカの日付は何やねん?7月23日か。オーケー、38%やな。1年進んで68%。さらに1年進んで83%や。左側に人間の専門家アンサンブル、中央値82.6って書いてあるのに気づいた。だからそれを上回っとるし、トップ人間専門家は88.6や。

これらのベンチマークの一部が脆弱やっちゅうのはわかっとるけど、この3つのデータポイントだけを見せられたら、「うーん、すごいな」って思うやろな。

正直言うと、ベンチマークはコンサートの写真みたいなもんやと思うとるわ。モデルパフォーマンスのある時点でのスナップショットは提供できるけど、没入体験とは違うんや。

去年の今頃、お気に入りの絵画に足を踏み入れて探索できるGenie 3について何て言うたやろな?あるコメンテーターが言うたように「時々わしらみんな次のリリースにドーパミン中毒になってて、2週間何も大きなことがなかったら『ああ、AIの冬や、すべて終わりや』って感じになるんや」

2025年のV3の専門家レベル近い音声転写、生き生きした音声生成、楽曲生成、さらには実世界への影響についても触れへんつもりやった。まあ、ちょっと嘘をついたな。

実世界への影響

実世界への影響については簡単に触れるで。すでにGoogleのAlpha Evolveみたいなシステムが、Googleの世界的な計算資源の0.7%を節約しとるんや。鍵は言語モデルがフィードバックを得られることやった。だから幻覚を起こしとる時や何か良いことに取り組んでる時がわかって、急速に反復できたんや。

自動化されたソリューションでの実世界への影響があまりにも大きかったため、ボトルネックは実際には手動実験になったんや。この動画のために振り返ってみたら、その論文が5月やったなんて信じられんかった。何年も前のような気がしたわ。

そして振り返ってみると、毎週取り込むことがあまりにも多くて、わしらは3月のチューリングテストの公式通過すら無視してもうたんや。人間は文字による会話で、相手が他の人間なんか最近引退したGPT-4.5なんかを文字通り判別できんかったんや。

画面の向こうの人間を見るっちゅう話で思い出したことがある。そして、わしがこのチャンネルでめったにせん、AIについてじゃないことについて話すっちゅうことをするで、せいぜい30秒ほどやけどな。

パレスチナの医学生との出会い

この前、パレスチナから選択実習に来た11人の若い医学生と会ったんや。素晴らしい人らやった。そのほとんどが、ちなみに言語モデルを使って復習してより良い医者になろうとしとるんや。彼らは西岸地区出身やから、現在はガザとは違って、インターネットや食料みたいな基本的な資源にはアクセスできとるんや。

見とるかもしれんJenin(ジェニン)の若者らと、ロンドンでの次の抗議行進で会うかもしれんみんなに大いなるエールを送るわ。

推論能力の飛躍的向上

さて、GPT-4.5の話やけど、今までこの動画で触れたAIがすべて派手なデモだけやと思うんなら、過去10ヶ月間の推論の飛躍的進歩に対する答えを持ってなあかんで。

2024年中頃まで、モデルは推論できへんっちゅうのが学術的コンセンサスやったように見えたからや。見とるのは古典的なブロックワールドチャレンジで、目標は赤いブロックを青いブロックの上に置くことや。

そして人らは、そんな基本的なレゴみたいなシナリオを解決するために単語の順序を記憶することはできるって言うた。データもそれを裏付けとって、Gemini 1.5 ProとGPT-4oがこのチャレンジで半分以下のスコアを取っとるのがわかる。

でも当時、単語を入れ替えて、論理は同じやけど単語がもうあんまり意味をなさんようにすると、モデルのパフォーマンスは崖から落ちるように下がったんや。それがミステリーブロックワールドチャレンジや。

これは言語モデルが推論できず、決して推論できるようにならんっちゅうかなり確実な証拠やった。この研究はヤン・ルカンを含む人らに引用されたんや。

ちなみに、この抽象的なチャレンジの例やけど、単語を記憶するだけやなくて、単語の背後にあるパターンを理解せなあかんのや。みんなはどうか知らんが、わしにはこれは本当にかなり難しいと思うわ。

そして突然、わしがインタビューした著者の一人にとって青天の霹靂やったo1 previewが現れて、このミステリーブロックワールドでほぼ53%を取ったんや。著者らは実際にそんな混乱した抽象を解読できるから、言語モデルを言語推論モデルに名前を変えなあかんかったんや。

同様に、秋に動画を作ったこのチャレンジ、ARC-AGI1では、モデルがこの系列で次に何が来るかを予測できんかった。ほぼ6年間持ちこたえて、ちなみにo1 previewに対してすら持ちこたえたけど、GPT-5の前身であるo3に破られたんや。

そのベンチマークの著者は、これは単に力任せでやっとるんやないって言うとる。これらの能力は新領域で、真剣な科学的注意を要求しとるって。

ちなみにフランソワ・シャレは今、完全に人間レベルのAIが2030年までに到着すると信じとる。

でもポイントはこれや。2022年11月のChatGPTから長い道のりを歩んできたんや。そして現在のAIの進歩のスピードでは、現在のモデルの欠陥を指摘する方が、18ヶ月すら持続するベンチマークを設計するより簡単なんや。

AIができへんことのスラムダンクを見つけたと思うなら、それのベンチマークを作って18ヶ月持続するかどうか見てみ。どんな抽象のレイヤーを追加しても、LLMは結局そこまで登っていけるように見えるからや。

天才レベルデータの希少性と計算資源の制約

確かに新しい物理学を導き出したり、素晴らしい新しい文学ジャンルを発明したりするには、そんなレイヤーの山が必要かもしれん。上に行くほど天才レベルのデータの豊かな空気、とでも呼ぼうか、それがどんどん希薄になって、訓練でそれを奨励するのは本当に苦しい上り坂やと思うわ。

でも他にも問題がある。これらの言語モデルは生来のパターン発見者やけど、その知能は人間の知能と完全に類似しとるわけやないし、効率的に得られるもんでもない。神様に感謝やけど、赤ん坊はフロンティアモデルを訓練するのと同じ種類のエネルギー、少なくとも電力を要求せんからな。

そして推論時にモデルをプロンプトすることは、それらを訓練することと新しい訓練方法を実験することの両方と似たような資源を要求するんや。すべて同じ計算から来とるんや。だからAIラボはボトルネック資源に対して競合する需要を持っとるんや。より多くの人にサービスを提供することは、時には文字通りより賢いモデルを作ることの犠牲になるんや。

CEOらの現状把握の限界

でもサム・アルトマンの話をしとる間に、ポイント6に移ろう。これらのラボのCEOらは最近やることがあまりにも多すぎて、自分らが作っとるモデルとある程度接触を失ってても驚かんやろうっちゅうことや。

そしてそれはサム・アルトマンだけやない。OpenAIが100兆稼ぐかもしれんって言うたり、最初に見たように投資家の過度な興奮があるって言うたり、リリースのたびにAGIを感じるって言うたり、GPT-5のロールアウトが大失敗やったって認めたりしとるんや。

でも彼だけやないで。GoogleのCEOのサンダー・ピチャイもおる。2025年の進歩は2024年より遅くなるってはっきり言うとったのを覚えとる。

でもその後GoogleのDeepMindが暴走モードに入って、6月中頃頃から、わしが言うにはほぼ毎週目を見張るようなモデルをリリースし始めたんや。彼は明らかに何が来るかを知らんかった。知っとったら絶対にそんなことは言わんかったやろう。

それからAnthropic のCEOのダリオ・アモデイもおる。最近「誰かが『この男は悲観主義者や。物事を遅くしたがっとる』って言う時、わしは本当に腹が立つ」って言うた。

ふーん、なんで人らは彼が物事を遅くしたがっとるって言うんやろな?2023年のこの主題についての初期インタビューの一つの転写を見てみよう。転写テキストですまんが、アモデイはAIの加速を望まんって繰り返し言うとったんや。

知らんかもしれんが、AnthropicにはChatGPTより前にClaudeっちゅうモデルがあって、最初にリリースできたかもしれんのや。その決定の直後、彼は「エコシステムが対処の仕方を知らんかもしれんほど速く物事を加速させるかもしれん大きくて騒がしい公開リリースは望まんかった」って言うた。

後で「技術が進歩する速度を考えると、心配な側面がある。全体的に見て、わしらがその号砲を撃った者やなくて良かったと思っとる」って言うた。

これらのCEOらの感情の変化について延々と続けることもできるが、要点に絞ろうや。わしの唯一のポイントは、多くの人がこれらのCEOらがAIモデルについて最も情報を持っとると思うかもしれんが、しばしばそうやないっちゅうことや。これらの会社の幹部やなくて、会社のトップ研究者にもっと注意を払うべきや。

株価の変動と研究者の限界

7つ目、覚えとるかもしれんが、わしはこの動画を株価が下がったって言うことから始めた、そしてそれがそれらの記事の内容やったんや。それは本当やけど、また上がっとるんや。株価は株価がすることをするもんや。

8つ目で最後のポイントになるが、研究者すらLLMが何層の抽象で考えるようにできるかを知らんからや。だからそれらの会社のリーダーシップは間違いなく知らん。そしてメディアはほとんど首なしチキンみたいなもんや。

AIがバブルやって主張する同じメディアが、仕事への影響がすぐに深刻になるって報告しとるんや。もちろん、これらの報道機関が一枚岩やないのはわかるが、この2つのポイントには多少の矛盾があるわ。

でも正直言うと、わしらみたいに注意を払っとる者にとっても、未来を予測する能力みたいな信じられん新しい能力を示すベンチマーク、それはごまかせんからな、精度が上がっとる、Profit Arenaを見てみ。現在、GPT-5 highが予測で最高やって評価されとる。

同時に、この論文みたいに、基本的な視覚トリックが今日の最高のLLMすらどう騙すかを暴露する論文もあるんや。OpenAIの金メダルを蓄積する未公開推論モデルも同じ幻覚に悩まされるんやろか?あるいは近日公開予定のGemini 3は?

わしらは恐らく秋までには知ることになるやろう。去年の秋みたいに新しいステップチェンジをもたらしてくれるかもしれんし、そうやないかもしれん。どちらにしても確信を持って言える人には懐疑的になるやろうな。

結論

とにかく、わしからは以上や。見てくれてありがとうな。コメントでAIがバブルやと思うかどうか教えてくれや。わしはGeminiのNano Bananaの画像編集ツールで遊びに行くで。

コメント

タイトルとURLをコピーしました