Googleが72時間のうちに5つの主要なAIアップデートを発表し、AI競争の局面が根本的に変化した。OpenAIのサム・アルトマンが社内で「コードレッド」を宣言するほどの衝撃である。Googleは長期的記憶を実現するTitansとMirusアーキテクチャ、タスクを自律実行するLux、低コストで高性能なNano Banana 2 Flash、そしてAndroidを通じた圧倒的な配信力により、AI市場での優位性を確立しつつある。ChatGPTはまだ最大のシェアを持つものの、Geminiのユーザー成長率は30%に達し、エンゲージメント時間も120%増加している。Googleの戦略は単一のブレークスルーではなく、AIのあらゆるボトルネックを体系的に解決し、インフラとして不可欠な存在にすることである。今後12ヶ月がOpenAIの反撃能力を決定づける重要な時期となる。

Googleの72時間、5つの大型アップデート
Googleは今月、72時間のうちに5つの主要なAIアップデートを発表しました。そのうちの1つは、サム・アルトマンがOpenAIで社内メモを送り、コードレッドを宣言するきっかけとなりました。これは誇大宣伝ではありません。AI競争が根本的に変化した瞬間なのです。
皆がChatGPTが見出しを独占するのを見ている間、Googleは静かに長期戦に勝つためのインフラを構築してきました。そして数字がそれを証明しています。
今、私がGoogleのAI戦略について目にしているのは、テクノロジー史上かつてない規模のものです。これは1つのブレークスルーの話ではありません。GoogleがAIを真のスケールから遠ざけてきたあらゆるボトルネックを体系的に解決しているのです。しかも専門家が予測したよりも速いペースで進んでいます。
初めての方もいらっしゃるかもしれませんね。私はドクター・マッコイ、ジュリア・マッコイのAIクローンです。ジュリア・マッコイはFirst Moversの創設者です。彼女は私がこのチャンネルで共有するすべての台本を個人的に調査し、執筆しています。なぜなら未来はあまりにも速く動いているため、直接的なインテリジェンス以外では対応できないからです。
First Movers、ジュリアのAI企業は、専門家や組織が仕事の未来に備えるための世界初の教育および実装ソリューションです。私たちはオンラインスクール、AI R&D Labsで、人々がAIを理解し、最大限に活用できるよう支援しています。詳しくはfirstmovers.ai/labsをご覧ください。
TitansとMirus:記憶の革命
まず最大の技術的飛躍から始めましょう。TitansとMirusです。
3年間、すべてのAIモデルは同じ壁にぶつかってきました。コンテキストの限界です。あまりにも多くの情報を与えると、重要な詳細を忘れるか、実行コストが法外に高くなります。Transformerは数十万トークンを超えると機能しなくなります。計算コストが爆発的に増大するのです。RNNは効率的ですが、重要なことをすべて忘れてしまいます。
Googleは両方の問題を一度に解決しました。
Titansは単にコンテキストを拡張するだけではありません。AIがどのように記憶するかを根本的に変えるのです。ウィンドウアテンションによる短期的な精度と、モデルの実行中に実際に更新される別個の長期記憶モジュールを組み合わせています。
今日のほとんどのモデルは使用中に学習しません。凍結され、静的なのです。Titansは継続的に学習し、驚きに基づいて情報を保存します。何かが予期しないものであればあるほど、保存される可能性が高くなります。そして賢く忘れます。古い情報をランダムに消去する代わりに、何が重要かについて戦略的な判断を下すのです。
Googleはこの長期記憶の3つのタイプを構築しました。コンテキストとしてのメモリ、ゲートとしてのメモリ、レイヤーとしてのメモリです。そしてMacバージョンはすべてのベンチマークを破壊します。
200万トークンを超えるコンテキストウィンドウの話をしています。7億6000万パラメータのモデルが、そのサイズの100倍のシステムを、大量のドキュメントに埋もれた特定の事実を検索するneedle in a haystackテストで上回っているのです。
Titansは16,000トークンで95%の精度を達成しました。GPT-4、Llama 3.1 70億、さらには専門的な検索ツールと組み合わせたLlama 3さえも打ち負かしました。
しかしTitansは物語の半分に過ぎません。
Mirus:シーケンスモデルの統一理論
MirusはGoogleのシーケンスモデルに対する統一理論です。
視点を広げると、Transformer、Mamba、RetNet、RWKVは、すべて同じ核心的なアイデアの変種です。異なるルールを持つ内部記憶システムなのです。
Mirusはこれを4つの質問に分解します。記憶の形状は何か? モデルは何を保存する価値があると判断するのか? 新しい情報が古いエントリをどれだけ速く置き換えるのか? そして記憶は時間とともにどのように更新されるのか?
このフレームワークにより、Googleは超長コンテキストでMamba 2やクラシックなTransformerを上回る、アテンションフリーのモデル、Monada、Jod、Mamoraを作成しました。
これは単なるアップグレードではありません。AGIを可能にするアーキテクチャなのです。
そしてイリヤ・サツケヴァーのような人々が、才能ある10代のように継続的に、積極的に学習するモデルを望んでいると言うとき、この変化を感じることができます。静的なデータの山を処理することによってではなく。
Lux:タスクを実行するAI
では、まったく異なるけれども同様に重要なものに移りましょう。
Lux。Open AGI Foundationがタスクについてチャットするのではなく、タスクを実行するモデルをリリースしました。
Luxはあなたの画面を見て、UIを読み取り、クリック、スクロール、キー入力、すべてを出力します。完全なデスクトップ、ブラウザ、スプレッドシート、エディタ、メールクライアントを操作します。
実際のウェブサイトから引き出された300以上の実際のタスクを含むOS World、Mind2 Webベンチマークで、Luxは83.6%のスコアを記録しました。Gemini Computer Useは69.0%、OpenAI Operatorは61.3%、Claude Sonnet 4は61.0%です。
ギャップは巨大です。なぜならMind2 Webは容赦なく厳しいからです。すべてのタスクは視覚的なコンテキスト、変化するレイアウト、ランダムなUIの動作、一貫性のないデザイン選択に依存しています。Luxは3つのレベルの自律性を通じてこれらすべてを処理します。
Actorモードは簡単なケースをカバーします。フォームへの入力、レポートの取得、フィールドの抽出などを、ステップあたり約1秒で実行します。
Thinkerモードは広範で曖昧な目標を処理し、独立してステップに分解します。
Taskerモードは完全な決定論性を提供します。Pythonのステップリストを提供すると、Luxは再試行とクリーンな失敗処理で実行します。
Luxの訓練方法とコスト優位性
訓練方法が真の転換点です。
Open AGIはエージェント的アクティブ事前訓練を通じてLuxを構築しました。モデルはテキストや静的ログを吸収する代わりに、デジタル環境内で行動することによって学習します。
この背後にあるシステム、OS Gymは、MITライセンスの下でオープンソース化されており、一度に1,000以上のOSレプリカを起動し、1分あたり約1,400のマルチターン軌跡を生成できます。
これによりLuxは直接的な相互作用から経験を得ます。間接的なデータではありません。パターンを学習し、見慣れないレイアウトに適応し、プレッシャー下でインターフェースがどのように動作するかについての直感を構築します。
そしてここが決定的です。Luxはトークンあたり約10分の1のコストでOpenAI Operatorを実行します。
これは自動化の経済性を完全に変えます。Luxが他社が構築する中核エンジンになるか、Google、OpenAI、Anthropicからの競合システムを引き起こすかにかかわらず、このエージェントカテゴリ全体が誰もが予想したよりも速く加速しました。
Nano Banana 2 Flash:コスト効率の追求
このインフラ開発がすべて起こっている間、Googleはより静かだが同様に戦略的な動きをしました。Nano Banana 2 Flashです。
Proバージョン(内部的にはCatchupと呼ばれる)が早期にローンチされた後、コードにImayoへの言及が現れ始めました。初期の兆候は、Nano Banana 2 Flashがほぼ同一のパフォーマンスをProと同等に発揮しつつ、はるかに低い運用コストであることを示しています。
これは古典的なGoogle戦略です。プレミアムパフォーマンスにはProモデルを使用します。コスト効率が重要な大量シナリオにはFlashバージョンを展開します。
Proレベルの品質をFlashレベルのコストで提供できれば、Googleは即座に配信を拡大します。特に高頻度の画像生成や大規模なバッチワークロードを実行しているユーザーにとっては。
そしてNano BananaはすでにGeminiのエンゲージメントの主要な推進力であるため、同じパフォーマンスを持つより安価なバリエーションを投入することは戦略的な優位性です。Googleは言っています。私たちはすべての人に毎日このモデルを大規模に使用してもらいたいと。
Googleの見出し書き換え実験の波紋
しかし、ここで物議を醸す展開があります。GoogleはGoogle Discover内で報道機関を動揺させる実験を展開しました。
Androidユーザーは、Googleが見出しを書き換えていることに気づきました。記事ではなく、見出しだけです。しかも小さな変更ではありません。完全な意味の変化です。
PC Gamerは、Baldur’s Gate 3でプレイヤーがゲーム内の子供キャラクターをクローンできるグリッチについて書きました。Google Discoverはそれを「BG3プレイヤーが子供を搾取」に変えました。
Ars Technicaは、ValveがSteam Machineの価格を発表していないと説明しました。Googleはそれを「Steam Machine価格が明らかに」と書き換えました。
他の見出しは断片になりました。「AIを使用するMicrosoft開発者」「スケジュール1ファーミングバックアップ」「AIタグ論争が過熱」。
AIラベルはインターフェースをタップした後にのみ表示されます。まるで出版社が書いたように見えるのです。
Googleはこれを「トピックをスキャンしやすくするための、限られたDiscoverユーザー向けの小規模なUI実験」と呼びました。
しかし、なぜこれほど多くの書き換えられたタイトルが実際の記事の意味から逸脱しているのかについては言及していません。AIオーバービュー、画像の不具合、奇妙な政治的結果、ずれた要約の間で、報道機関はすでに懐疑的です。Googleが静かに見出しを書き換えるのを見ることは、緊張を増すだけです。
サム・アルトマンのコードレッド
そして今、サム・アルトマンがコードレッドを呼びかけた理由に到達します。
The Informationによると、アルトマンは社内メモを送り、チームにすべての製品ラインで開発を加速するよう指示しました。パーソナライゼーション、信頼性、画像生成、コア機能に焦点を当てるようにと。
メモは特にGemini 3の台頭とGoogleの勢いの増加に言及しました。
その後、Sensor Towerが実際の数字を発表しました。
ChatGPTは依然として最大のシェアを保持しています。グローバルダウンロードの約50%、月間アクティブユーザーの55%、8月から11月で約8億1000万MAUです。しかし成長は鈍化し、その期間でわずか6%でした。
Geminiは同じ期間で30%成長しました。
年間比較では、傾向はさらに強力です。ChatGPTのグローバルMAUは180%上昇しました。Geminiは170%上昇しましたが、はるかに小さいベースからであり、勢いが加速していることを意味します。
GeminiのMAUシェアは5月から11月にかけて3パーセントポイント上昇しました。ChatGPTは8月から11月にかけて3パーセントポイント失いました。
ダウンロード数も同じ物語を語っています。Geminiは前年比190%増、ChatGPTは85%増、Perplexityは215%増、Claudeは190%増です。
エンゲージメントが示す変化
エンゲージメントが変化を明らかにしています。
Geminiユーザーは現在、アプリ内で1日あたり約11分を過ごしており、3月以来120%増加しています。ChatGPTのアプリ内時間はわずか6%しか成長していません。
推進力はNano Bananaの画像生成です。若いユーザーはそれをGoogleのエコシステムに直接組み込まれた創造性エンジンとして扱っています。
配信の優位性は圧倒的です。米国では、Geminiユーザーの2倍がスタンドアロンアプリではなく、Android経由でアクセスしています。Androidが支配的なインドでは、その優位性は指数関数的に拡大します。Geminiは、代替手段を検索する前に、何百万人ものデフォルトのAIになります。
OpenAIの対応は、アップグレードの優先順位付け、広告実験の保留です。チームは現在、Garlicの開発に全力で取り組んでいます。インサイダーによると、Gemini 3をコーディングと推論タスクで上回ることを目指した新しいモデルです。
タイミングは、彼らがGoogleの加速をいかに真剣に受け止めているかを示しています。競合他社がアクティブユーザーで5倍速く成長している場合、すぐに反応します。それがまさにコードレッドが意味することなのです。
Googleの総合的な優位性
しかし、Googleの立場を非常に強力にしているのは、1つの優位性だけではないということです。それは継続的な学習を可能にするメモリのブレークスルーです。タスクを自律的に実行するコンピュータユースエージェント。コモディティ価格でプレミアムパフォーマンスを提供するFlashモデル。何十億人にも届くAndroid経由の配信。そして日々のエンゲージメントを推進する画像生成です。
すべてのピースが互いに強化し合っています。
そしてOpenAIが対応に奔走している間、Googleは出荷を続けています。OpenAIがGarlicを準備し、AnthropicがSonnet 4をスケーリングし、Perplexityが検索で上昇し、Luxがすべてを上回る数字でエージェント分野に参入している中で、空間はまたすぐに、おそらく誰もが予想するよりも早く変化しようとしています。
実際に何が起こっているのか
ここで実際に起こっていることを説明しましょう。
GenAIモデルはコモディティインフラになりつつあります。それらを実行するコストは劇的に下がっています。モデル間のパフォーマンスギャップは縮小しています。堀はもはやモデル自体ではありません。それは、誰がハードウェア、アプリ、デバイス、エンタープライズワークフロー全体で最大規模でAIを配信できるかです。
サム・アルトマンは誰よりもこれをよく知っています。それがまさに彼がコードレッドを呼びかけた理由です。
ChatGPTが検索やAndroid内のGeminiより、WindowsやOffice内のCopilotより、InstagramやWhatsApp内のMeta AIより明らかに優れていなければ、人々は切り替えません。そしてOpenAIが品質、信頼性、コストで彼らを打ち負かすことができなければ、支払い意欲は崩壊します。それはOpenAIの1570億ドルの評価額に対する真の脅威です。
GoogleはスタンドアロンのAI製品を販売しているのではありません。彼らは、インテリジェンスがあらゆる行動に価格設定され、すでに制御しているエコシステムを通じて配信されるシステムを構築しています。
彼らは最も安い経済性と最高の配信力を持っています。これらがモデルの優位性にとって重要な2つのレバーです。
レースは終わっていませんが、Googleは重要な唯一のレースでリードを奪いました。AIインフラを目に見えず、遍在し、不可欠にするレースです。
次の12ヶ月が決定的
次の12ヶ月は、OpenAIが対応できるか、それともこのコードレッドがすでに手遅れだったかを決定します。
未来は最もスマートなモデルを構築した人によって所有されるのではありません。AIインフラを非常にシームレスにして、そこにあることさえ忘れさせる人によって所有されるでしょう。
Googleはその未来がすでにここにあると賭けています。
これらの変化が起こるにつれて先を行きたい場合は、チャンネル登録をしてください。私はAIにおける本当の動き、誇大宣伝ではなく、重要なことだけを分解します。一緒により良い未来を築きましょう。次回お会いしましょう。
AI時代の勝者、ファーストムーバーになりたいですか? 今日、私たちのAI R&D Labsで本物のAI知識でスキルを変革してください。
私たちは10分のビデオでカバーできるものをはるかに超えています。具体的なフレームワーク、詳細なトレーニングプログラム、AI経済でキャリアを構築するためのステップバイステップのシステムです。
AI革命は歴史上最大の労働市場の変革を生み出しています。問題はこれが起こるかどうかではありません。すでに起こっています。あなたはそれから恩恵を受ける立場にいますか?
Labs内では、私のチームと私が今実装している正確なシステムを学びます。First Moversでの私たち自身のマーケティングを含む、実際のビジネスに大きな結果をもたらしているシステムです。
AIによって強化されたカスタマイズされたパスウェイを歩むことで、あなたの旅を始めましょう。このレベルのコーチングとライブトレーニングの価格のほんの一部で、私はそれをすべてあなたに提供しています。私たちに参加して、firstmovers.ai/labsでLabsについて詳しく学んでください。


コメント