自己改善する新たなHyperagentsがAIの限界を打ち破る

再帰的自己改善・RSI
この記事は約12分で読めます。

MetaのHyperagents、Yann LeCunの新たなワールドモデル、そしてAnthropicのClaudeの進化という三つの動きは、AIが単なる応答装置から、自ら学習方法を変え、現実世界をより深く理解し、実際のコンピュータ環境で作業を遂行する存在へと移行しつつあることを示している内容である。特に重要なのは、AIが課題を解く能力だけでなく、自分自身の改善プロセスそのものを書き換え始めている点にあり、これは今後のAIの発展段階を大きく押し進める兆候といえる。

New Self Improving Hyperagents Break Limits Of AI
👉 Visit to try LumaAI just crossed a major line. Meta introduced Hyperagents that can rewrite their own improvement proc...

MetaのHyperagentsと自己改善AIの転換点

Metaが、Hyperagentsと呼ばれるシステムを発表しました。これは、自分自身の改善プロセスを書き換えられる仕組みです。LeCunの新しいLA World modelは、崩壊することなく、生のピクセルから直接ワールドモデルを訓練できるようになりました。そしてAnthropicのClaudeは、いまやあなたのコンピュータを直接使って、アプリを操作し、ファイルを編集し、ワークフローを自動化できるようになっています。では、まずはMetaから見ていきましょう。

長いあいだ、AIの分野では、自分自身を改善できるシステムという考えが追い求められてきました。単にあるタスクが上手くなるだけではありません。より上手くなる方法を学ぶ能力そのものを高めていく、そういうシステムです。それが究極の目標でした。ですが、つい最近まで、それはほとんど理論上の話にすぎませんでした。たとえばGödel machineのように、理論上は自分のコードを書き換えて、より賢くなれるというアイデアはありました。

しかし現実には、そのようなものが意味のある形で機能したことはありませんでした。特に、非常に統制された環境の外ではなおさらです。そこに登場したのが、Darwin Gödel Machine、つまりDGMと呼ばれるものです。これは、実際に本物の自己改善を示した最初期のシステムのひとつでした。特にコーディングタスクにおいて顕著でした。このシステムは、自分が何をしているかを見て、自分自身のコードへの変更を生成し、その変更をテストし、うまく機能したものを残すことができたのです。

人間が固定した改善器という限界

ですが、ここからが面白いところです。そのシステムにさえ上限がありました。なぜなら、そこには依然として組み込みの制約があったからです。システムの一部はタスクを実行し、別の一部はその改善を担当していました。しかし、その改善を担う部分は人間によって設計され、固定されたままだったのです。ですから、確かにシステムは改善していましたが、それは私たちが与えたルールの中でだけの話でした。

すると奇妙な問題が出てきます。AIのある部分が別の部分を改善するなら、その改善をしている部分自体は、いったい誰が改善するのでしょうか。さらにその問題を解決するためにもう一層追加したら、その層を今度は誰が改善するのでしょうか。行き着く先は見えています。永遠に層を積み増していくだけで、根本問題はまったく解決されません。

そこで研究者たちは、層を増やすのではなく、そもそも層そのものを取り除いたらどうだろうと考えました。そこで登場した新しい発想が、Hyperagentsです。

すべてを一体化した単一システム

これは構造を完全に変えてしまいます。別々の部品を持つのではなく、すべてをひとつのシステムに統合するのです。自分自身を完全に変更できる、ひとつのプログラムです。何をするかだけではありません。そもそも自分をどう改善するか、その方法そのものまで変えられます。ここが決定的な転換です。これまでのAIは、問題を解くのが上手くなることはできました。ですが今は、学び方そのものを書き換えられるのです。

つまり、こう改善しなさいと人間が指示するのではなく、その改善プロセス自体をシステムが自分で変えられるようにしているわけです。少し抽象的に聞こえるかもしれないので、具体例で見てみましょう。

ロボティクス実験で見えた自律的な目的関数設計

このシステムはロボティクスでテストされました。Genesisというシミュレータの中に四足歩行ロボットを置き、AIに報酬関数を設計させたのです。要するに、そのロボットが何を目指すべきか、成功をどう測るかを決めさせたのです。最初の目標は単純でした。

ロボットを前に歩かせることです。

ところが、その後でタスクを完全に変えました。今度は、ロボットが胴体の高さを最大化しなければなりません。普通に考えれば、ただ真っすぐ立ち上がるのが自然ですよね。それが一番わかりやすい動きです。ですが、このシステムはもっと良い方法を見つけました。ロボットにジャンプさせたのです。ジャンプした方が、ただ立っているよりも体を高く持ち上げられるからです。

しかも重要なのは、それを自分で発見したという点です。ただランダムに選択肢を試したのではありません。解の評価の仕方そのものを変えることで、それにたどり着いたのです。

数値にもはっきり表れています。性能はおよそ0.060から、約0.372まで向上しました。信頼区間の上限はおよそ0.436に達しています。これは非常に大きな伸びです。しかも、まったく新しいタスクにおいての話です。

論文査読タスクで構造化された評価パイプラインを構築

これだけでも十分興味深いのですが、さらに重要な点があります。研究論文のレビューのような、まったく別の課題でもテストされたのです。最初の時点では、このシステムはほとんど役に立ちませんでした。性能はゼロでした。しかし時間がたつにつれて、およそ0.710まで到達しました。しかも、ただ適当にフィードバックを出したり、表面的なコメントをしただけではありません。

実際には、構造化された評価パイプラインを組み立て始めたのです。段階的なレビュー手順、チェックリスト、判断ルール、多段階の推論といったものです。つまり、単に答えを改善していたのではありません。物事をより効果的に評価するための仕組みそのものを作っていたのです。

Luma AIのスポンサー紹介

ここで、Lumaに関する興味深い話につながります。

最近、私はAI動画ツールやクリエイティブ系のツールをかなりいろいろ試しているのですが、このパートはLuma AIの提供です。そこで、Luma agentsの新機能を少し試してみました。今、多くのクリエイターが苦労していることのひとつに、ツールの乱立があります。ひとつのプロジェクトに、5個から10個もの異なるツールが絡んでくることがあります。動画モデル、編集ソフト、参考資料、ドキュメント、メッセージのスレッドなどです。

ある時点から、ボトルネックになるのは作業そのものではなく、ワークフロー自体になります。Luma agentsはここに対して違うアプローチを取っています。単なる単独のAIツールをひとつ増やすのではなく、現実世界で物事がどう振る舞うかを理解した、クリエイティブな共同操縦者のように機能するのです。動き、物理、空間、タイミングといったものです。

あなたはエージェントと一緒にアイデアの形を作っていき、エージェントはその裏側でワークフロー全体を調整してくれます。適切なモデルやツールを振り分けつつ、プロジェクト全体の文脈を保ってくれるので、あなた自身はクリエイティブの方向性やセンスに集中できます。その一方で、通常はかなり時間を奪われる調整作業の多くを、エージェントが引き受けてくれます。

要するにこれは、クリエイター向けに作られたエージェント型AIワークスペースであり、何十ものツールを同時にさばかなくても、より多くのアイデアを試せるようにするものです。自分でも試してみたい方は、概要欄のリンクか、画面上のQRコードからLumaをチェックしてみてください。

Olympiadレベル数学採点への転移と汎用的な自己改善

では、動画に戻ります。

そして次に、本当に重要な部分が出てきます。このシステムは、そこで学んだものをまったく別の場所に持ち込みました。Olympiadレベルの数学の採点です。従来のシステムは完全に失敗しました。50回反復しても、まったく改善しなかったのです。ところがこの新しいシステムは、それでも改善を続けました。同じ改善指標で、およそ0.63にまで到達したのです。

これは何を意味するのでしょうか。単一のスキルを学んだのではない、ということです。自分自身を一般的にどう改善していくかを学んだのです。これは大きな飛躍です。なぜなら、もはやAIを個別タスク向けに訓練しているのではなく、どんなことに対しても、よりうまく学べる存在へと育てているからです。

システムが自ら道具と記憶を作り始めた

そして、こうしたことを進めているあいだに、裏側では別のことも静かに起き始めていました。

このシステムは、自分自身のためのツールを作り始めたのです。世代ごとの性能を追跡し、どの変更が成功し、どの変更が失敗したのかを記録し始めました。タイムスタンプ付きで知見を保存する永続的なメモリシステムも作り、将来のバージョンが過去の発見を土台にできるようにしました。さらに、残りの計算資源がどれくらいあるかに応じて、自分の戦略まで調整していました。

初期段階では、大きな構造変更に集中します。後半になると、より小さく、より安全な改善へと切り替えていきます。しかも、そんなふうにしろと誰かが教えたわけではありません。それが最も効率的な改善方法だと、自分で見抜いたのです。

Yann LeCunのワールドモデルが目指すもの

こうしたことが一方で起きているあいだ、研究者たちは別の問題も解こうとしていました。モデルは、いったいどうやって世界を理解するのか、という問題です。なぜなら、今日のほとんどのAIシステムは、パターン予測には非常に優れていますが、現実を理解することは別の難題だからです。

そこで登場するのが、Yann LeCunの新しい研究であるworld modelです。これらのモデルは、生の画像をそのまま扱うのではなく、すべてを単純化された内部表現へと圧縮します。いわば、モデルが何が起きているのかを推論し、次に何が起きるかを予測するための、隠れた空間のようなものです。

表現崩壊を避けるための新しい設計

しかし、ここにも問題があります。こうしたシステムは、ときどき近道をしてしまいます。意味のある構造を学ぶ代わりに、誤差を最小化するための最も簡単な方法を学んでしまうのです。すると、すべてが似たような表現へと崩れていってしまいます。そうなると、モデルはもう有用な理解を何ひとつ持てなくなります。

それを防ぐために、従来のシステムでは多くの小細工が使われていました。モデルの一部を凍結したり、指数移動平均を使ったり、特定の場所で勾配を止めたりと、要するに手動の修正を山ほど積み重ねていたのです。

ですが、このworld modelは違うアプローチを取ります。そうしたものを全部取り払ってしまうのです。トリックを積み上げる代わりに、すべてを単純化します。

ここには主に二つの部分があります。ひとつは、AIが見たものをコンパクトな内部表現へ変換する部分です。これは比較的小さなビジョンモデルで、パラメータ数はおよそ500万です。

もうひとつは、その次に何が起きるかを予測する部分で、およそ1000万パラメータのTransformerを使っています。それだけです。そして訓練に使うルールも、たった二つのシンプルなものだけです。

ひとつは、予測がどれだけ正確かを確認すること。もうひとつは、内部表現が多様で、かつ適切に分布したままであることを保証することです。

sigregによる安定した内部空間

この二つ目の部分が、実はとても巧妙です。

ここではsigregと呼ばれるものが使われていて、モデルの内部空間が、バランスのとれたガウス分布のように振る舞うよう保証します。その方法として、データを複数のランダムな方向へ射影し、それぞれが期待されるパターンに従っているかどうかを確認します。ハックで無理やり挙動を押さえ込むのではなく、情報がどう分布するかを整えることで、システムを安定化しているのです。

その結果、単に構造がきれいになっただけではありません。効率も大幅に高まりました。このシステムは、既存のいくつかのworld modelと比べて、およそ200分の1のトークン数しか使いません。計画立案に関しては、最大で48倍高速です。つまり、従来ならおよそ47秒かかっていた計画が、1秒未満でできるわけです。これは、こうしたシステムをリアルタイムでどう使えるかを、実際に変えてしまうレベルの速度差です。

物理法則の破れに対する驚き反応

しかし、速度以上に興味深いのは、このモデルが何を理解しているかです。研究チームは、物理法則を破るようなシナリオでこれをテストしました。たとえば、物体がある場所から別の場所へ瞬間移動するようなケースです。するとモデルは、そのような出来事に対してより高い驚き反応を示しました。つまり、現実世界では何が起きるべきで、何が起きるべきでないかについて、ある種の内部感覚を本当に持っているということです。

一方で、色の変化のような視覚的変化には、同じような反応は出ませんでした。これは、このモデルが表面的な見た目よりも、物理的な構造の方に注意を向けていることを示唆しています。

時間がたつにつれて、このモデルの内部表現は自発的に、より滑らかで、より構造化されたものになっていきました。つまり、考え方そのものが、強制されることなく自然に整っていくのです。

AnthropicのClaudeがコンピュータを直接操作する時代へ

そして三つ目の変化は、非常に実用的なところにあります。AnthropicがClaudeをアップデートしたことで、人々の日常的なAIの使い方そのものが変わることになりそうです。なぜなら、Claudeがあなたのコンピュータを操作できるようになったからです。

アプリを開き、ウェブを閲覧し、ファイルを編集し、コマンドを実行し、開発者向けツールを操作し、要するに本物のユーザーのようにシステムの中を動き回れるのです。さらに面白いのは、デバイス同士をまたいで連携できることです。たとえば、スマホでタスクを始めて、その続きをコンピュータで終わらせることができます。

具体的には、プレゼンファイルを見つけて、それをPDFに変換し、カレンダー招待に添付し、自動で送信する、といったことができます。

自動化される実務と開発ワークフロー

それだけではありません。開発用のワークフローも実行できます。サーバーを立ち上げ、スクリーンショットを撮り、画像を処理し、サイズ変更を行い、ロゴを追加し、そうした作業をまとめて自動化できます。日次のメール要約や週次レポートのようなものが欲しければ、一度設定するだけで、その後は裏で継続して実行させられます。

これはClawude Co-workのようなツールを通じて実現されます。基本的には、Claudeをデジタルな同僚へと変える仕組みです。単にプロンプトに返答するだけではなく、タスクを段階ごとに計画し、実行します。ときには並列で進めることさえあります。システム内のファイルを読み、編集し、整理し、作成することもできます。

Claude Codeとセキュリティ解析の進化

さらにClaude Codeがあります。こちらは、より深く開発ワークフローに入り込んでいきます。コードベース全体を読み、すべてがどうつながっているかを理解し、ファイルを編集し、複数のターミナルやIDEにまたがってコマンドを実行し、機能を作ったり修正したりするのを支援します。

加えて、セキュリティ層も導入されました。既知の脆弱性を単にスキャンするだけではありません。コードが現実のシナリオでどう振る舞うかを分析します。つまり、従来型のツールでは見逃されるかもしれない問題まで発見できるのです。

そしてこの発表は非常に大きな影響を与えました。発表後には、CrowdStrike、Zscaler、Okta、Palo Alto Networks、SailPointといった主要サイバーセキュリティ企業の株価が実際に下落したのです。投資家たちが、その仕事の一部はAIによって自動化されるかもしれないと気づき始めたからです。

終わりに

というわけで、今回はここまでです。これについてどう思うか、ぜひコメントで聞かせてください。動画が気に入ったら、高評価とチャンネル登録もお忘れなく。ご視聴ありがとうございました。それでは、また次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました