「レッドクイーン」AIが意味する私たちにとっての「ゲームオーバー」

SakanaAI
この記事は約16分で読めます。


Sakana AIが発表した最新研究は、1984年から続くプログラミングゲーム「Core War」において、大規模言語モデルが人間を一度も見ることなく自己対戦を通じて数十年分の人間の戦略を独自に発見し、人間チャンピオンを打ち負かすことに成功した事例を示している。この研究は、AIが教科書的な学習ではなく、オープンエンドな競争環境での適応を通じて真の知能を獲得する可能性を実証しており、再帰的自己改善という概念が現実のものとなりつつあることを示唆している。コードの危険性を実行前に直感的に理解する能力や、人間が発見した戦略メタを独立して再発見する能力は、サイバーセキュリティから汎用人工知能の実現まで、幅広い分野への応用可能性を秘めている。

"RED QUEEN" AI means "GAME OVER" for us....
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

Sakana AIが示す再帰的自己改善の未来

さて、この動画はかなり衝撃的な内容になります。以前にもSakana AIについて取り上げたことがありますが、彼らは時々、最も驚異的なAIや機械学習に関する論文を発表してきます。そして通常、それらには特定のテーマがあり、そのテーマとは再帰的に自己改善するAIです。

多くの人はおそらくこの概念と、それが何を意味するのかについてすでに理解していると思います。しかし基本的に、簡単に言えば、ある時点でAIが人間よりもAI研究を上手く行えるようになるという理論があり、それが急速に現実になりつつあるということです。

つまり、ある時点までは人間によって駆動されるAI能力の大規模な改善が見られます。そして今、ますます多くの事例で、この原始的な再帰的自己改善のようなものが見られるようになってきています。

サム・アルトマンが表現したように、私たちは再帰的自己改善の初期段階にいます。そしてAIが人間よりもAI研究を上手く行えるようになったとき、何かが起こります。私たちにはよく分かりません。これまでこのようなことを見たことがないからです。これまでこのようなものを目撃したことがないのです。

しかしこれは知能爆発として考えることができます。そしてその時点と超知能との間のギャップ、その時間は非常に非常に短いかもしれません。

つまり、効果的に自己改善を始めた瞬間、その知能爆発、その垂直的な離陸が、私たちを非常に非常に速く超知能へと導くということです。明らかに、想像できるように、これらは未知の領域です。ある意味怖くもあり、ある意味エキサイティングでもあります。私たちはその全体がどのように展開するのか全く分かりません。

Sakana AIからの多くの論文は、この自己対戦、再帰的自己改善などのアイデアを扱っています。

そしてこの自己対戦が重要である理由は、これらのAIモデルに人間のデータで学習させると、かなり良くなることが分かったからです。利用可能な最良のデータと同じくらい、最良の人間と同じくらい良くなります。例えば、AlphaGoがイ・セドルと囲碁をプレイする場合などです。

しかし、自分自身の能力を向上させるために自分自身と対戦させると、つまり2つのバージョンを作って、それらを互いに対戦させて戦略を適応させ、時間とともに改善させようとすると、最初は何のヒントも説明も与えません。ただゲームのプレイ方法を理解してくださいと。ルールはこれです。理解してください。基本的に上手くなってくださいと。

すると実際に上手くなり、しかもかなり速く上手くなり、以前のモデルよりも、人間よりも優れたものになることが分かります。そのゲームをプレイする超人的な能力を獲得するのです。

つまり、私たちがそれを教えようとすることが、実は遅くしているようなものです。それ自身が自分自身を教えることで、超人的になるのです。

ところで、先日『ターミネーター2』を見直しました。今でも色あせていません。古い映画の中には、現代において見直すと色あせているものもあります。しかし『ターミネーター2』は色あせていません。今でもかなり素晴らしいです。

自己対戦から汎用性へ

私たちは、自己対戦とそれ自身の能力向上に関して、これらのモデルが何ができるのかをある程度知っていました。そしてそれはしばらく前からありましたが、通常はチェスをプレイするとか囲碁をプレイするなど、狭いタスクに向けられていました。

その後、最近になって大規模言語モデルが登場しました。これらは少しより汎用的です。そして研究者たちが最近行っているより興味深いことの多くは、この2つを組み合わせようとすることです。これらの自己対戦、自己改善をどうやって実現するか。大規模言語モデルにそれをどうやってやらせるか。

そしてそれがまさにSakana AIがここでCore Warというゲームで行ったことなのです。Core Warはこんな感じに見えます。それほど見栄えは良くありません。このゲームは1984年に作られたようです。基本的とは言いたくありませんが、つまり初歩的な感じですが、同時にできることすべてを理解すると、驚くほど奥深いものです。

彼らはこれを「デジタルレッドクイーン:大規模言語モデルを用いたCore Warにおける敵対的プログラム進化」と呼んでいます。

レッドクイーンという考え方全体について、もしご存じなければ、これはルイス・キャロルの『不思議の国のアリス』または『鏡の国のアリス』からのものです。このレッドクイーンが言っているアイデアは、同じ場所に留まるためだけに、できる限り走り続けなければならないというものです。つまりトレッドミルのようなもので、同じ場所に留まるためだけに本当に本当に速く走らなければなりません。そうでなければ遅れをとってしまいます。

そして他の場所に行きたければ、少なくとも2倍速く走らなければなりません。彼らの研究には本当に優れた命名規則があると言わざるを得ません。非常に記憶に残ります。これも確実に例外ではありません。

DRQ、デジタルレッドクイーンと彼らは呼んでいます。このビデオゲームでは、Core Warはウォリアーと呼ばれる自己複製アセンブリプログラムが仮想マシンの制御を競い合うプログラミングゲームです。コードとデータの区別がないこの動的環境では、ウォリアーは生き残るために自分自身を守りながら相手をクラッシュさせなければなりません。

このゲームが何なのかを理解するのに少し時間がかかりました。完全に理解すると、実際にはかなり面白いです。多くの人がこのゲームが何なのかを理解していないために、この論文を見逃してしまうと思います。それは残念なことです。

Core Warのゲームメカニクス

前提はシンプルです。ゲームが始まる前に、基本的にこの小さな自律ロボット用のコードを書きます。そしてこのロボットは世界に出て行き、他のすべての自律ロボットを倒そうとします。あなたは考えられるすべてのシナリオに対処できるようにプログラムしなければなりません。なぜなら、一度解き放ったら、あなたはそれを助けることができないからです。

このような簡単なコードを書きます。それから世界に投げ込み、それが競争し、他のすべてのロボットを倒そうとします。

基本的にゲームを理解するために、これがマス1だと想像してください。ずっと横切って、ずっと横切って、このように最後まで行き、ループして戻ってきます。つまり1から2,000のようなもので、最初に戻ります。大きな円のようなものです。

あなたと他のプレイヤーは、審判によってどこかランダムにここに投げ込まれます。つまりランダムな場所にスポーンします。このようなグリッドを想像してください。赤いプレイヤーがここに配置され、青いプレイヤーがここに配置されたとしましょう。

これらの小さな線の1つ1つを、好きなコードを書けるホワイトボードと想像できます。そしてそのコードは、そのコードが実行される時が来たときに実行されます。

最初は、これらの1つ1つが爆弾です。基本的に、そのコードを実行すると、死んでしまい、ゲームに負け、クラッシュします、何と呼びたいにせよ。それらはずっとこちらの方まであります。

しかし、最初に書いた自律ロボットのコードを覚えていますか。基本的に、ここに書かれていたものを削除し、次の4つのマスに好きなコードを書くことができます。

つまり、ここ、ここ、ここ、基本的にすべてのマス、自分を含む5つのマスと次の4つのマスにコードを書きます。次のターンには、1つ前進し、すべてのマスに同じコードを書き、前進していきます。

つまり、あなたのプレイヤーは基本的に一歩ずつ前進し、ゲームが始まる前に最初に与えた同じ指示を書き直し、その指示を書き直し、前進し、一度に1つずつ進んでいくのです。青い人も同じことをしました。

ここで少し複雑になりました。これを理解するのに少し時間がかかりましたが、コンピュータまたは審判を、基本的に2本の手、2本の指を指していると考えてください。デフォルトでは、1つは青いプレイヤーが始まった場所を指しています。これを青い矢印と呼びましょう。もう1つは赤い矢印で、赤いプレイヤーが始まった場所を指しています。

そしてプレイヤーと同じように、ターンの終わりに1マス前進します。唯一のトリックは、そのセルに書かれているコードが何であれ、それを実行するということです。

コードが10マス戻れと言えば、10マス戻ります。つまり、それがどこに行くか、何をするかをある程度コントロールできます。しかし、ずっと進んで爆弾を踏んだら、負けます。赤い矢印が爆弾のあるマスに飛んだら、赤いプレイヤーの負けです。

コマンドは、見ている場所に爆弾を置くとか、5マス進むとか、セルの中を見て、データがなければ続行する、データがあれば爆弾を置く、おそらくそこにプレイヤーがいるからといったものになります。

ヒドラと呼ばれるように、複数のコマンドを実行できるように自分自身を増殖させて分割する方法もあります。

ポイントは、1984年以来、人々がこのゲームをプレイし、世界中で競争してきたということです。キング・オブ・ザ・ヒルと呼ばれるものがあるようで、コードを書いてこのコミュニティに提出し、あなたの小さなロボットが他の何千ものロボットと戦い、その勝率が返ってきます。

そして時間とともに、リーダーが現れます。特定の人々が上位にいる傾向があります。しかし、初心者であってもコードが良ければ、まだ勝つことができます。支配することができます。

基本的には、他のすべてを破壊する自律コードを書けるか、あるいは少なくとも、統計的に時間とともに他の人よりも頻繁に勝つことができるかということです。

想像できるように、メタがあります。もし全員が1つの特定の戦略に向かっているなら、じゃんけんのようなものです。現在最も人気のあるメタに勝つため、異なる戦略が現在のメタになるかもしれません。

しかしここでのポイントは、人間、あるいはこれに参加したい人間は、1984年以来、最良の戦略を作り出そうとしてきたということです。人々はこれを非常に真剣に受け止めています。彼らは時間をかけてこのゲームをプレイします。最良にコード化された人間の戦略は、全員がキング・オブ・ザ・ヒルになるために戦うこの進化を通じて、時間とともに進化します。

AIによる戦略の独自発見

Sakana AIは何をしたのでしょうか。彼らは大規模言語モデルにこのようなものを一度も見せませんでした。いくつかの戦略を考え出そうと自己対戦させ、その進化的な自己対戦を通じて、過去40年間に私たちが持っていたよりも優れた戦略を作り出す方法を理解できるかどうかを確認しました。

これらの大規模言語モデルはどれほど上手くやったのでしょうか。全部は読みません。すでに十分複雑です。ゲームのルールを説明するだけで、多くの人を失ってしまったかもしれません。

しかし、ゲームがどのようにプレイされるかを理解することは、その複雑さを理解するために重要だと感じました。スキャンしたり、あちこち飛び回ったり、一度に1マスずつ爆撃したりするなど、多くの戦略があります。

しかし、この論文の背後にあるポイントは何だったのでしょうか。彼らは何を発見したのでしょうか。

いくつかのことがあります。まず第一に、想像できるように、これらの大規模言語モデルが戦闘をプレイし、新しいコードを書き、新しいウォリアーを作成すると、改善し、ラウンドが増えるほど、どんどん良くなります。

ここでフィットネスは基本的に、さまざまな相手に対して何パーセントの時間勝っているかです。そして非常に興味深いことがいくつか現れました。

第1に、人間を見ることなく人間を打ち負かしました。つまり、多くの多くの進化のラウンドを実行した後、進化の250回の反復の中で、以前に一度も遭遇したことのない人間チャンピオンを打ち負かし始めたのです。

自己対戦を通じて孤立した状態でこれらの戦略を開発し、それらの戦略を持って言わば現実世界に行き、そこで全員を打ち負かし始めることができたのです。

また、メタ、つまり最も勝てる戦略を独自に発明または発見しました。人間が何十年もこのゲームをプレイして、特定の爆撃ランが効果的であることや、例えば自己複製が非常に効果的であることを理解したように、これらのメタ戦略を理解するのに何十年もかかりました。

これらの大規模言語モデルは、自分自身だけと対戦して時間をかけて、野生でそれらを見ることなく、人間が作った他のすべてのチャンピオンに遭遇することなく、再びそれらのメタ戦略を理解しました。

この実験が証明することの1つは、これらのモデルを賢くし、知能を高める最良の方法は、教科書を与えて「これを読んで暗記して」と言うことではないということです。実際には、改善しなければならない、生き残るために常に適応しなければならないオープンエンドな軍拡競争に投げ込むことなのです。それがレッドクイーン効果です。

このAIについて非常に興味深いことの1つは、異なるコードブロックがどれほど致命的であるかを読み取ることができるということです。誰かの戦略をコードだけで見て、それを実行することなく、見ただけで良いか悪いかを予測できます。

見ただけで、「うわー、それは本当に良い自律マシンだ、本当に良いウォリアーだ。これは非常に上手くやるだろう」と言うことができます。あるいはそれを見て「それはチャンスがない」と言うことができます。繰り返しますが、そのコードを実行することなく、見ただけでです。

これは、大規模言語モデルがコードロジックとその危険性または能力について深い直感的な理解を持っていることを示唆しています。

広がる応用可能性

もちろん、ここでの影響は巨大です。なぜなら、この同じアプローチを、例えばサイバー防御の推進、実世界のコンピュータウイルスとそれらから保護する方法の発見などに使用できるからです。

世界にすでに存在するものを教えられるのではなく、これらの自己対戦環境を作成し、それを発見させるのです。なぜなら、繰り返しますが、人間が発見したすべてのもの、すべての戦略を独自に再発見したからです。

コンピュータウイルスについて同じことをすれば、時間とともに最高のコンピュータウイルス、サイバーセキュリティのための最高のパッチなどを理解できるようになる可能性が高いです。

私がこれを本当に楽しんだのは、以前のチェスや囲碁のようなゲームでは、それらは人間が作ったゲームで、私たちの脳が理解できるように作られたからです。これは少し異なります。これはチューリング完全と呼ばれる環境です。つまり、コードを実行できるため、任意の計算を実行できるということです。

チェスのように5つの手のようなものではありません。できる合法的な手には一定の数があります。これは少し異なり、これはただのコードです。できることはほぼ無限にあります。つまり制限はありますが、膨大です。

チューリング完全は、特定のシステムまたはマシンに十分な時間とメモリとリソースを与えれば、任意の計算を実行できることを意味します。基本的な計算機のようなチューリング完全でないものもあります。そこでは実行できないものがたくさんあります。メモリとロジックとループが必要です。

奇妙なことに、Minecraftは明らかにチューリング完全です。なぜなら、ゲーム内のレッドストーンを使って計算機や大規模言語モデルを作成している人々を見るからです。調べなければなりませんでした。私が狂っていると思わないように。レッドストーンと呼ばれているようです。

誰かがChatGPTではなく、Minecraft内で大規模言語モデルの小さなバージョンを再現しました。つまり、AlphaGoやそれらのシリーズモデルと同じように、手37のような新しい戦略を開発しました。これは非常に有名なもので、マシンがある種の創造性を持っている例でした。

基本的に、囲碁の世界チャンピオンであるイ・セドルとの対戦で、AlphaGoはこの手を打ち、人間全員がそれを見て「あぁ、それは間違いだ。悪い手だ」と言いました。私たちの知恵と経験、見てきたすべてのゲームを通じて、それが悪い手だと思いました。なぜなら通常人間はその手を打たないからです。

もちろん、後にAlphaGoはイ・セドルを打ち負かし、振り返ってみると、ああ、それは実際にはかなり良い手だったと気づきました。それは勝利に向けた重要な手でした。私たちは後になるまで、ずっと後になるまで、その価値を見ることができませんでした。

要約しなければならない大きなポイントは、マシンは私たち人間が思いつかなかったもの、理解できなかったものを作り出すことができるということです。あるいは少なくとも、例えばこの論文のように、多くの戦略を一致させることができます。

人間が同じ結論に到達するために何十年もかけた経験と時間をかけて一致する、戦略の収束進化のようなものがあります。何十年もかけて何千人もの人々が「ああ、これらがいくつかの最良の戦略だ」と理解しました。

それから私たちはこれらの大規模言語モデルを小さなポケットユニバースで実行します。彼らは多くの反復を行います。彼らは「ああ、これらが最良の戦略だ」と言います。そして彼らは正しいのです。

何十年もの人間が協力してゆっくりと戦略を理解しようとし、これらの大規模言語モデルが同じ場所に急速に到達します。

すべてを説明するのに良い仕事をしたかどうか分かりません。これがあなたの注意を引き、想像力をかき立てることを願っています。これは説明するのが本当に難しかったです。あるいは私が過度に複雑にしているだけかもしれません。分かりません。

しかし、私はこれを試みたかったのです。これを視野に入れようと試みたかったのです。なぜなら、AIで見られている進歩の多くについて、平均的な人はその違いを見分けられないかもしれないからです。ChatGPTが10倍賢くなったとして、ChatGPTを使っている平均的な人は、彼らが尋ねる質問や彼らが持つやり取りに基づいて、それが10倍賢いことを本当に見分けられるでしょうか。

しかし同時に、このようなことを実行しているとき、明らかに1年または2年前にはこれらの大規模言語モデルはおそらくこれを行うことができなかっただろうということが明白になりつつあります。GPT-3.5は間違いなく、このゲームを効果的にプレイする方法を理解しようとする人間の過去数十年を再現することはできなかったでしょう。

しかし新しい現代のモデルはできます。問題は、5年後、10年後には何が起こるかということです。それがそれらの解決策をどのように思いついているのかを理解することがますます困難になるでしょう。おそらく私たちにとって少し不透明になるでしょう。

オープンソースと今後の展望

興味があれば、自分でチェックすることができます。彼らはGitHubを持っています。オープンソースなので、すべてをダウンロードできます。私はこれをインストールしましたが、今これらすべてを理解し、実際に実行できるかどうかを確認する必要があります。

視覚化があるようなので、戦闘がどのように展開するかを見ることができます。そして発見されたウォリアーのデータセットは近日公開予定です。

ここからそれらを取得して、リーダーボードに行くことができるかどうか興味があります。分かりません。彼らがまだそれを実行しているかどうかさえ分かりません。つまり、このコミュニティがまだ生きているかどうか本当に分かりませんが、一部はまだ実行していると確信しています。

大規模言語モデルが任意のメタ、任意の競争に対して可能な限り最良のウォリアー、自律ボットを思いつくことができるため、これらがこの競争環境を完全に破壊するまでどのくらいかかるのか疑問に思います。上位100人が大規模言語モデルによって書かれたコードを使用するまでどのくらいかかるでしょうか。

とにかく、楽しい時代が待っています。今、これを録画している時点で、全員がClaude Codeに夢中になっています。

繰り返しますが、Claude CodeとGPT-5.2の最新の反復版は、良いから何かが本当に魔法のように起こっているという変曲点のようなものがあったようです。人々は「オーケー、ここで本当に魔法のようなことが起こっている」と言っています。

人々はますます多くのアプリを構築し、ますます多くのものをバイブコーディングしています。そしてもちろん、これらのモデルは一般的に知的であるため、これはこのようなことや、この種の思考を必要とする他のすべてのことにおいても優れているということを意味します。

楽しんでいただけたなら、親指を立ててください。まだ登録していない場合は、登録してください。それが助けになります。コメントを残してください。次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました