これが初の真の人工超知能かもしれへん…

AGI・ASI
この記事は約8分で読めます。

この動画は、ASI ARCという新しいAIシステムが完全に自律的にニューラルアーキテクチャの発見を行い、人間の設計を上回る106の革新的な線形注意アーキテクチャを発見したという研究論文について解説している。このシステムは研究者、エンジニア、アナリストの役割を全て担い、仮説生成から実験実行、結果分析、反復改善まで一連のプロセスを自動化した初の人工超知能デモンストレーションとされる。さらに科学的発見そのもののスケーリング法則を確立し、計算資源の投入により研究進歩を加速できることを示した点で、再帰的自己改善への第一歩として注目される研究である。

This Might Be the FIRST Real Artificial Superintelligence…
A new AI paper claims to have created the first artificial superintelligence for AI research. The system, called ASI-ARC...

ASI ARCが切り開く新時代

よっしゃ、今めっちゃ話題になってる新しい論文があるんやけど、これがかなり大胆な主張をしとるんや。タイトルがそのまんま「モデルアーキテクチャ発見におけるアルファ碁モーメント」っちゅうもんで、AI システムの設計方法において重要な節目を越えたかもしれへんっちゅう話なんや。

人間が新しいアーキテクチャを作ったり、探索を誘導したりするんやのうて、ASI ARCっちゅうシステムが全部自分でやっとるんや。研究者と技術者とアナリストの役割を全部担って、仮説を立てて実験をやって、結果を分析して、最終的に自分自身を反復改善していくっちゅうわけや。

めちゃくちゃなんは、研究者らがこれを文字通り「AI研究における人工超知能の初のデモンストレーション」、つまり「AI のための ASI」って表現してることや。特にニューラルアーキテクチャ発見っちゅう重要な分野でな。

驚異的な実験結果

そしてどうやらこれが実際に機能しとるんや。研究者らが述べとるところによると、ASI ARCは20,000 GPU時間にわたって1,773回の自律実験を実施して、最終的に106の革新的な最先端線形注意アーキテクチャを発見したんやと。

これはアルファ碁の37手目みたいなもんで、人間のプレーヤーには見えへん予想外の戦略を明らかにしたんや。論文によると、これらのAIが発見したモデルは、人間の設計ベースラインを体系的に上回る新しい設計原理を示しとって、アーキテクチャ革新の未知の経路を照らし出したんやと。

それに加えて、科学的発見そのもののための初の経験的スケーリング法則を確立したと主張しとるんや。つまり研究の進歩が人間の努力やのうて、計算資源とともにスケールできるっちゅうことを示したんや。

そやから、ここで整理すべきことがめっちゃあるんや。この論文は単に再帰的で自己改善するAIを構築したと主張してるだけやない。科学的発見そのもののスケーリング法則を見つけたとも言うとるんや。これは極めて大胆な主張やで。

ASI ARCの仕組み

そんじゃあ、これは一体どういう仕組みで動いとるんやろか?4ページ目で、ASI ARCパイプライン全体が説明されとって、基本的には閉ループで動く4部構成のシステムになっとるんや。

全部は紫色の研究者から始まるんや。ここでモデルが自分の過去の実験とAI文献から抽出した知識に基づいて、全く新しいアーキテクチャを提案するんや。

そしたらすぐにコードを書いて、新規性と健全性チェックを実行して、過去のアイデアを単に繰り返してへんか、明らかに何かを壊してへんかを確認するんや。

次に、提案がオレンジ色の技術者に引き渡されるんや。この部分でアーキテクチャを実際の訓練環境に落とし込んで実験を実行し、スコアをつけるんや。

実は別個のLLM審査員がおって、アーキテクチャの新規性、効率性、複雑性を評価するんや。査読者みたいなもんやけど、これもAIなんや。

訓練後、結果は青色のアナリストに送られるんや。このモデルがログを読んで、親や兄弟デザインと比較してモデルがどう性能を発揮したかを見て、何かがうまくいった理由やダメやった理由を理解しようとするんや。

そして、その実験から学んだことをまとめた理論的レポートを生成するんや。そして最終的に、それが全部システムに フィードバックされて、認知ベースから引き出された洞察と一緒になるんや。認知ベースっちゅうのは、アーカイブ、Hugging Face、Papers with Codeからスクレイピングした人間の研究の精選されたデータベースや。

このアイデア提案から実験、そこからの学習っちゅう全体のループが何度も何度も繰り返されるんや。合計で、実際に完全に自律的に1,773回実行したんやと。

具体的な発見

そんじゃあ、ASI ARCが実際に何を発見したんやろか?ええと、1,773回実行した後、システムが最高性能のデザインをフィルタリングして、人間の設計ベースラインであるDeltaNetを上回る106の新しい線形注意アーキテクチャを作り出したんや。

これが彼らが「アーキテクチャ系統発生樹」と呼んどるもんや。ここの各ノードが作成されたモデルの一つなんや。各アーキテクチャが変異して前世代を基盤として構築される進化系統を文字通り見ることができるんや。

これらは単なるランダムな調整やなかったんや。システムは幅広い戦略を探索して、最終モデルのいくつかは複数のタスクでGated DeltaNetやMamba 2みたいな強力なベースラインを上回る性能を示したんや。

例えば、PathGate、FusionNet、Content Sharp Router、Fusion Gated Firetみたいなアーキテクチャは、カスタムルーティングメカニズムと階層ゲーティング設定を導入したんやけど、論文によるとこれらは新規性があって効果的やったんやと。

そしてベンチマークがそれをはっきりと裏付けとって、発見されたモデルの多くがゼロショット推論タスク、言語モデリング、ARCやPikaみたいな下流ベンチマークで、最高の人間設計代替案よりも高いスコアを記録したんや。

技術を超えた意味

オーケー、ちょっと技術的になってもうたけど、少し視点を広げてみよか。これが本当に意味することは、人間の助けなしにAIシステムが100を超える新しいモデルアーキテクチャを発明して、その中のいくつかが実際のベンチマークで我々が持ってた最高のモデルを上回ったっちゅうことなんや。

これは他の論文をコピーしてやったんやない。自分で実験を実行して、自分の結果から学んで、文字通り自分自身を反復したんや。

科学的発見のスケーリング法則

けど、この論文のもっと大胆な主張はたぶんこれやろな。著者らは、科学的発見そのもののための初の経験的スケーリング法則を発見したと言うとるんや。

基本的に、このシステムにより多くの計算資源を投入すれば、その発見はより新規で効果的になるっちゅうことや。このグラフが進歩を示しとるんや。ASI ARCがより多くの実験を実行するにつれて、モデルの平均品質は頭打ちにならへんかった。

どんどん良くなり続けたんや。つまり、研究を自動化しただけやない。自動化された研究をスケールできるようになったんや。これが本当のアルファ碁との比較なんや。

ただはっきりさせとくと、科学的発見って言うとき、新しい物理学を発見したりタイムトラベルを発明したりっちゅう話やないで。彼らが本当に言うとるのはニューラルアーキテクチャ発見のことで、これは一種の科学的プロセスなんや。

それでもこれは明らかに大きな出来事や。同じアプローチが化学、生物学、材料科学みたいな他の分野でも機能するなら、もっと大きな何かの初期段階を見とるのかもしれへん。

新たな設計原理の発見

けど、この全部の中で一番魅力的な部分は、ASI Arcが良いアーキテクチャを吐き出しただけやないっちゅうことや。新しい設計原理を発見したんや。

言い換えると、試行錯誤でより良いモデルにたどり着いただけやない。実際にデザイン全体で機能するパターンや戦略を特定し始めたんや。動的ゲーティング、階層ルーティング、構造機能トレードオフ、これら全部がそれを探すように指示されることなく発見されたんや。

これは普通、トップクラスの人間研究者に期待する種類の洞察や。それが今では完全自律システムがスケールでやっとるんや。

実用性への疑問

よっしゃ、ASI Arcが新規アーキテクチャを山ほど発見したのは見たし、それはかなりクールや。けど本当の疑問はこれや。これらのどれかが実世界で実際に有用なんやろか?

一部の人が指摘しとるのは、これらのデザインの多くが線形注意に焦点を当てとるっちゅうことで、これは必ずしもGBT-4、Claude、Geminiみたいな今日のフロンティアモデルが使っとるもんやないっちゅうことや。

ベンチマークが強く見えても、実際にそうやけど、これは必ずしも一夜にしてフロンティアを再構築することを意味せえへん。

けど、それでもこれが重要な理由がある。この論文が本当に示しとるのは、人間の監督なしに将来のアーキテクチャのための実行可能なコンポーネントをスケールで自律的に発見できるシステムを今持っとるっちゅうことや。

つまり、LM効率、速度、訓練コストの次のブレークスルーは、実際に人間の研究ラボやのうて別のAIから来るかもしれへんっちゅうことや。これらの正確なモデルやないかもしれへんけど、ここでの方法が全てを変えるんや。

再帰的自己改善への道

これは文字通り再帰的自己改善の基盤なんや。そしてこれが実際にどういうもんかの初の本当の垣間見かもしれへん。

そやから、これが再帰的自己改善への初の本当のステップなんか、それとも派手なタイトルの巧妙な研究パイプラインなんか?どっちにしても、何かの境界線を越えた感じがするで。

そして、ニューラルアーキテクチャの内部動作にそんなに詳しくないから、これらの実験と発見の妥当性を自分では確認できへんけど、これは本当に大きな出来事に思えるんや。

自分自身を改善して次世代AIのより良い構成要素を発見できるシステムを今持っとるなら、知能爆発のアイデアは理論的なもんやなくなって、文字通りのロードマップに見え始めるんや。

コメントで考えを聞かせてくれや。我々は知能爆発の始まりを目撃しとるんか、それとも人々が先走りすぎとるんか?どっちにしても、この解説から何かを得てもろたら嬉しいわ。

もしそうなら、こんなブレークスルーを見逃さへんように、ぜひ購読ボタンを押してくれや。

コメント

タイトルとURLをコピーしました