ゲーデルの定理からゲーデルAIへ: 自己学習マシンの設計図

AIに仕事を奪われたい
この記事は約20分で読めます。

11,567 文字

Gödel's Theorem to Gödel AI: The Blueprint for Self-Learning Machines
Gödel’s Mind: How AI Agents Emerged from a Logical ParadoxThe Gödel Agent, a new AI research paper, represents a novel p...

おはようさんです、みなさん。今日はな、1931年にクルト・ゲーデルが考えた素晴らしいアイデアについて話させてもらいますわ。
ゲーデルは「ファンタジー」について書いたんやけど、それからもう100年近く経った今、ゲーデルのアイデアを使って、ゲーデルAIエージェントっちゅうのを作ろうとしてるんや。これが自己参照型で、再帰的に自己改善するAIエージェントなんやけど、ほんまに素晴らしいもんやで。
ほら、ここにゲーデルがおるやろ。1926年の写真やけど、100年前のことを想像してみてな。そして今、彼のアイデアを人工知能に応用しようとしてるんや。ゲーデルの不完全性定理から、ゲーデルマシン、そしてゲーデルエージェントへと進化してきたんやな。
さて、ゲーデルの話から始めよか。ゲーデルの不完全性定理について読みたいんやったら、ここに書いてあるように、十分に複雑な形式システムには、そのシステム自体の規則では証明できない真理が含まれてるっちゅう、ちょっと不安になるような事実を明らかにしたんや。
でもな、もう一つ興味深いのは、ゲーデルの定理が数学システムにおける自己参照の概念を形式化したっちゅうことなんや。つまり、システムが自分自身を参照することで、パラドックスみたいな状況を生み出したり、標準的な論理分析の限界を明らかにしたりするんや。
ゲーデルの原著を読みたいんやったら、ここにあるけど、1931年12月1日に「モナーツヘフテ・フュア・マテマティーク・ウント・フィジーク」っちゅう雑誌に掲載されてる。残念ながら、シュプリンガーの有料記事やから40ドル払わなあかんわ。でも、興味あるんやったら、ここにスタンフォード哲学百科事典のゲーデルの不完全性定理の記事があるで。2020年に改訂されたバージョンやけど、これは良い入門になるで。
さて、次はゲーデルマシンの話に進もか。ゲーデルの後、何年も経ってからな、J・シュミッドフーバーっちゅう科学者がおってな。彼が考えたんは、「もしマシンが形式システムみたいに自分自身を参照できて、自分のコードを修正できたら、外部のプログラミングじゃなくて、自分の論理を一歩ずつ書き換えることで改善できるんちゃうか」っちゅうことやったんや。つまり、学習において本当の意味で自律的になれるんちゃうかって。
これがゲーデルマシンのアイデアで、2003年に出てきたんや。元の論文を読みたかったら、「Gödel machines: self-referential universal problem solvers making provably optimal self-improvements」っちゅうタイトルで探してみてな。この論文読んだら、理論上の機械を作って、それが自分で学習する方法を学ぶっちゅうことについて書いてあるんがわかるで。
ここで注意してほしいんは、超人的な知能の話をしてるんやなくて、自分で学習できるシステムを作れるかどうか、そしてそのシステムがどれくらい速く学習できるかっちゅう話なんや。
まず簡単なところから始めよか。最初のマシンは、迷路を抜けるとか計算をするとかいう簡単な問題を解くんや。最初はプログラムっちゅうか、タスクに取り組むための指示のセットがあるんやけど、このマシンには特別な機能があるんや。「証明探索機」っちゅうもので、これを使って自分のコードを見て、「ここを変えたら、もっと良くなるんちゃうか」っちゅうような深い質問を自分に問いかけられるんや。しかも、人間が関わらんでもできるんや。
ゲーデルマシンの主なアイデアは、ルールに従うっちゅうことやったんや。マシンは、絶対的な数学的確実性を持って、ある修正が自分のタスク遂行能力を向上させるって証明できた場合にだけ、自分を修正するんや。つまり、目標をより速く、より安く達成できるようになるっちゅうことやな。
マシンの行動全体、その思考方法、分析の仕方は、すべて数学的論理に基づいてるんや。ゲーデルマシンが、自己修正が良い結果をもたらすっちゅう有効な数学的証明を見つけた時だけ、理論上は自分のプログラムを書き換え始めるんや。
これが2003年頃の技術の状態やったんや。2003年のこの自己参照能力は、元々のゲーデルの二つの不完全性定理にインスパイアされたもので、これがゲーデルマシンを理論的な構造として革命的なものにしたんや。
もはや単に問題を解くだけのマシンやなくて、純粋な数学的論理以外に主人も中央インテリジェンスも持たずに、自分で学習して再帰的に一歩ずつ自己改善する方法を学ぶマシンやったんや。
でもな、2003年のゲーデルマシンには大きな制限があったんや。それは、形式的な論理的数学的証明が必要やったっちゅうことや。これは1931年の元のゲーデルのアイデアに近かったんやけど、今は2024年やで。今や両方のアイデアを使って、ゲーデルAIエージェントを作れるんや。だって、当時はなかった技術が今はあるからな。
絶対的に厳密な形式的数学的論理が、今のAIの知識と出会うと、もっと面白いもんができるんや。AIの研究者たちは、ゲーデルマシンの厳密さと現代のAIモデルの創造力を組み合わせたエージェントを想像し始めたんや。LLM(大規模言語モデル)、視覚言語モデル、そして再帰的な自己改善が可能なシステムを。しかも、もう形式的な数学的証明に縛られへんのや。
ここでは、LLMの知識と推論能力を使って自己修正をガイドするんや。人間の言語を理解できるだけやなく、自分のコードを書いて、動的に自分の行動を修正できるマシンを想像してみてな。人間の言語を理解するのはどのLLMでもできるし、自分のコードを書くのはコードLLMができる。動的に行動を修正するっちゅうのが新しいアイデアなんや。
ゲーデルエージェントは、元のゲーデルマシンと同じように初期プログラムから始まるんやけど、追加のツールとしてLLMを使うんや。LLMを使って新しい戦略を生み出したり、論理的な洞察を得たりするんや。自分の論理、条件、コードを書き直して、問題解決能力を向上させることができるんや。簡単なアイデアやろ?
ゲーデルAIエージェントの中心にあるのは、簡単に言えばLLMなんや。LLMのおかげで、エージェントは抽象的に考えたり、複雑なタスクについて推論したり、自分の改善について考えたりできるんや。
ここで条件を緩めてるんが分かるやろ。純粋に抽象的な数学的証明が絶対に必要やっちゅう条件を緩めて、「AIがある、LLMがある。LLMに考えさせて最適化させよう」って言ってるんや。簡単やろ?
エージェントは問題を解くための基本的なアプローチから始めるんや。例えば、数学的関数を最適化したり、複雑な環境をナビゲートしたりするんやけど、フィードバックループがあるんや。マシンっていうか、この新しいエージェントが学習するには環境と相互作用せなあかんからな。
環境と相互作用して、どれだけうまくやったかについてフィードバックを受け取るんや。そのフィードバックを使って、エージェントのパフォーマンス、つまり自分のコードベースのパフォーマンスを評価するんや。
そして自己修正や。エージェントが現在の戦略を改善できると気づいたら、LLMに自分のコードをどう修正すべきか提案を求めるんや。コードLLMとか、Cursorとかがあれば、システムは美しいコード、最適化されたコードを生成できるんや。
このコーダーとかLLMとかコードLLMが、より良い解決策、より強力な解決策、現在のコードを置き換えられる新しいコードを生成するんや。
動的なコード更新っちゅうわけや。このAIエージェントは自分のコードを環境でテストして、新しいコードの方がパフォーマンスが良かったら、エージェントの行動に組み込むんや。ダメやったら、もう一回試すんや。このアプローチを継続的に洗練させていくんや。
環境との相互作用の中で、試行錯誤しながら学習する方法を学んでいくんやな。
面白いアイデアがあってな、人間がコードした限界を超えられるんや。ゲーデルエージェントは新しいアイデアを表してるんや。もうAIシステムは人間のコードが設定した境界に制限されへんのや。このAIエージェントは、LLMにエンコードされた知識(インターネット全体から学んだことすべて)にだけガイドされて、自分の道を作り出せるんや。そして、現実世界との相互作用からのフィードバックに頼るんや。
十分な時間と十分な繰り返しを与えたら、理論的にはこういうシステムは、これまでマシンに可能やと思われてたレベルを超える知能と適応性を達成できるかもしれへんのや。もう目の前に置かれた問題を解くだけやなくて、自律的に新しい問題を見つけ出して、自分自身を改善する新しい方法を見つけ出すかもしれへんのや。
ゲーデルエージェントは単なる別のAIエージェントやないんや。自己進化するシステムなんや。初期のコーディングの限界を超えて成長し、学習し、自分自身を改善する方法を学ぶシステムなんや。これが興味深い理由やな。
新しい論文が出てるで。「Gödel Agent: A Self-Referential Framework for Agents’ Recursive Self-Improvement」っちゅうタイトルで、10月6日に出たんや。カリフォルニア大学サンタバーバラ校、北京大学、アリゾナ大学の共同研究やな。素晴らしい研究やから、是非見てみてな。
ここでゲーデルエージェントを紹介して、素晴らしい洞察を提供してくれてるんや。アルゴリズムも示してくれてて、これがゲーデルエージェントの再帰的自己改善のための疑似コードなんや。
前回、Pythonコードを見せた時に「分からへん、どうしたらいいんや」って質問があったんやけど、簡単やで。ほら、この画像を取って、GPT-4 Omniに入れて、「コードを説明してくれ」って言うだけや。これがGPT-4からのスクリーンショットで、システムが1行目から2行目、3行目、4行目、5行目、6行目って説明してくれてるんや。このシステムがどう動いてるか、全部の情報が手に入るんや。
でも、もう一緒に説明したから、詳しく読みたかったら、自分で読んでみてな。問題ないで。AIの知能を使って、このコードベースの疑似コードの可視化、システムの完全な内部動作を理解するのを手伝ってもらうんや。素晴らしいやろ?
さて、一緒に何かやってみよか。ゲーデルマシンの概念の中で一番複雑なアイデアって何やと思う?それは、形式的な証明に基づく自己改善への依存なんや。これは、ゲーデルマシンが自分自身を修正するのは、その修正が事前に定義された効用関数に関して改善をもたらすことを数学的に証明できる場合だけっちゅうことやな。この効用関数がめっちゃ重要で、ここで「改善」ってどういうことかを定義して、どの方向にシステムを動かすんかを決めるんや。
ゲーデルマシンは、有効な数学的証明を見つけるために証明探索機を使うんやけど、現実世界の複雑な問題では、こんな数学的証明を見つけるのは計算上不可能なことが多いんや。例えば、動的な環境での戦略や行動の最適化は、形式的な証明に簡単には結びつかへんのや。可能性のある修正の空間があまりにも広くて、修正の影響を純粋に数学的に予測するのが難しいからな。
もちろん、有益な修正すべてを形式的な数学システムで証明できるわけやあらへん。経験的にうまく機能する発見的改善でも、形式的に証明するのは難しいかもしれへんからな。これがゲーデルマシンの柔軟性を制限してたんや。形式的に検証できる変更しかできへんかったからな。ゲーデルマシンは極端に遅くて、計算コストも高かったんや。
でも、これをゲーデルエージェントでどう解決したか知ってるか?簡単や。ゲーデルマシンから20年経って、AIがあるやろ。AIマシンのシミュレートされた知能があるんや。だから、形式的な数学的証明を経験的なフィードバックに置き換えたんや。
つまり、厳密な数学的証明に頼る代わりに、ゲーデルエージェントは環境からの経験的なフィードバックを活用するんや。これは根本的な変化やな。もう数学的に正確やないんや。修正が効用を改善することを証明する代わりに、ゲーデルエージェントは変更を加えて、実際にテストするんや。現実世界で単純な試行フィードバックループを使って、うまくいったら適応するんや。
つまり、エージェントは形式的な証明を待つんやなくて、リアルタイムで修正の実世界でのパフォーマンス改善を評価するんや。だから、動的で不確実な環境にもっと敏捷に、反応的に対応できるんや。
複雑なAIエージェント、マルチエージェントシステムをこのマシンに組み込んだら、もっと面白くなるやろ?簡単にやってみよか。いつもみたいに、認知エンジンとしてLLMを使うんや。形式的な証明の代わりに、ゲーデルエージェントはLLMを使って潜在的な修正や解決策を生成するんや。
LLMはエージェントが複雑な問題について推論したり、改善を提案したり、自分のコードを動的に書き直したりするのを助けるんや。Cursorとか、Microsoftのコード書き換えツールだけでも、ほぼ同じことができるんやけど、このシステムはもっと動的で反復的なレベルでやるんや。しかも、人間の介入は必要ないんや。環境との相互作用だけでトリガーされるからな。
LLMは、厳密に数学的やないけど、インターネットの膨大なデータセットから学んだパターンに基づく確率的な推論フレームワークを提供するんや。これによって、エージェントは情報に基づいた修正を生成して、それをテストして、フィードバックループの結果に基づいて適応できるんや。
このフィードバックループが重要なんや。ゲーデルエージェントは、環境からのフィードバックに基づいて行動を修正する再帰的な改善ループを採用してるんや。継続的にパフォーマンスを評価して、修正が効用関数を改善するなら保持し、そうでなければ別の戦略を試すんや。もう人間はループの中におらへんのや。
この継続的な反復プロセスは、証明ベースの数学的アプローチよりずっと速くて、スケーラブルなんや。純粋に数学的な証明を網羅的に行うんやなくて、システムのリアルタイムのフィードバックに頼ってるからな。どこに向かってるか分かるやろ?
もう一つ素晴らしい特徴があってな、システムにロールバックがあるから、特殊な形のエラー処理ができるんや。ゲーデルエージェントの実用的な主要な革新の一つは、失敗した修正をロールバックしたり、元に戻したりする能力なんや。
これによって、エージェントは自分のアーキテクチャ、重み構造、重みテンソルに永続的な有害な変更を加えるリスクなしに、異なる戦略を試すことができるんや。このナイスなエラー処理メカニズムによって、エージェントは最適でない自己修正から回復できるんや。元のゲーデルマシンにはなかった機能やな。
ほんじゃ、ちょっと理論の話はここまでにして、実践的な例を見てみよか。どう思う?ここでGPT-4 Omniに聞いてみたんや。複雑な非線形関数を最適化する初期設定があるとして、ゲーデルエージェントにこの関数の最大値を見つける簡単なデモタスクを与えてみよか。
ステップ1: 初期エージェントの行動
最初、ゲーデルエージェントはランダムサンプリングや丘登り法みたいな単純な方法から始めるかもしれへんな。一番簡単な方法を考えてみ。ランダムにポイントを選んで、そのポイントで関数を評価して、ちょっとずつ変更を加えて改善を探すんや。
数回の反復の後、エージェントは局所的な最小値や最大値にはまってしまうかもしれへん。丘登り法ではそういう罠から簡単に抜け出せへんからな。この時点で、ゲーデルエージェントは自分のパフォーマンスが最適やないって認識するんや。効用関数で測定されるパフォーマンス、つまりグローバルな最大値にどれだけ近いかが最適やないって気づくんや。
ステップ2: 再帰的自己改善とコードの自己修正
エージェントは自分の行動を分析して、自己点検して、現在のコードを見て、丘登り法アルゴリズムを使ってるけど、これが局所的な最大値にはまってしまうからこの問題には適してへんって気づくんや。
自己点検の後、自己修正を始めるんや。エージェントは動的に最適化戦略を修正するんや。エージェントの中心にコードLLMがあるから、新しい最適化アルゴリズムを生成するんや。例えば、GPT-4にお願いするか、Cursorに「この特定のタスク、つまり関数の最適化のための新しい最適化アルゴリズムを考えてくれ」って頼むんや。
そうすると、シミュレーテッドアニーリングや遺伝的アルゴリズムみたいな、局所的な最大値から抜け出すのに適したアルゴリズムが出てくるんや。だから、システムは次のように論理を書き直すんや。丘登り法からシミュレーテッドアニーリングに切り替えて、確率的に下り坂の動きを許容して、より広い解空間を探索できるようにするんや。
これは全部、GPT-4 Omniでも利用できるんや。コードの書き方を知ってて、局所的な罠から抜け出すためのいろんな方法論を持ってるからな。だから、この人工的なシミュレートされた知能を使って、新しい解決策を考え出して、自分のコードベースを書き直すんや。
ステップ3: 新しい戦略の実装
ゲーデルエージェントは、新しく生成されたシミュレーテッドアニーリングアルゴリズムを実行するんや。
ステップ4: さらなる再帰的改善
最適化のサイクルを何回か回した後、ゲーデルエージェントはさらに分析を行うかもしれへん。複数の戦略を組み合わせる、例えばシミュレーテッドアニーリングと勾配降下法のハイブリッド形式を使うって決めるかもしれへんな。これまでにいろんな方法を試して、効用関数からパフォーマンス数値をもらってるから、「ハイブリッド解決策を試したらもっと良い結果が出るかもしれへん」って考えるんや。
そして、人間の介入なしで、システム自身がそれを試すんや。ゲーデルエージェントは自分のコードをもう一度生成して修正して、このハイブリッドアプローチを導入するんや。
再帰的な改善が続くんや。ゲーデルエージェントが最適な解決策に達したと判断するまで、つまり「これが探してたパフォーマンスや」って決めるまで続くんや。
結果: 柔軟性
ゲーデルエージェントは単純な方法から始めて、それが最適でないって認識したら、外部のガイダンスなしで動的に自分のアプローチを修正するんや。コードベースLLMの内部知識、パラメトリックな知識だけを使って、より効果的な戦略に切り替えるんや。ハイブリッド方法論とかなんでもありや。そして、ますます洗練された最適化テクニックを継続的に進化させ、反復することができるんや。
これがゲーデルAIエージェントの中心原理である再帰的自己改善の簡単な例やな。自分の限界を認識して、パフォーマンスが最適でないことに気づいて、LLMのパラメトリックな知識に基づいて動的に論理を修正するんや。潜在的な解決策の完全な設計空間を探索するんや。
これは、内部のコードLLMに「他の解決策ないか?」って聞いてるのと同じなんや。「インターネット全体、GitHubリポジトリ全体を学習したんやから、この特定の問題に対する他の潜在的な解決策を見せてくれ」って言ってるようなもんや。そして、選択肢がたくさんある中から、最適なアプローチに収束していくんや。
ほんじゃ、まとめに入ろか。元の研究からパフォーマンスのベンチマークデータを見せるで。ここにエージェント名があって、Chain of Thought、Self-Refine、Quality Diversity、Role Assignment、MetaAgent、SEAR(会社やないで)、そしてゲーデルエージェントがあるんや。F1スコアを見てみ。ゲーデルエージェントは90%近くまで行ってるんや。
これは自己最適化、自己参照、自己改善するAIシステムとしてめっちゃ興味深いもんやな。自分のコードベースを上書きして、現実世界との相互作用に基づいて自己最適化できるシステムや。
最後に5つのポイントを挙げとくで。

ゲーデルエージェントのフレームワークは、人間の介入を完全に排除することを明確に目指してるんや。ゲーデルエージェントが自己修正して、可能な設計の全空間を探索できるようにすることで。コードベースLLMの知識とパワーに頼ってるけど、ゲーデルエージェントは固定的にエンコードされたルーチンによる制約を克服するんや。AIを使うからこそ、このアプローチは理論的にブレークスルーにつながる可能性があるんや。解決策が完全に新しくて、この特定のドメイン知識には適用されてへんかったり、人間のバイアスの制限から自由やったりするかもしれへん。人間が「いつもこうやってるから」って言うようなことから解放されるんや。
モンキーパッチングってのがあってな。ゲーデルエージェントはシステムを再起動せずに、自分の行動と自分のコードベースを変更できることが示されてるんや。これはロボット工学のことを考えたらすごいことやで。現実世界で相互作用してるロボットがタスクを実行してて、例えば冷蔵庫を開けるアルゴリズムが間違ってると気づいたとする。そしたら、内部のパラメトリックLLMに「冷蔵庫のドアを開ける方法をもっと良くしてくれ」って聞くんや。システム全体を再起動せずにこれができたら、自律システムにもっと近づくんや。現実世界からのフィードバックとの相互作用で、本当に役立つリアルタイムの決定ができるようになるんや。

著者らの研究によると、この方法論は全てのタスクにおいて、人間が手動で設計したエージェントを一貫して上回るパフォーマンスを示してるんや。
再帰的自己改善がめっちゃ美しいんや。ゲーデルマシンにインスパイアされて、ゲーデルの不完全性の洞察に基づいてるこの新しいゲーデルエージェントは、事前に定義された限界なしに自分自身を繰り返し改善できるシステムの実用的な実現なんや。

時間さえあれば…例えば、シャーレがあって、生化学実験をしてるとしよう。そのシャーレを1000年間ほっといたとする。でも、そのシャーレの中にあるものが、再帰的自己改善の進化コードをシステムに、遺伝子に、あるいはコードベースに刻み込まれてるって分かってるんや。これによって、エージェントは最適化する能力を徐々に強化できるんや。
より深い意味合いとしては、時間が経つにつれて、こういうエージェントは人間の設計と思考によって制約された現在のモデルを超える能力レベルに達する可能性があるんや。

エージェント設計、特にマルチエージェントの相互作用において、新しいパラダイムへの道が開かれるかもしれへんな。静的なAIエージェントやなくて、このゲーデルエージェントは時間とともに自分自身のより良いバージョンを設計できるんや。人間の介入なしに問題を解決するための戦略を学習するんや。

だから、より自律的なシステム、マルチエージェントを含む完全なシステムの開発を加速させることができるんや。エージェントについての新しい考え方を提供してるんや。人間がシステムにプログラムした固定の学習アルゴリズムに頼るんやなく、システムが自分自身のコードベースを発明して洗練させることができるんや。
注意せなあかん点が一つあるんや。これめっちゃ重要やで。エージェントの推論と行動の初期ポリシー、つまり初期の出発点の選択が、この自律的な発展において最も重要な要素の一つなんや。
うまく選ばれた初期ポリシーは、システムが最適な解に収束するスピードを速めることができるんや。逆に、運が悪くて貧弱な出発点のポリシーから始めると、学習が遅くなったり、最適な解を全く見つけられへんかもしれへんのや。
ゲーデルエージェントは非常に柔軟やけど、初期条件がめっちゃ重要なんや。特に最適化の初期段階で、システム全体のパフォーマンスに大きな影響を与えるからな。お金をかけすぎたくないとか、システムを何日も何日も動かしたくないんやったら、出発点をより知的に選べば選ぶほど、つまり特定のタスクに対して最適なパフォーマンスにすでに近ければ近いほど、システムはより良く自己最適化するんや。
核心を言うと、ゲーデルエージェントは自己参照システムなんや。つまり、自分自身のコードを検査し、分析し、修正できるんや。この自己参照の特性は、ゲーデルの不完全性を考えると、めっちゃ重要なんや。
再帰的自己改善メカニズムの鍵になってるんや。エージェントは現在の状態と戦略を検査して、自己修正を担当する論理を含む自分自身のコードを修正して書き直して、このプロセスを再帰的に適用するんや。継続的に自分自身を更新して最適化するんや。
子供が大人に成長していくようなもんやけど、これは未来のAIシステムでは極端に加速されてるんや。
この動画から一文だけ覚えてほしいなら、これや:「ゲーデルエージェントは、再帰的自己改善システムを持つ自己参照システムや」。
ここまでは全部導入やったんやで。これが本当の論文や。「Recursively Self-Improving Code Generation」っちゅうタイトルで、スタンフォード大学、マイクロソフトリサーチ、OpenAIの研究やな。
でも、この特定の論文については次の動画で見ていくで。最初にはちょっと多すぎるからな。でも、アイデアは簡単や。コーディングAIに人間が必要なんか?人間はループの中に必要なんか?って考えたんや。
彼らは、これらのシステムはループの中に人間がおらんでも自律的に発展できるっちゅう結論に達したんや。そして、どうやってそんなシステムを作るんか?これが次の動画のテーマやな。
だから、これら全てはゲーデルの不完全性定理にモデル化されてるんや。十分に複雑な形式システムには、自己参照して自分自身を修正できる文がある、っちゅうことをさらに示してるんや。
数学を勉強したことがあるなら、これがめっちゃ大きな単純化やって分かるやろ。この動画のために単純化してるんや。何時間も何時間も不完全性の数学に入り込むわけにはいかへんからな。だから、アイデアを示すためにこの単純化を許してほしいんや。
任意のっちゅうのはエージェントに置き換えられるんや。決定だけやなく、その決定を下すのに使うアルゴリズム自体も改善できるんや。
さて、ちょっと危険な言い方になるけど、ゲーデルエージェントは、実行時メモリを検査することで、ある形の何かを達成するんや。
このエージェントは、環境と自分自身の内部構造、自分のアーキテクチャ、推論構造の両方を構成する変数、コード、関数、クラスにアクセスして分析できるんや。自分の現在のコードを内省して取り出して、実行中に動的に自分のコードを修正できるんや。
研究者の中には、これをシステムの理論的な自己意識の一形態やって主張する人もおるかもしれへん。ワシはその「自己意識の一形態」っちゅう言葉を使うかどうかは分からへんけど、考えてみてな。
朝、鏡を見て「あかん、髭剃らなあかん、顔洗わなあかん」って思うやろ。自分を最適化せなあかんって気づくんや。これは一種の自己意識やな。
今、このAIシステムが鏡を見てるとしよう。鏡に映るのは人間やない。自分のコードベースが見えるんや。自分の変数、関数、システムが思考したり、データを分析したり、計算したり、論理的推論をしたりする能力を定義する全てにアクセスできるんや。
内部構造、内部コードベースを変更する力があるなら、このAIには一種の自己意識の形態があるって言えるんやないか?まだ分からへんけど、面白い考えやと思うで。何か考えがあったら、コメントしてな。
さて、ここまでや。1931年の純粋な数学的証明から始まって、ほぼ100年後の今日のAIエージェント、マルチエージェント環境での実装まで来たんや。
そして、自己参照型で再帰的自己改善機能を持つゲーデルエージェントみたいなものを作ったんや。
楽しんでもらえたらええなあ。新しい情報が少しはあったんやないかな。「ほう、面白そうやな」って思ってもらえるような考えがあったら嬉しいわ。次の動画も見てみてな。次の動画でまた会えたら最高やで。

コメント

タイトルとURLをコピーしました