本動画では、現在のAIシステムが抱える根本的な問題である「世界モデルの欠如」について詳細に分析し、その解決策として注目される創発的コミュニケーションを用いたマルチエージェント型世界モデルの最新研究を解説している。特に、GPT-5などの大規模言語モデルが複雑なタスクで失敗する理由を、世界の時間的・経済的・物理的な仕組みを理解していないという根本的な問題として捉え、香港城市大学とIBM研究所が発表した「コーラル」フレームワークによる革新的なアプローチを紹介している。この手法では、情報エージェントと制御エージェントという2つの専門化されたAIシステムが協調学習を通じて独自の言語プロトコルを創発させ、複雑な問題解決能力を獲得するという画期的な仕組みが明らかにされている。

はじめに
こんにちは皆さん、お帰りなさい。今日は人工知能の新しいソリューションについて話しましょう。2025年8月12日の朝食時に起こったことなんやけど、ゲイリー・マーカスからのメールを読んでたら、彼がええ例を挙げてくれてたんや。「GPT-5が安くて素晴らしい新しい場所を推薦してくれた」って書いてあったんやけど、リンクを辿ってみたら、価格を引用してる記事が10年前のものやったんや。
それで疑問が湧いたんや。なんでAIはこんなことするんやろ?なんでGPT-5はこんなことするんやろ?なんで10年前の記事が、特に価格に関しては今俺が必要としてる情報を含んでないってことを理解でけへんのやろ?
ゲイリーの答えはシンプルやった。それはなGPT-5が時間、価格設定、経済学に関する世界の機能的モデルを持ってへんからや。そういう風に作られてへんし、そういうモデルを適切に学習することもでけてへん。
これについて考えてみると、これは全ウィキペディアの膨大な知識体系を、世界がどう繋がってるかの理解なしに持ってるってことを意味してるんや。俺はこの世界モデルっていうアイデアがめっちゃ気に入ってる。
でもちょっとこれで遊んでみようや。まずは世界モデルに関する最新の研究を発見しよう。そしてこれが創発的コミュニケーションという別のトピックに繋がっていくんや。俺の前回の動画で、なんでGPT-5が複雑なタスクで失敗するかについて話したやろ?今日はその問題の解決策を見つけたいと思ってる。
世界モデルの本質的理解
率直に言うと、世界モデルの実装はGPT-5や次のGPT-6を修正する解決策になるんやろうか?でもな、俺はNvidiaみたいなブルートフォースな方法論は欲しくないんや。彼らは1万台のNvidia GPUで世界モデルを構築してるらしいけど、昨日Nvidiaが発表したGPT-5の誇大宣伝に続いて、今度は「Cosmos」って呼んでる全く新しいモデルを出してきたんや。
彼らは今、全てを理解する物理AIモデルやって言ってる。世界理解の突破口やって。今度はロボットとビジョンエージェントがあって、人間のように推論するらしい。俺は「なんてこった」って思ったけど、でもこの世界基盤モデルについては4ヶ月前に動画で取り上げたことがあるんや。ハーバード、MIT、IBMの洞察を示して、技術的背景、どうコーディングするか、これらの世界モデルの本質は何か、なんでNvidiaがロボットシステムにこれを必要としてるかを説明したんや。
でもNvidiaのことは一旦忘れて、俺らが遭遇した世界モデルっていうメインアイデアに集中しよう。世界モデルがいつ最初に登場したかっていうと、メソポタミアかもしれんけど、紀元前3500年頃の古代エジプトから始めよう。
ここに描写的世界モデルがある。見ての通り、強大な太陽神ラーが描かれてて、ハヤブサの頭に巨大な光る太陽円盤の冠を被って、偉大なウロボロスに囲まれながら天空を旅してる。この世界モデルの用途は何やったかというと、古代エジプト人になんで太陽が東から昇って空を横切って西に沈むのか、そしてなんでこれが毎日起こるのかを説明することやった。
彼らは自然を理解するために世界モデルが必要やったから、この描写的世界モデルを開発したんや。それから約5000年後、ニコラウス・コペルニクスがこの世界モデルを変えた。彼は太陽を中心に置いた、より幾何学的な世界モデルを開発したんや。
もちろん今日では、グラビトン、ストリング理論、ヒッグス粒子理論、冷たい宇宙論など、純粋に数学的で抽象的な世界モデルを持ってる。でも今日この動画での俺らのタスクは、どうやってAIに世界モデルを説明するかや。そしてGemini、GPT-5、または今度のSonnet 4.5システムが、AI複雑性の中でどうやって独自の世界モデルを構築し理解するのか、そしてこれらの世界モデルがどうやってGPT-5やGPT-6のようなAIシステムを突然パワーアップさせて、俺の前回の動画で見つけた問題を解決できるようになるのかってことや。
コーラルフレームワークの革新
ここで俺らの小さなロボットが複雑性に関する解決策を探してる。2025年8月8日の全く新しい論文があるんや。これがアーカイブリンクで、香港城市大学とIBM研究所の4つの大学が、コミュニケーション世界モデルって呼ぶ新しいフレームワークについて話してるんや。
これは面白いで。Nvidiaクラスターの複雑性はいらん。これを2つのエージェントで構築できるんやろうか?可能なんやろうか?この研究をもっと詳しく見てみよう。
このコーラルフレームワークの設計は、非対称学習目的が必要やっていうシンプルな洞察を中心にしてる。最も単純なケースでは2つのエージェントを使って、この部屋でアクションを行う制御エージェントと、部屋の全ての要素の環境動力学の心理的モデルを構築する情報エージェントがある。
この2つのAIエージェント間にはコミュニケーションプロトコルが必要や。なぜなら、お互いの存在を知って、お互いの能力を使う必要があるからな。非対称学習タスクがある場合、情報エージェントのコミュニケーションは、制御エージェントの能動的エージェント制御ポリシー最適化に有益で有用になるよう明示的に形成される必要があるんや。これは強化学習から知ってることで、文脈内強化学習でも古典的強化学習でも関係ない。
これはより深い理解と新しいフレームワークについてのことなんや。俺の前回の動画で、複雑性の高い知識混乱システムを持つ高複雑性シートを分解するのは簡単やって示したやろ。最初のアイデアは世界モデルを構築することや。ここにIAエージェントがいて、環境や部屋の世界をスキャンするライダースキャンデータがある。
または、この特定の部屋の動力学、この部屋の全てのオブジェクトの動力学のビデオフレームや全てのビデオ録画がある。それから物理シミュレーションでも、持ってるデータは何でも、それらのデータをエンコードして、最初のエージェントの仕事は世界モデルを構築すること、この特定の部屋での全ての相互作用の一貫した理解を構築することや。
複雑性分解の新戦略
世界モデル自体の分解の複雑性について話すこともできるけど、簡単にして、まずは単一の複雑な問題の分解について話そう。ここで俺が見せたい新しいフレームワークがコーラルって呼ばれるものなんや。これは自問するんや:エージェントはどうやって様々な状況で知的かつ適応的に行動することを学ぶのか?
なぜなら、俺らの制御エージェントは、部屋のオブジェクトをいくつか動かしたときにどう解決すればいいかわからへんからや。違うオブジェクト構成で訓練されてるから。ここで世界モデルを持つ2番目のエージェントが活躍するんや。
2番目のエージェント、情報エージェントが、俺らの小さな能動エージェント、制御エージェントに新しい状況を説明するんや。この論文にはめっちゃ多くの層があって、俺はこの論文を見逃しそうになったわ。この論文は読まなあかんけど、違う視点から読んでみ。きっと驚くで。
コーラルは、この一枚岩的な挑戦を2つの概念的により単純なサブプロセス、つまり2つのエージェントに分解するんや。最初のは物理学者みたいなもんで、「宇宙の法則は何か、この部屋の動力学の法則は何か」って言うんや。システムは「報酬のことは忘れろ、目標のことは忘れろ。俺はただこの世界、この部屋を観察して、次に何が起こるかを予測することを学ぶんや」って言う。
そこに何週間、何ヶ月、何年も座って全てを記録する。時間的動力学、オブジェクトがどう相互作用するか、全て原因と結果の完全な理解を持ってる。全てを推論できる。観察された全てのアクションの結果を推論して、未来に何が起こるかを伝えることができる。効果を予測できるんや。
これが情報エージェントの目的で、ここでの損失関数の世界予測エラーを最小化することや。そして2番目はもちろん、この部屋で能動的なプレイヤーを持たなあかん。これが俺らの制御エージェントや。制御エージェントを訓練するんや。目的はタスク報酬を最大化することや。
最もシンプルなPPO目的でええんや。GRPOとか何とかは必要ない。最もシンプルなやつでいけばいい。なぜなら、これは単一の学習体験、単一の強化学習、単一の報酬関数についてのことやないから。俺らは今、訓練しなあかんのは複雑なシステム動力学なんや。
機能的分離による新たなアプローチ
一歩下がってこのことを考えてみ。この新しいコーラルフレームワークは、世界の表現と制御の機能的分離を通じて、マルチエージェントの学習問題を概念化してるんや。俺らは複雑な問題を分解してるのがわかるやろ。動力学モデルを学習する専用の情報エージェントがあって、一方で別の分解されたシステム、より低い複雑性の制御エージェントが特定のタスクの報酬を最大化する任務を負ってるんや。
この構造により、情報エージェントの学習されたプロトコルが能動エージェントの強力な文脈的事前知識として機能し、この知識の文脈内適応ができるようになるんや。つまり、未来を予見できる情報エージェント、つまり部屋の未来の動力学を予見でき、制御エージェントが取るかもしれないアクションも予見でき、この知識を制御エージェントに供給するんや。
制御エージェントはゼロからスクラッチで始める必要がない。より高い複雑性の表現から選択して、特定のエージェントを選ぶことができるんや。
文脈的事前知識っていうのは、事前に訓練された専門家情報エージェントによって継続的に提供される「世界がどう機能するか」の短い説明や。そしてこの知識は特定やねん。制御エージェントの特定の仕事に対して、全ての単一時間ステップで必要とする正確なメッセージやからな。
俺らは連続学習ループの中にいて、制御エージェントが行動してる訓練ゲームの現在の文脈にとって必要で重要なんや。文脈内適応は明確やと思う。でもフローを見てみよう。
システム分離の意義
俺らがやってることは、複雑性の分解をもう一度やって、世界を理解する仕事と世界で行動する仕事を分離することや。なぜなら俺らのGPT-5のようなAIシステムはこの複雑性を扱えへんから。これで失敗するんや。だから「小さなLLM、君の仕事はこれや」「別のLLM、君の仕事はあれや」って言うんや。そしたら複数のLLMがあって、みんなちっちゃな簡単な仕事をもらう。
世界モデルの理解の仕事を情報エージェントに割り当てて、行動の仕事を最もシンプルなシナリオで制御エージェントに割り当てよう。報酬ベースの最適化問題があって、全く違う複雑性がある。最終的に俺らが持つのは、新しい制御エージェントの強力な事前知識源として機能する事前訓練されたコミュニケーション専門家や。
この制御エージェントが新しいタスクを信じられないほど素早く適応して学習できるようになる。なぜなら、毎秒タスク固有のアクション予測、環境動力学の予測を提供されるからや。
でも俺らがここで見逃してる一つのピースに気づいたか?それは、彼らを一緒に訓練しなあかんってことや。なんで?情報エージェントは、全てを見て、全てを分析して、この環境、この部屋の時間的動的モデルを構築するっていうタスクだけやなくて、追加の複雑性があるんや。自分の理解、予測を他のエージェントに効果的に伝える方法を学ばなあかんのや。
だから俺らは今、2つのエージェント間のコミュニケーションプロトコルを開発するんや。そして推測してみ、それは人間の言語にはならへん。この美しいコーラルフレームワークに何層もあるのがわかるやろ。
再組立ての困難さ
複雑なシステムの再組立ての困難について話そう。これがGPT-5のようなシステムが失敗するところや。俺は前回の動画で示した。2つの独立したシステムが孤立してる場合、問題が発生する。なんで機能しないのか理解しよう。
実験室で理論物理学者AIを訓練することを想像してみ。この特定の世界、この特定の部屋について全てを学習する。それを記述する完璧やけど高度に技術的な内部言語を開発する。理論物理学の全ての教科書、数学の全て、論理学の全てを読んでる。
それからロボットを連れてきて、ロボットが部屋に入る。でもロボットもシミュレーション環境で訓練されたけど、最初のエージェントとは別々に訓練された。そして別々に訓練されたこれらのエージェントを一緒に部屋に置いて、協力するように頼む。
何が起こるか推測してみ?物理学者AIエージェント、状態ベクトルとかで複雑な方程式世界モデルを構築した情報エージェントが、この環境の未来の時間的動力学を仲間の制御エージェントに記述し始めるんや。
でも制御エージェントは部屋でしか訓練されてない。「冷蔵庫から牛乳を取り出せ」がタスクやったら、制御エージェントは冷蔵庫に行って、冷蔵庫のドアを開けて、牛乳瓶を取り出す。それだけや。理論物理学なんか全然関係ない。
だから推測してみ?彼らは共通言語を共有してない。コミュニケーションプロトコルを共有してない。そして再組立てが失敗する。なぜなら、エージェントシステムの一部からの情報を、システム全体の一貫した高複雑性知識に統合できへんから。だからインターフェースが壊れてるんや。
共通言語の鍛造
この論文の著者たちは美しい解決策を持ってた。彼らは本当に共通言語を鍛造したんや。これは比喩的に言ってるけど、かなりの努力で強く持続的なものを作るって意味や。これは事前訓練なんや。「なんてこった」って言うやろ。
このアイデアは、複雑性の分解と複数エージェントの分離を実行するだけやなくて、俺が1分後に見せるこの洗練された方法にあるんや。事前訓練された2つのエージェントをくっつけるだけやない。彼らは事前訓練プロセスの間に、2つのエージェント間で本当に新しいリンクを鍛造するんや。
孤立して事前訓練したら問題がある。だから同じ環境、同じ世界で相互作用しながら一緒に事前訓練するんや。両方のエージェントは最初から、孤立してへんことを知ってる。特定の仕事を実行する任務を負った大きな兄弟がいることを知ってる。だから彼らは共進化するんや。
つまり、エージェントの脳であるLLMを訓練して、マルチエージェントシステムのこのタスクにいつもGPT-5を使ってたら、失敗するってことや。なぜなら、自分の同一コピー以外の何か新しいことを学習できへんから。でも特化が欲しいんや。だからこそ複数のAIシステムや複数のエージェントを持つんや。
「コピーして、タスクが違うだけ」って言うだけやない。複数エージェントの構成でこれを学習しなあかん。マルチエージェント動力学、MASシステムを理解しなあかん。だから共進化するんや。
美しいのは、道路モデルを持たない情報エージェントが、特定の言語、特定の複雑性、特定の言語形式で話すことを学ぶことや。一方で、ここで環境で行動するここで仕事をする実際のエージェントは、最初は大きな兄弟からのタスク固有の指示を聞くだけや。
今、美しいものがある。制御エージェントはゼロからスクラッチで始めへん。制御エージェントは大きな兄弟から非常に特定なタスク固有の指示をたくさんもらって、環境が何か、何をしてるかを正確に教えてもらうけど、このエージェントが理解できる複雑性レベルでなんや。
だから、彼らは新しいコミュニケーションプロトコルを開発するんや。この共同事前訓練をどうやるかっていうと、このコーラルチームの美しいアイデアは、今、損失関数、非常に特定の損失関数を定義することで、因果影響損失関数って呼んでるんや。この損失関数を2分後に見るで。
因果影響損失関数の仕組み
これは、異なる複雑性シート、超平面の再組立て問題を解決する重要なメカニズムや。なぜなら、これは最もシンプルなケースでn個の2つのエージェント間の言語教師としても機能するから、俺らがここで持ってるものが理解できるやろ。
この言語教師は、エージェント間のコミュニケーションプロトコルを、一つのエージェントの視点から正確やるだけやなく、2番目のエージェント、この定義された世界モデルでのアクションエージェントの視点からも有用になることを強制するんや。もちろん、全ての時間要素でフィードバックループがある。
情報エージェントは、事前訓練で他のエージェントと一緒に学習して、世界モデルを構築して時間的動力学を予測することを学んだ。他のエージェントが特定の仕事を任されてることを理解して、状況を分析してメッセージを制御エージェントに送るんや。
「全てを説明するで。聞け、君は部屋にいる。注意せよ。ここの前にこれがある。だからここから向こうに移動しなあかん。それから冷蔵庫を開けて牛乳瓶を取り出すアクションをせなあかんねん」って言う。
制御エージェントは聞いて、理解して、たくさんの情報を持って行動する。だからアクション・ポリシー・イミテーターは、このメッセージ情報に基づいて変化するんや。
そして、この損失関数を理解するのに必要な2つの質問がある。このアドバイスは影響があったか?つまり、メッセージは能動エージェントの行動に大きな変化を引き起こしたか?そしてそのアドバイスは良かったか?つまり、行動のこの変化は長期的安定した結果に繋がったか?
これを数学的公式に組み合わせると、素晴らしい因果影響損失関数ができるんや。これは本当に賢い解決策やと思う。これは教師と生徒の視点から見ることができる。
言語教師としての損失関数
俺の言語学的解釈では、この因果影響損失関数が言語において何かっていうと、情報エージェントに全てのステップでこの物語に従えって伝えるんや。
最初のエージェントに「君の使命は、制御エージェントがしようとしてることを大幅に変えるメッセージを見つけることや。でも、この変化が報酬されるのは、両方のエージェントの即座の信頼と実際の長期報酬によって判断される、本当に長期的に良いアイデアやった場合だけや」って伝える。
「世界モデルを学習した後に、このコミュニケーションを達成する言語を発明せよ」って言うんや。俺らが突然扱ってる異なる複雑性の層が見えるか?
どうやってこれを実装するか?著者たちは美しい形式を持ってる。彼らが美しい方法で説明してるから、スクリーンショットを撮るで。損失関数があって、損失関数には3つの別々の項がある。
なんで?世界動力学モデリング、部屋の時間的動力学の目的を組み合わせるから。これが最初の項や。それからメッセージの一貫性、時間的一貫性がある。これが2番目の項や。そしてコミュニケーション効果のために、因果影響損失関数がある。
最初のは簡単や。動力学認識損失って呼べるもので、この目的は情報エージェントの表現を、制御エージェントのアクションの結果を予測するよう訓練することで基づかせるんや。
時間的一貫性損失も比較的簡単で、コミュニケーションの時間的一貫性を促進する。情報エージェントは、特定の損失関数を持つトランスフォーマー層に追加する特定の予測ヘッドを通じて、現在のメッセージに基づいて次のメッセージを予測するよう訓練される。
でも今、本当に興味深い部分に入る。おっと、エラーでテキストを飛ばしたらあかん。すまん。この因果影響損失関数や。
創発言語の数学的基盤
彼らは瞬間因果効果(ICE)って呼ぶものを構築した。これは、大きな製品からの特定のメッセージがある場合とない場合の制御エージェントポリシー間の逆KLダイバージェンスとして定義される。
それから2成分ユーティリティ関数を構築するって言う。このユーティリティ信号は2つのソースを組み合わせる。アクションを取ることの長期的経験的優位性の低分散推定を提供する。
2番目のソースは、制御エージェント自身の価値推定における即座の変化や。典型的なPPO構造や。GPOでいくなら、グループ相対正規化を持つために創造的でなあかん。
それから3番目のステップで、これらの信号を結合してクリップして最終的な正のユーティリティ信号に正規化するって言う。したがって、最終的な損失項は、俺らがここで定義する結合ポリシーへの軌道上のユーティリティ重み付きKLダイバージェンスを最大化するんや。これは美しいもんや。これは両システムの事前訓練をどうやってやるかの損失関数の数学的記法なんや。ほんまにええやん。
でも気づいたことがある。エージェント間コミュニケーションで人間の言語を使えって条件がないねん。小さなコミュニケーション帯域幅しかなくても、任意の簡略化された抽象言語を使えるんや。これがこの新しいフレームワークの別の魅力的な深い層なんや。
そして知ってるか?これは俺が動画の最初、前回の動画で見せた問題に取り組んでるんや。GPT-5が推論で失敗する、異なる複雑性オブジェクトの分解と再組立ての問題や。
この新しいフレームワークからの重要な洞察は、ピースの再組立てのための2つのエージェント間の言語は、人間のコーダーによって事前定義されたり手作業で設計されたりするべきやないってことかもしれん。それは現れるべきなんや。これは、情報エージェントの世界モデル理解に特化し、制御エージェントが行うエージェントセットに特化した、学習されたプロトコルとしての2つのエージェントからの最適化問題なんや。
だからこの言語は、効果的で有用なコミュニケーションを明示的に報酬する目的関数によって形作られた、学習されたプロトコルなんや。そして制御エージェントへの相互リンクがある。
AIエージェント間言語の創発
論文を超えて、これは俺のアイデアやけど、これを違うレベルで考え始めてるんや。俺らはここで、新しいAIエージェント対エージェントコミュニケーションプロトコル、つまりAIの言語って呼べるもんの創世記を持ってる。俺らは課題に直面してて、このコミュニケーションが現実世界に本当に意味を持ってるかどうか常に確信できるかっていう問題がある。これを見てみよう。
言語の創世記について話そう。これはええもんや。2つのエージェントを想像して、これは哲学、歴史、論理学、信号理論から知ってることやけど、送信者と受信者がいる。送信者はいくつかの可能なオブジェクトの一つ、赤い四角や青い円とかを見せられるけど、これらのオブジェクトと相互作用できへん。唯一の仕事は、限られたコミュニケーションチャネルを通じてメッセージ、簡単な数字を送ることや。
反対側には受信者がいる。受信者はそれらのオブジェクトを見ることができへん。送信者が送ったメッセージしか見れへん。このメッセージに基づいて、アクションを取らなあかん。ここに俺らの2つのエージェントがあるのがわかるやろ。
制御エージェントみたいに、自分のボード上の赤い四角や青い円に指さすとかのアクションを取らなあかん。受信者が適切なオブジェクトを指さしたら、コミュニケーションプロセスが成功したと仮定する。原始的な言語が開発されて、両方のエージェントがそれぞれの報酬関数でプラス1の報酬を受け取る。間違ったらゼロを得る。
最も簡単な強化学習方法論や。システムの開始時には何もない。アイデアも共有言語も全くゼロや。送信者はランダムなメッセージを送り、受信者はランダムなアクションを取る。何も起こらん。
でも知ってるやろ、何千回も実行すれば、ただの確率、統計だけで、一度は純粋な運で成功するんや。運って呼ぼう。そして突然報酬が得られる。
そして俺らは報酬関数、内在的外在的関数を持つ強化学習を開始する。強化学習を使って何千回もの試行錯誤を重ねると、人間の言語とは関係ない、2つのAIエージェント間のコミュニケーションである新しいコミュニケーションプロトコルの出現が見える。
もっと簡単な例や。送信者は、たまたま数字の2を送って、受信者がたまたまこの場合青い円を選んだとき、両方が報酬を得ることに気づくかもしれん。だから別々の学習印象を持つ。
でも知ってるか?特定の損失関数を考えれば、それは結合されてる。だから送信者は青い円を見たときに2をより頻繁に送り始める。受信者も同じことが起こる。だから両方とも最終的に、現実に基づいた任意のシンボルマッピングに収束するんや。
青い円を送るときは2が解決策のようやから。これが彼らの言語、抽象的オブジェクトやシンボル間の新しい任意のマッピングなんや。だから彼らはタスクに特化した原始的言語を発明した。これが純粋な形でのコミュニケーションプロトコルの出現で、知能の出現やない。
創発コミュニケーションの課題
この創発コミュニケーションには課題があって、知ってるやろうけど、バブリング平衡がある。彼らがただ何かを話してるだけで、実際にはただいつも同じメッセージを言ってるだけかもしれん。迷路のパズルにいるときに「北に行け、北に行け」って。
他の労働者は、このメッセージを無視して自分のことをやることを学ぶ。だから何らかの統計的ナンセンスがあって、彼らが知識を再組立てするものは、機能不全の非コミュニケーティブシステムや。意味もなくバブリングしてるだけや。
接地問題は別の問題や。シンボル、メッセージ、コミュニケーション要素はどうやって現実世界に接続されるのか?なんで青い円なのか?どうやってこれを接地するのか?メッセージが場所だけをエンコードしてるのか、色をエンコードしてるのか、特定オブジェクトの色をエンコードしてるのか、どうやって見つけるのか。
2つのエージェント間のコミュニケーションが効果的になるためには、シンボルは現実を表現し、制御エージェントのタスクに関連する世界モデルの側面、分極化、解釈(表現やなく)に基づかれなあかん。
どれだけ多くの層が突然相互作用するかがわかるやろ。それから意味の問題がある。現実に基づいてても、どういう意味なのか?
バブリング平衡を克服して接地問題を解決するために、共有報酬、情報ボトルネック解決策があるけど、検索解決策が興味深い。これがコーラルのアプローチや。
これは非対称ルールと、俺がすでに見せた特定の損失関数を持つ内在的目的なんや。俺らが情報エージェントに伝えることは「君の目標は、他のエージェント、制御エージェントにとって最大限影響力があって有用な言語を発明することや」ってことや。
これは見事に、俺が前回の動画でGPT-5に直面した再組立て問題を回避すると呼べる。なんでGPT-5は失敗するのか?ここで俺らは違う視点を持つ。
「聞け、特定のアクションエージェントのために新しい世界モデルを構築した情報エージェントは、世界の自分の理解だけで報酬されるんやない。その理解を、マルチエージェントシステムの他のエージェントにとってアクセス可能で実行可能にしたことで報酬されるんや」って言う。
これは全く違う学習動力学、全く違う損失関数、全く違うコード実装を持つ。そして知ってるか、俺らがここでやってることは、成功したコミュニケーションを教育の形として、一つのAIエージェントが別のAIエージェントに、それが行動してる環境の条件を教える形として突然フレーミングすることや。
哲学的基盤との接続
「注意せよ、君の前にテーブルがあって、冷蔵庫への道を阻んでるから、テーブルの周りを歩かなあかん」みたいなアドバイスもある。ベクトル空間について考えるとき、俺はウィーンにいて、俺の教育を考えれば、コミュニケーションを教育の形としてフレーミングするのは哲学的立場で、これはルートヴィヒ・ウィトゲンシュタインによって表現されたんや。1929年のウィトゲンシュタインがここに見える。
彼はウィーンで、ヨーロッパで最も裕福な家族の一つに生まれた。第一次大戦と第二次大戦に参加した。4人の兄のうち3人が自殺した。数学の哲学と言語の哲学に取り組んでた。
100年以上前に、彼は同じ結論に達してたんや。ウィトゲンシュタインは、言葉は何を指すかからやなく、共有された活動、共有された活動や能動的生活の形の中でどう使われるかから意味を得るって主張した。
言語を学ぶことは、定義を記憶することやない。これらのゲーム、この世界、この世界モデル、この表現に参加するよう訓練されることや。俺ら人間が世界だと思ってるものと、どうやってそれと相互作用できるかってことや。興味深いな。
でもハイデガーについても話そう。ヨーロッパについて話そう。この新しいコーラルフレームワークの新しい層を理解して、俺は以下のことを主張したい。ハイデガーの哲学は、新しいAIエージェントの学習プロセスを説明する。なぜなら、人間が何百年もやってきたことと馴染みがないわけやないから。
理解がどうやって世界の抽象的表現からやなく、世界での熟練した埋め込まれた活動から現れるかを示してる。アメリカの友達のために、アメリカでは誰かを見つけようとしたら、多分ロバート・ブランダムがネオプラグマティズムとしてここで明らかに同じことについて話してる。
彼は、概念を把握することは、それの精神的絵、世界モデルを持つことやなく、理由を与えたり求めたりするゲームでそれをどう使うかを知ることやって主張してる。概念の意味はその推論的役割や。それから何を推論できるか、それから何が推論できるか、どんなアクションが取れるかってことや。
人間の哲学から何百年も前のこれらのアイデアが見えるやろ。俺は現在、最新のAI研究論文を読んでて、「ちょっと待て、これは俺がギムナジウムの時代、100年前に遭遇したのと同じや」って思う。「人間が自分の世界をどう理解するかっていう同じアイデアを、最新のAI研究論文を理解しようとしてるときに突然遭遇するなんて、どうやって可能なんや」って言う。
コーラルのようなこれらのフレームワークは、これらのアイデアの具体的でテスト可能な実例を本当に提供してる。人間とAIシステムの両方にとって、意味のある知能は、受動的観察者としてのみ世界の完璧な鏡を構築することやなく、この世界内で熟練して協力的に行動することを学ぶことやって示唆してるって言わせてもらう。
だから、AIシステムとして何を知ってるかやなく、この構築された世界モデルで何ができるかってことなんや。この種の動画を気に入ってもらえることを願ってる。時々、技術論文で見つけられる種類に驚かされる。突然哲学に再接続される。でもな、なんでやめへんの?次回の動画で会おう。


コメント