本動画では、AI推論に関する統一理論を幾何学的視点から解説する。UC BerkeleyやNVIDIA、Microsoft、清華大学などの最新研究論文3本を取り上げ、推論多様体という低次元幾何構造、エージェント推論グラフによる行動パターン分析、そして強化学習における多様性崩壊の問題を詳述している。これら3つの論文は、AI推論の「状態」「プロセス」「学習ダイナミクス」をそれぞれ扱っており、統合的な診断・説明・介入のフレームワークを提供する。特に、推論の失敗を高次元空間における幾何学的偏差として定量化し、その原因を特定して修正する方法論は画期的である。

AI推論の幾何学的視点
こんにちは、コミュニティの皆さん。今日はAI推論の統一理論についてお話しします。最新の研究を取り上げますが、今回は幾何学版です。それでは見ていきましょう。
私のチャンネル、discover AIへようこそ。最新の研究をお届けします。これはパート2になります。タスクボスが最新の出版物を見ていきます。こちらには美しい機関からの6本の真新しい論文があります。前回の動画では上位3本を扱いましたので、今回はさらに3つのバージョンを見ていく必要があります。UC Berkeley、NVIDIA、Microsoft、清華大学、ハーバード大学、南カリフォルニア大学、清華大学からの最新研究です。
では、これに飛び込んでいきましょう。そしてもちろん、私にはプロセスがあります。なぜなら、よく見ていただければ、そしてすでに論文を読んでいれば、これがAI推論の状態、プロセス、学習ダイナミクスを説明していることがわかるでしょう。では、最新の洞察とは何でしょうか。
さて、ここにあります。論文「Rama、大規模言語モデルを解釈するための統一推論多様体フレームワーク」です。これは本当に美しいと言えるでしょう。著者たちは、LLMがどのように複雑な推論を実行するか、特にその失敗メカニズムを理解することは課題であり、特に解釈可能なAIを実現したい場合には重要だと述べています。
測定可能な幾何学的分析の視点を提供するために、彼らは推論多様体というアイデアをさらに詳しく展開しています。これは単純に、すべての正しい推論生成に対応する内部LLM固有の表現によって形成された潜在的な低次元幾何構造です。ご覧のとおり、かなりシンプルなアイデアです。正しい推論はあるのですが、トランスフォーマーの層におけるテンソル構造を見れば、この高次元活性化空間でのランダムウォークではありません。
むしろ、構造化された旅となり、驚くべきことに低次元の高速道路に沿って進むのです。核心となるアイデアは、任意のタスクに対して、LLMの正しい推論プロセス中に生成される隠れ状態のすべての内部表現が、新しい幾何学的数学的構造を形成するということです。これは埋め込まれた低次元空間内にあり、これが推論多様体であり、トランスフォーマーアーキテクチャの各層における高次元活性化空間内に埋め込まれています。
これは、LLMが学習したすべての有効な正しいプロセスの集合体のゴールデンパスと考えることができます。真の多様体は未知であるため、もちろん正しい表現の点群によって近似されます。では、これに取り組んでいきましょう。
研究者たちが見た2つのステップがあります。これは、AI推論の失敗モードを高次数学空間における幾何学的偏差として定量化し、その後、物事がうまくいかなくなる分岐点を局所化することです。そして、推論プロセスがどこで逸脱するかを正確に分析する顕微鏡があるのです。
彼らがポイントAで行ったことは、失敗を幾何学的偏差として定量化することです。とても簡単です。とてもシンプルです。彼らは偏差距離を計算するだけです。必要であれば、行列空間ユークリッド距離を使用して、正しい表現のセット内のk最近傍との距離を計算できます。ベースラインがあります。平均内部距離を計算します。
シンプルです。そして、これがあるので、分岐点を探すことができます。幾何学空間における表現偏差が統計的に異常になる箇所を探せばよいのです。美しいですね。
Ramaが行うこと、つまりこの推論多様体は、LLMの抽象的な推論失敗を表現における測定可能な幾何学的偏差に結び付け、内部計算プロセスの深い理解、特に診断のための新しい道を提供してくれます。
これはシンプルだと思うかもしれません。実際には、それほどシンプルではありません。なぜなら、これは集中的な数学的知識の上に構築されているからです。これを学びたい場合は、この論文「多様体仮説のテスト」をお勧めします。2013年のものですが、これは不可欠です。
彼らはここで、高次元データが低次元多様体の近傍に存在する傾向があるという仮説について述べています。これが多様体学習の基礎です。これは、分離可能なヒルベルト空間でサポートされる確率分布に適合する多様体の存在をテストするためのアルゴリズムを開発するためのものです。
では、私たちは何をしているのでしょうか。Ramaのこの新しいアイデアは、機械学習から広く認識されている多様体仮説、2013年の引用符付きですが、その自然な拡張であると言っています。これをLLM推論のプロセスに適用します。推論プロセスに適用することで、正しい推論トレースの抽象的な表記を、分析可能な幾何学的オブジェクトに変換できるはずです。
これは美しくないですか。AI システムのソースを、トランスフォーマーの層のテンソル構造における活性化パターンの抽象的な見方としてではなく、幾何学的オブジェクトとして分析できるようになりました。
繰り返しになりますが、それほど簡単ではありません。Joshua Abenioによる2014年4月の表現学習に関する2番目の論文を読むと、多様体仮説は、意味のあるデータビジョンが高次元空間に埋め込まれた低次元多様体に限定されることが多いと仮定しています。これは思ったほど簡単ではありません。ディープラーニング、ボルツマンマシン、オートエンコーダーがあります。これを見て、3番目の論文を読む必要があります。
これは2021年4月の画像の固有次元とその学習への影響についてです。メリーランド大学とテキサス大学オースティン校です。彼らは、特に画像、自然画像について定義しています。低次元構造を示す画像は、特定のタスク中の活性化の固有次元を持つと述べています。
思考が起こっている固有次元は、利用可能なすべての数学的空間よりも大幅に低いと述べています。そして、2024年2月の大規模言語モデル幾何学の情報を読むと、数学部門、清華大学、上海交通大学であることがわかります。なぜ私がこの論文を愛しているかというと、表現エントロピーの分析が情報理論とLLM幾何学を結び付け、エントロピーをモデルサイズに関連付けることでスケーリング損失を探求しているからです。
ご覧のとおり、私たちは皆、幾何学的解釈に関わっています。では、この新しい研究の結果を見てみましょう。これは10年以上前に始まった研究の継続に過ぎません。今、私たちはこれに基づいて構築でき、著者たちはこれに基づいて構築し、ここに結果があります。
X軸には、特定のLLMの後のレイヤーIDがあります。最初にはQNがあり、2行目にはllama 3.2があります。すべての結果は同じことを示しています。すべての固有次元が元の隠れ空間次元よりも大幅に低いことを示しています。固有次元は6、8、10、12、14です。
そして今のところ、正しい推論か不正確でエラーのある推論パスかは、推論トレースにおいて実際には重要ではありません。単純化して見ると、思考は完全な隠れ空間次元ではない数学的空間で起こっています。それは非常に小さな低次元数学空間で行われています。ここに固有次元があります。
相互情報量は、ご覧のとおり初期層で比較的高く、トランスフォーマーアーキテクチャの層構造を深く進むにつれて徐々に減少します。これは非常に興味深いことです。なぜでしょうか。
これは、私たちが見ているLLMの内部推論プロセス、成功したものと失敗したものの両方が、今のところ区別せずに、低次元部分空間内で動作する傾向があるという強力な証拠を提供するからです。複雑さは大幅に減少します。なぜなら、4000次元の数学的空間を見る必要はなく、推論が行われている本当に小さな低次元部分空間を見ればよいからです。
これにより、多様体分析を使用する根拠が検証されました。2013年に始まった10年前の論文です。私たちの最新LLMの正しいプロセスを分析するための正しい方法、正しい根拠であることが検証されたのです。
実際に介入するために、失敗が見られたら何かを変えたいので、システムを最適化してLLMを改善したいのです。そのためには、より望ましい幾何学的特性を持つ推論多様体を学習するようモデルを促す、新しい正則化項を設計することです。あるいは、クールバック・ライブラー発散項について考える場合、この部分空間での複雑さを考慮します。
偏差している表現を学習済みの推論多様体にプルバックし、エラーを修正して最小化する技術を使用することです。学習プロセスを幾何学的問題、高次元数学空間における形状問題に変換し、これがモデルパフォーマンスをさらに改善する方法になる可能性があるという、なんと美しい新しいアイデアでしょう。
しかし、これは論文1に過ぎません。論文2を見てみましょう。そして、多様体表現からグラフ表現に移ります。もちろん、これは幾何学版と関係があります。これが私がこれを選んだ理由です。
エージェント推論グラフによる分析
ここにUC BerkeleyとNVIDIAからの著者がいます。2025年9月26日、彼らはGSMエージェントを持っています。制御可能な環境を使用してエージェント推論を理解します。
彼らが話しているのは、NVIDIAとUC Berkeleyで、エージェント推論パターンを分析したいということです。これらの推論パターンとは何でしょうか。どこにありますか。それらに何が起こっているのでしょうか。それらを見たいのです。
彼らはエージェント推論グラフという概念を提案しています。彼らも他の研究については何も知りませんでした。これは、それらに共通点があるため、私が研究を選択したからです。彼らはグラフ表現に進みます。環境ドキュメント埋め込みのクラスターをノードにし、各ツール呼び出しを最も近いノードにマッピングして推論パスを構築します。なんと天才的なアイデアでしょう。シンプルですが効率的です。
彼らは、LLMが現在、メモリとツール呼び出し機能を備えた純粋なエージェントとしてますます展開されていると述べています。エージェントとして展開されるLLM、エージェント推論です。これは、ツール使用、特にここでの検索と推論能力を組み合わせる能力が重要になることを意味します。
彼らは、これのために特別に新しいベンチマーク、GSMエージェントという新しいベンチマークを開発しました。このベンチマークでは、エージェントは単純な推論問題を解決する必要がありますが、前提なしにプロンプトで質問のみが提示されます。したがって、推論プロセスのためにツールを使用して情報を積極的に収集する必要があります。
これは、高い複雑さが低い複雑さに削減されるようなものですが、今では質問とツールを使用する能力のみを提供すると言っています。したがって、タスクを解決するために必要なすべての情報を見つける必要があります。彼らはここで非常に古い友人、何年も前から知っているベンチマークでこれを行いました。
彼らは、これを数学的な方法でテストしましょうと言っています。優れた評価は質問のみを見て、4つのツールを使用します。検索ツールと次のページツールがあります。これだけです。これ以上簡単にはなりません。
彼らはデータセットの構築を始めました。既知のベンチマークを使用し、データ処理は次のようになると言っています。これが質問であることを理解し、これを解決するための前提があり、必要なすべてのドキュメントがあります。
もちろん、彼らは人間の手でこれを行ったのではなく、Claude 3.5 SonnetをデフォルトのLLMとして使用して、このデータ処理とデータ前処理を促進しました。ちなみに、最新のSonnet 4.5のパフォーマンスを見たい場合、その推論が大きな欠陥を露呈していることがわかります。私の最新ビデオをご覧ください。
NVIDIAからの結果はどうだったでしょうか。彼らは、GPT-4.5のようなフロンティアモデルはエージェント推論を行う際に絶対精度で約33%を失うのに対し、古いDeepSeekバージョン3のような一部のモデルは精度で最大80%を失うと述べています。エージェント推論で何かが大規模にうまくいっていません。
何が起こっているのでしょうか。そして彼らは、静的推論とエージェント推論の間には明確で一貫したギャップがあることを結果が示していると述べています。パラメータを変更でき、GPT-4.5でさえもエージェント推論の失敗の根本原因を実際に分離できる、明確に定義された制御可能な環境において。
GPT-4.5は完璧だと言うでしょう。OpenAIのすべてのマーケティング資料はGPT-4.5が完璧だと言っています。しかし、現実へようこそ。
トポロジー的理解への深化
このステップを進み、著者が何をしているかを理解するには、別の論文を読む必要があります。東京大学とGoogle DeepMindによるこの論文をお勧めします。これは2025年6月の推論のトポロジーに関するものです。これらの論文の複雑さは非常に高いです。
それらは非常に絡み合っているため、時々このウサギの穴を降りて、推論のトポロジーも理解する必要があります。推論グラフのプロパティを通じて大規模推論モデルを理解します。これはすでに探求されており、構築できる結果がすでにあるからです。
この6月の論文、もう何ヶ月も前ですが、彼らは推論グラフの概念を導入しました。これが最新の出版物で使用するものです。推論グラフは、各推論ステップで隠れ状態表現をクラスタリングすることによって抽出されます。これはすでにご存知でしょう。
そして、3つの主要なグラフ理論的特性を体系的に分析します。環状性、直径、スモールワールド指数です。これを本当に古いベンチマークで行います。絶対的に馴染みのあるベンチマークです。
質問、ベースモデル、推論モデルがあり、ここに推論グラフの構築者があります。さらに、この論文にはグラフ上の強化推論のグラフ理論的分析があります。彼らは、LLMから推論グラフを抽出する方法を正確に示しています。
異なる層と推論ステップがある場合です。深く掘り下げることに興味がある場合は、この論文を強くお勧めします。しかし、最新の論文の結果は何でしょうか。これをすべて知っていて、これらすべての技術に精通している場合、最新の洞察は何でしょうか。
ここに数値結果があります。より良い視覚化はありますか。はい、もちろんです。どうぞ。X軸の対数には、システムがタスクを解決するために必要なツール呼び出しの数と精度があります。ゼロから60%、おそらく70%まで行きます。
GPT-4.5、llama 4は20%でほぼフラットです。これはツール呼び出しを使用したモデルの推論パフォーマンスです。そして、私が同じ質問を持っていたので知っていますが、1つの質問があります。
llama 4からGPT-4.5まで、このような単純な環境で動作しているにもかかわらず、モデル間でパフォーマンスにこれほど大きな違いを引き起こすものは何でしょうか。すべてのモデルが95%の精度に達しないのはどうしてでしょうか。
なぜ20%未満で止まっているのでしょうか。何が起こっているのでしょうか。彼らは、このエージェント推論グラフを構築して、何が起こっているかを理解するための数学的ツールを持とうと言いました。
これがこの論文の中核的な分析革新であると述べています。エージェントの検索戦略を理解したいからです。それをグラフ表現に抽象化します。さらに進めない場合は、この問題を見る別の視点、別の方法を見つけられるかどうかを考えるだけです。彼らはグラフ表現と言います。
ノードとは何でしょうか。データベース内のドキュメントは埋め込まれ、埋め込みはK平均法を使用してクラスタリングされます。美しいですね。そして、パスがあります。エージェントによって行われた各ツール呼び出しは、最も近いノードにマッピングされます。
埋め込み空間にクラスタセントロイドがあり、ツール呼び出しのシーケンスがあります。したがって、このグラフ上に離散パスがあります。これ以上簡単にはなりません。
そして今、彼らは、少なくとも強化学習から知っていると言っています。エージェントの特定の動作があります。これは、すべての新しい可能性の探索と、既知の事実と既知の正しい経路の活用との間の非常に微妙なバランスに関するものです。
これは本当に全く新しいものです。彼らは、リビジット(revisit)という新しいものを発見しました。これは、どこか他の場所に行った後、以前に訪れたノードに戻ることです。推論ベースに戻る必要があり、これは私が聞いたことのないものです。
彼らは、論文全体の主要な経験的発見は、リビジット比率と全体的なタスク精度の間に強い正の相関があり、他のすべてのパターンは弱いまたは負の相関を示すということです。
推論プロセスで、彼らは、これを行い、新しいグラフ表現を構築し、既知の探索と既知の活用があると、新しい要素があり、これがあなたの論理推論ベースをリビジットし、ベースに戻り、それから外に出て新しい情報を求めることです。
著者たちは、新しい情報を統合し、それから意識的に以前のコンテキストに戻ってそれを再評価する能力が、成功したエージェント推論の特徴であると述べています。これが彼らがこの研究で見つけた主な洞察です。ベースに戻らなければなりません。
強化学習の動態分析
3番目の論文、3つの論文がどのように関連しているかの要約を行いますが、まず論文3を見なければなりません。論文3はMicrosoft、清華大学、ハーバード大学、南カリフォルニア大学からのもので、これも別のグラフ表現です。
しかし今、私たちは言語モデル計画のための強化学習の利点と落とし穴について学びます。彼らは、2025年9月末の現在の形式での強化学習メカニズムの利点と限界を、グラフベースの抽象化のレンズを通して調査し、方策勾配とQ学習の方法論に焦点を当てていると述べています。
彼らは、この2つの間には大きな違いがあり、正しい方法論を選択する方が良いと述べています。これを見てみましょう。彼らは、人間にとって、まず計画を立てることが非常に重要であると述べています。
これは、数学的証明のような複雑なソリューションを策定し、タスクを整理するための基本的な認知構造です。人間にとって、そして彼らはAIシステムは人間と同じことをしているのか、私たちはどこにいるのかと言います。
彼らは、最近の成功にもかかわらず、計画タスクにおける教師あり微調整に対する強化学習の利点の理論的基盤、そして彼らは計画のみに焦点を当てていることが重要ですが、現在の強化学習手法の限界は確立されていないと述べています。
彼らは、私たちがこれを行うと述べています。真の理解、真の理論的基盤を構築します。計画段階における教師あり微調整の基本的な限界を見て、方策勾配を見る強化ベースの学習ダイナミクスの動作に焦点を当て、Q学習を分析します。
主要な文があり、この論文の数学的分析を読んでください。自分で論文を読んでください。本当に美しい論文です。学習ダイナミクスの数学的分析は、実践で観察される現象に光を当てます。
教師あり微調整は記憶する傾向がありますが、強化学習はここで汎化を促進します。そして、方策勾配法は多様性崩壊に苦しむことがよくあります。これについてはすぐに説明します。
解決策は、クールバックライブラリ正則化であり、精度の低下というコストはありますが、多様性の低下を緩和するのに役立ちます。これを知っています。何が新しいのでしょうか。
多様性崩壊現象に焦点を当てると、これは単にモデル出力の多様性がトレーニング全体を通じて着実に低下し、100%のトレーニング精度を達成した後も減少し続けることを意味します。
何かが大規模にうまくいっていないと思うかもしれませんが、方策勾配の公式を知っています。はい、もちろんです。Q学習もここにあります。Q学習について5つのビデオがあると思います。では、この新しいものは何でしょうか。
トレーニングデータセット内のコアの発生関係をここに記憶する微調整です。それから、パス計画能力のために方策勾配を見てみましょう。2017年のPPOやTRPOなど、何を使っても、クールバックライブラー正則化なしで方策勾配の収束がありますが、方策勾配の多様性崩壊があります。
これが本当の主要な問題であり、この多様性モデル崩壊現象は、新しい未見のデータへのモデルの汎化能力を損なう可能性があります。これをここで見たい場合、テスト精度、トレーニング精度、そして出力精度、出力多様性が低下し、ここでクールバックライブラー発散の影響を見ることができます。
素晴らしいです。彼らが言うことは、ここで100%の精度を達成した後でも、方策勾配のトレーニングダイナミクスは、確率分布を単一のワンホットベクトルに向かって押し続けるということです。
これは、推論プロセスにおいて、大規模推論モデルが各問題に対して1つの正しいパスを見つけ、それを過度に最適化し、より良い可能性のある代替ソリューションを生成するLLMの能力を失うことを意味します。LLM推論全体が脆弱になります。
私の最新ビデオで、Sonnet 4.5の推論がいくつかの主要な欠陥を露呈している様子を美しく示しています。これが起こっているのです。ワンホットベクトルに収束します。正しいパスを見つけます。それは不正確なパスですが、気にしません。
これがSonnet 4.5が見つけるすべてです。そして、それを過度に最適化します。このパスを1回、2回目、最大5回、同じ単一のパスを追加します。推論の多様性がありません。これがSonnet 4.5の主要な欠陥です。私の新しいビデオでそれを明確に見ることができます。
興味深いことに、これら2つのことが一緒になりますが、より良いモデルを見つけるためのソリューションが必要です。では、著者たちは、LLMの計画段階におけるQ学習メカニズムを2つの異なる報酬設計の下で分析すると述べています。
そして、これが結果ですが、ステップごとのプロセス報酬が全体のプロセスの収束を可能にし、結果ソリューションの多様性を保持することを示しており、これはポリシーサンプリングの下でも有効なままです。一方、異なる結果報酬の設計を使用すると、システム全体が自明なソリューションに崩壊します。
Sonnet 4.5について私が述べたことを思い出してください。結果報酬は自明なソリューションに崩壊し、失敗します。したがって、著者たちは、方策勾配法と比較して、どこでもほとんど使用されていないQ学習は、オフポリシーで動作でき、出力の多様性をより良く維持できると結論付けています。なんと素晴らしい洞察でしょう。私たちはこれを使用します。
ご覧のとおり、これがこのビデオでこれら3つのビデオを選んだ理由です。それらも一緒に機能します。なぜなら、ここで推論の状態を説明し、ここで推論のプロセスを説明し、ここでAI推論の学習ダイナミクスを説明しているからです。
UC Berkeley、NVIDIA、Microsoft、清華大学、ハーバード大学に感謝します。あなたが想像できる他のすべての視点から、それを異なる視点で見ることができます。AIの楽しみです。幾何学的に見てください、生物学的に見てください、好きなものは何でも見てください。変換し、マッピングしてください。実行できるアクションが非常に多くあります。
最初の論文Ramaは、認知の静的状態を調べます。2番目の論文は、認知のプロセスを調べます。最後の強化学習論文は、認知の学習ダイナミクスを調べます。あるいは、学習ダイナミクスが内部状態空間を形成し、それがエージェントが成功した推論プロセスを実行する能力を決定すると見ることもできます。
そして突然、3つの論文すべてが接続されます。これらの論文を読んでいて、突然どこかであなたの脳の小さな声が、ちょっと待って、これらすべての論文、そうですか。より深いレベルでつながりがあります。この文のように。これが美しさです。AI研究を行うと、発見されるのを待っているものがたくさんあります。
統合的洞察と実践的応用
では、主な洞察は何でしょうか。これを行いましょう。洞察1、推論の幾何学は行動の幾何学にまで拡張されます。多様性崩壊は、エージェント自体における堅牢な推論の敵です。そして、診断、説明、介入のための統一されたフレームワークが、これら3つの論文の中に隠されています。
これら3つのフレームワークを強力なサイクルに組み合わせると、タスクがエージェントが特定のタスクで失敗すると仮定しましょう。素晴らしいです。新しい洞察、新しい知識で今できることは、エージェントがなぜ失敗するのか、どのように失敗するエージェントを修正するのかに対する答えを持っています。これを見てみましょう。
何がどこで。今できることは、エージェント推論グラフの軌跡を分析することです。重要な情報を見つけられなかったのでしょうか。新しいコンテキストを取得した後、ノードをリビジットできなかったのでしょうか。これらは確かに理解において重要な質問です。
Ramaを使用して、その失敗した行動軌跡に対応する内部状態を分析できます。必要であれば、これらの表現が正しい推論の多様体から最初に大きく逸脱した正確な層を特定することさえできます。これは低次元部分空間だからです。これはなんと美しいのでしょうか。
理由について説明しましょう。今、このモデルは教師あり微調整で訓練されたのかと尋ねることができます。なぜなら、その場合、失敗は記憶できなかった分布外パスによるものである可能性が高いからです。
あるいは、方策勾配で訓練されたのかと尋ねることができます。なぜなら、その場合、失敗は多様性崩壊によって引き起こされた脆弱性に起因する可能性があるからです。予期しない状態に遭遇し、回復できませんでした。なぜなら、そのポリシーが狭すぎたからです。新しい戦略がありませんでした。常に同じソリューションに戻り、それを適用し、単一のソリューションの穴に落ちました。
それから、どのように修正するかという美しさがあり、これが私がこのビデオを作成する理由です。これから何を学ぶことができるでしょうか。では、どのように修正できるでしょうか。ここでの特定の診断は治療法も指示します。
問題がLLMの推論トレースにおけるリビジットスキルの欠如である場合、GSMエージェントの論文に触発されて、このパターンが重要であることを明示的に示す微調整データのプロンプトを設計します。
あるいは、根本原因が多様性崩壊である場合、プロセス報酬を伴う強化学習におけるQ学習パラダイムに切り替えることで、より基本的に堅牢で多様なモデルを構築できることを示唆しています。
ご覧のとおり、幾何学的、エージェント的、そして強化学習の理論的レンズを組み合わせることで、失敗モードと失敗症状を観察することから、病気を診断し、さらにはこれに対する原則的な治療法を処方することに移行します。私はこの統合的な視点が大好きです。
10本、20本の論文を読んで、どこかにつながりがあると感じ始めるとき、これがAIの美しさです。今日のこのようなビデオ、アイデアのようなものが、より知的で、より信頼性が高く、真に理解可能なAIシステムを構築したいという願望を刺激するかもしれません。
これについて話しているだけで、ビデオは終わりましたが、考え続けましょう。なぜなら、この推論多様体は内部数学的構造ではないからです。エージェントにとって、GMS エージェントで説明されている正しいアクションのシーケンスは、この新しいパラダイムでアクション多様体として見ることもできます。
したがって、失敗はもはや低次元多様体から逸脱する内部表現だけではありません。なぜなら、わかりました。このアイデアはお分かりいただけたと思います。これに基づいて構築してください。より良くなってください。AIを楽しんでください。考えることは素晴らしいです。もちろん、登録していただければ、次のビデオでお会いしましょう。


コメント