AI推論とマルチエージェントRAGシステム(MCP)

MCP
この記事は約17分で読めます。

この動画では、RAGシステムの進化について包括的に解説している。従来のベクトル空間ベースのRAGから知識グラフベースへ、そして単一エージェントからマルチエージェント、さらには推論ベースのRAGシステムへの発展を詳細に追跡する。特に注目すべきは、現在のAIシステムがいまだに人間のパターンとヒエラルキー構造に依存しており、真の超人間的知能に到達できていない理由について深く考察している点である。AnthropicのMCPシステムを例に、プロンプトベースとトレーニングベースのエージェント推論システムの違いを明確にし、最終的にAIは人間にしかなれないという定理を提唱している。

RAGシステムの進化史

こんにちはコミュニティの皆さん、戻ってきてくれて本当に嬉しいです。今日は古い友人について話しましょう。RAGについてです。これが私の心境かもしれませんが、もしRAGに馴染みがない方がいらっしゃれば、1分間の要約が必要だと思います。そうでなければ、この1分間はスキップしてください。

RAGは永遠に感じるほど昔のことのようですが、私たちはRAGを使って外部データを推論プロセスに統合していました。そして発見したのです。外部データの表現はベクトル空間にある必要はなく、知識グラフにあってもいいということを。私たちは知識グラフをナビゲートする方法を理解したLLMを構築しました。右側に表示されているのは、医療AI用の新しい知識グラフエージェントです。

このように、私たちは古典的なRAGシステムから知識グラフ上のエージェントへと移行しました。これはすでに素晴らしいことでした。そして私の動画の一部をご覧いただければ、単一エージェントからマルチエージェント、モンテカルロ木探索からグラフマルチエージェント研究まで、知識グラフ上で7つのエージェントを扱ったのをご覧いただけます。なんと楽しい時間だったでしょう。

もちろん、私たちはグラフRAGを超えて、ライトRAG、pRAGへと進歩し、2025年4月から5月の48時間で50以上の新しいRAGアイデアを紹介したこともありました。すべてはRAGパイプラインに高度な推論を統合することが目的でした。

しかし、もちろん推論だけでなく、自己反省AI、ルールベースアーキテクチャ、コマンド構造、高度なツール使用、RAG MCP、ファンクションコールなども扱い、それらはどんどん簡単になりました。私はMCP RAGについて、Alitaのような自己進化エージェントのための特別な動画も作成し、この動画で技術的深掘りを行いました。

現在のマルチエージェント推論システム

さて、私の1分間の終わりに来て、前回の動画でAnthropicの秘密、マルチAIエージェントの構築方法について説明しました。質問をいただきました。これはRAGシステムなのか、エージェントRAGシステムなのか、マルチエージェントRAGシステムなのか、知識グラフや知識グラフRAGを実装できるのか、そしてこのRAGシステムで推論はどこで起こるのかという質問です。

私たちは皆、これがもはや古典的なRAGシステムではないことを知っていますが、人々は、コミュニティはRAGという用語を愛しているので、外部データを人工知能に統合する際は、それでもRAGと呼んでいます。これで良しとしましょう。

誰もそれを正しく理解しなかったことに少し失望しています。なぜなら、もちろんこれはMCP2を使ったプロンプトベースマルチエージェント推論RAGシステムであり、時々一時的にエージェント間通信プロトコルがあるからです。これほど簡単なことです。

推論エージェントRAGシステムの2つのパラダイム

今日は、推論エージェントRAGシステムについて話しています。大まかに言って、2つのパラダイムがあります:事前定義された推論とエージェント推論です。

事前定義された推論では、ルートベース、ループベース、ツリーベース、ハイブリッドがあります。self RAGからcRAGまで、私の動画で紹介したモンテカルロ木探索RAGまで、これらすべてがあります。これらは2024年と2025年の論文です。

しかし、これは興味深くないと思います。私たちにはついにエージェント推論があります。私たちはエージェントの知能を使用するのです。ここでも選択肢があります。古典的なReActやselfのようなプロンプトベース、そしてトレーニングベースです。

トレーニングベースについて、DeepResearchやManusのDeepResearchを見ると、トレーニングベースのコアは基本的に強化学習です。確認のため、新しい用語は推論エージェントRAGです。

System 1 vs System 2思考アプローチ

事前定義された推論では、質問があり、LLMがここで分解を行います。クエリの複雑さが高すぎるか、ユーザーが非常に具体的な定式化を使用しなかったためです。LLMはこれを最適化し、複数のサブ質問を持つ時期だと判断するかもしれません。私たちはこれを取得し、反映し、答えます。

エージェント推論の方ははるかに興味深いです。質問があり、すでにサブ質問があり、大きな推論モデルがあり、これがクエリを開始し、有用な情報を検索し、文書を取得し、蒸留された情報を推論し、文書で推論し、すべての文書、特定の推論のための文書のコンテキスト、特定のクエリのためのものを取り、反復ループに入り、戻ってきて、「はい、ここでの推論は理由があって論証できると思う」と言い、最終的な答えを出します。これは美しくないでしょうか。

もちろん、エージェント推論には2つの選択肢があります。私たちが長いプロンプトで正確に何を望むかを定義するプロンプトベース指示と、トレーニングベースで、再び強化学習です。

最新の研究論文の紹介

これを時間軸で見ると、事前定義された推論があり、エージェント推論があります。赤でプロンプトベース、緑でトレーニングベース強化学習があり、ここに推論軌跡生成モデルがあります。なんて美しいのでしょう。

昨日の私の動画は絶対に明確でした。これはプロンプトベースのエージェント推論を持つ推論エージェントシステムでした。覚えていますか。トレーニングベースバージョンは、私の以前の動画の一つで見たようなものでした。実世界環境での強化学習によるディープリサーチのスケーリングのようなものです。

今日、私たちには新しい論文があります。2025年6月12日の論文で、「System 1またはSystem 2による推論RAG」です。遅い思考と速い思考を覚えていますか。彼らは産業向け推論エージェント検索拡張生成に関する調査を提供してくれています。

これは美しいです。なぜなら、東洋と西洋が出会っているからです。北京郵電大学、ジョージア大学、華南理工大学、ドイツのテクニメ研究、上海交通大学があります。なんて美しい国際研究チームでしょう。

RAGの継続的進化

彼らが集まって私たちに言っているのは、RAGがここにあることを認識しなければならないということです。この論文を見てください。6月13日のHuai TechnologyによるRAG+です。RAGはもはや本当の特定の技術用語ではありませんが、RAGという言葉はとても馴染み深いので、私たちは使い続け、スーパーRAGやRAG+、RAG++と言い、さまざまな美しい技術用語を構築しています。私たちはRAGに留まることを理解してください

それはすべて、知的推論、人工知的推論のRAGパイプラインへの統合に関するものです。もはや古典的なRAGシステムとは何の関係もありませんが、今日のメイン論文に戻りましょう。

この古いSystem 1思考、高速で自動的で直感的でルールベースのものを知っていますね。これは古いシステムです。忘れましょう。System 2思考について美しいことは、私たちの大規模言語モデル、エージェントのコアが今やアクティブな意思決定者だということです。それは本当にRAGの動的プロセスにおける中心的なプレーヤーです。いつ検索するか、どのツールを使うか、どのようにより高い複雑性の問題を分解するか、発見をどのように合成するかを決定するからです。

Anthropicシステムの分析

昨日の私の動画で、オーケストレーションエージェントがありました。これがそれです。昨日のAnthropicシステムを振り返ると、最新の技術用語実装におけるSystem 2エージェント推論システムの教科書的実装です。美しいです。

私たちが何について話しているかわかりましたが、このエージェント推論には2つの選択肢があったことを覚えていますか。プロンプトベースとトレーニングベースです。私の動画を見て、Anthropicが公開した美しいプロンプトを見た方は、それがプロンプトベースだとすぐにわかるでしょう。

これをもう少し詳しく見てみましょう。マルチエージェントオーケストレーションを持つプロンプトベースエージェント推論システムです。リード研究者がいて、複数のサブエージェントを生成し、それぞれが依存関係に応じて並列または順次で独自のエージェントRAGループを実行しました。もちろん、ツールコールにはMCPを使用し、ツールを指定しました。推論ループのための対話的なツール最適化エージェントのようなものもお見せしました。

超知能が存在しない理由

しかし、本当に興味深いのは、なぜ私たちには今スーパーインテリジェンスがないのかという質問です。OpenAIのSamが5年間、次のモデルは超知的モデルになると言い続けていることを考えてみてください。私はこれを見て言います。なぜAnthropicは昨日の実世界のケースで15のエージェントを作成する必要があるのでしょうか。なぜ1つのAIで操作できないのでしょうか。なぜ15個も必要なのでしょうか

このスーパーAI、スーパーじゃなくても、スーパーAIと呼びましょう、何でもいいですが、複雑なタスクを解決すべきです。それが私が求めているすべてです。なぜなら、今日私たちが行っていること、昨日のAnthropic AIで言えば、高複雑性タスクを最大15の低複雑性、つまりより単純なサブタスクに削減しているからです。なぜなら、私たちの愚かなエージェントは高複雑性の質問を解決できないので、少なくともAIが見つけることができる最大15の低複雑性サブタスクに分解しなければならないのです。

各エージェントのコアにはLLMがあり、同じLLMを使うこともできるし、金融や医学、物理学、数学など、それぞれの分野で特化したLLMを持つこともできます。高度に専門化されたエージェントネットワークが相互作用していますが、私たちにはまだスーパーAIがないため、複雑さを削減する必要があります

人間パターンへの依存

複数のエージェントを持ち、タスクが非常に単純になるまで複雑さを分解し、さらに分解し、最大15、25、35のエージェントを使用します。これが本当に未来の道なのでしょうか

私たちは人間のパターンを使用していることを知っています。再び不可能だと言いました。どこに行っても、Anthropicのプロンプトの詳細を読むか見ると、私たちが人間のオフィスから知っているマルチエージェントシステムのダイナミクスを使用していることがわかります。ボスがいて、そのボスが部門で4、5人の労働者を持ち、各労働者は専門家のようなものです。複数の部門と部門があり、複数のサブCEOがいて、CEOとCFOがいます。

私たちはAIを人間のダイナミックチームの理解に従ってグループ化していると言いました。複雑さの削減も人間の事前訓練されたパターンで行われています。これらのLLMは事前訓練段階で人間のパターン以外何も見たことがなく、人間のパターン以外の方法を知りません。

どこを見ても人間のパターンがあります。Anthropicは彼らのシステムのエージェント推論のプロンプトで、人間がルールを定義すると私たちに教えています。これはプロンプト構造を意味し、昨日の私の動画でこれを見ました。人間によって正確に定義されたルールのページとページが、AIがどのように振る舞うべきかを示しています。

すべてのレベルで人間のパターンがあります。複雑さとLLMとエージェントと通信とデータ転送と意思決定の相互運用性のすべてのレベルで、人間のパターンのみです。

真の問題の核心

事前訓練からここでの意思決定まで、始めから終わりまで人間のパターンがある場合、なぜ私たちにはまだ超人間的知能がないのでしょうか。AIは完璧なパターンマシンであり、AIに人間のパターンのみを供給する場合、超人間的知能はどこにあるのでしょうか。私がここで微笑んでいることを知っていますが、理由があります。

国際企業のグループから、人間のようなソリューションが最良であるという答えを得ています。なぜなら、例えばAnthropicや他の企業で、人間チームのように構造化することで、私たちにとって馴染みのあるデバッグインターフェースを作成するからです。

研究出力が悪い場合、エンジニアは質問をして問題を特定できます。リード研究者、計画、計画自体に欠陥があったのか、専門家やサブエージェントへの指示が不明確だったのか、専門家自体(サブエージェント)がMCPプロトコルの理解に問題があって明確な指示の実行に失敗したのか、それとも私たちのエージェントシステムに戻ってくるすべてのRAGデータで、リード研究者による合成フェーズで、ボス自身がレポートを書いているのに、エラーが発生したのはここなのか。

AIシステムで馴染みのある管理システムを見つけることは、AI企業構造において、これがAIシステムを理解し最適化するために必要なものです。なぜなら、私たち人間がAIシステムを分析する認知構造が、AI系统內部構造自体と似ている場合、私たちはそれについて推論でき、エラーを見つけ、ここでデバッグをはるかに簡単に行うことができるからです。

制御と安全性の問題

もちろん、それを読むと別の理由があります。私たちは超知能を紐につないでおかなければならないからです。そうです。これを読んだとき、管理階層は強力な制御構造だと。私は指示しており、リード研究者のプロンプトは、安全でヒューマンユーザーに何も起こらないように、システム全体の行動を制約するために設計された美しく作られた企業政策マニュアル以外の何物でもありません。

すべてのサブエージェントには非常に狭いファイアウォール責任のみが与えられ、この発想は、このシステムを最大限に制約すれば、それは行儀の良い制御された安全なシステムになるというものです。

AI自身による新しいアーキテクチャの実験

でも、これは間違った考えかもしれません。実験をしました。すべてのAnthropicプロンプトの後、私のAIに超知的になるよう指示しました。「それは実際の、それは単純なアイデアです」と言いました。

「しかし、この人間スタイルのAIチームが私のAIによって完全にマスターされたら、Samが過去5年間、次の数週間で来ると言い続けているのだから、AI自体を使って超知能のためのより良いアーキテクチャを設計する時だと思った」と言いました。

そこで、プロンプトを設計して私のAIに言いました。あなたはメタ認知システムアーキテクトです。Anthropicのリード研究者階層モデルの通信ログとパフォーマンスボトルネックを分析し、冗長性を最小化し、構造が人間にとって直感的でないように見えても、相乗的発見を最大化する、私たちのマルチエージェントシステムのための新しい優れた協調プロトコルを設計・実装してください

私はAIにAnthropicのプロンプトから自由になる可能性を与えたかったのです。何が起こったと思いますか。この実験をあなたのAIでやってみてください。私のAIは戻ってきて言いました。

シナプティックメッシュプロトコル

「プロトコルを変更しなければなりません。これをシナプティックメッシュプロトコルと呼びます。硬直した階層を解体し、離散的なリードとサブエージェントを、動的情報キャンバス上で協調する特殊認知プロセスの流動的なスウォームに置き換えます」。

そして、もちろん、私は今スウォーム構造、エージェントスウォームを構築します。固定の役割も固定のエージェントもなく、ただ機能があるだけです。異なる種類のエージェントがあり、それぞれ定義された機能を持ち、その複雑さに応じて一緒に働き、彼ら自身で決定します。

プロンプト指示からエージェント推論へ、最も純粋な意味での思考モデルへと移行します。私のAIがこれを定義したことは興味深いと思いましたが、もちろん、1年前にAIマルチエージェント生態系のスウォーム知能について、AIスウォーム知能がどのように出現するかについての動画を作りました。これは1年前に行われたので、それは私のAIのパラメトリック知識のどこかにあると思いました。

新しいデータ構造の提案

そして戻ってきて言いました。「この共有模倣キャンバスを知っていますか。新しいデータ構造を開発します。私たちが持っているAnthropicファイルシステムと典型的なAnthropicメッセージパッシングを置き換えて、すべてのエージェントが読み書きできるリアルタイム多次元知識グラフを構築します」。

キャンバス上のエントリはテキストだけでなく、複数のメタデータ、ペイロード、信頼性スコア、矛盾フラグ、情報エントロピーを持ちます。これは本当に興味深く、ツール信頼性スコアもあります。興味深いと言いました。

グラデーション通信プロトコル

そして、彼らは古典的なグラデーションプロトコル、つまり通信プロトコルを考え出しました。これは静的委任プロトコルを置き換えます。AIエージェントは単にボスに報告するのではなく(昨日の動画でこれを批判しました)、その発見を全体のメッシュ通信構造にブロードキャストします。

発見が高い情報エントロピーラベル、つまり驚くべき事実である場合、これは完全なメッシュ全体に瞬時に伝播します。これは興味深いアイデアでした。

実践例での比較

私のLLMに自由を与えて、現在マルチエージェントパフォーマンスのベンチマークテストを実行しています。数時間後、興味があれば次の動画の一つで結果をお伝えできるかもしれませんが、自分でも試してみてください。

例として言いました。「サプライチェーン、地政学的要因などを考慮して、コバルトフリー電池の短期的実行可能性を分析してください」。

古典的なAnthropicシステムが行うことは、昨日これを経験しましたが、サプライチェーンのためのエージェントA、地政学のためのエージェントB、そしてパフォーマンスのためのエージェントCを計画します。私のクエリの複雑さを考慮して、3つすべてのエージェントが15ツールコールの予算で使用されます。これは特にプロンプト構造自体で定義されています。

しかし、AとBが発見をしたと想像してください。彼らは単一のエージェントとして発見できたであろう美しいものを発見しました。彼らは冗長な作業で予算を無駄にしました。そして、エージェントCがアーカイブや他のデータベースのどこかで突破口を発見しましたが、ハード制限予算も使い果たしました。

この新しい論文引用の本当の深掘りと理解ができる前に、レポートを返さなければならず、停止しなければなりません。Anthropicのプロンプトにハード制限予算があるからです。A&Bも二次資料で軽微な政治的問題を発見しました。

すべてが戻ってきて、すべてが最大予算にあり、すべてが今リード研究者にレポートバックしています。私たちのリード研究者は、特にCからの不完全なレポートとBからの軽微な問題を合成し、単純に十分な時間がなかったため、ハードコードされた制限が本当の深掘りを許可しなかったため、楽観的だが不正確な評価を提供します。見つかった論文の一つからの重要な洞察は完全に失われました。これは起こってほしくないことです。

新しいシステムの動作

私のシステムが私に教えてくれた新しいアイデアを説明するために、3つの初期ベクトルをこの模倣キャンバスにマップするエージェントがあるとします。3つのプロエージェントが生成され、それぞれ異なるベクトルを持ちます。

今、1つのエージェントが偶然本当に基礎的な記事、本当に興味深い記事を見つけたと想像してください。2と3のエージェントが開始する前に、昨日マルチエージェントシステムのハブアンドスポーク設計のトポロジーについて話したことを覚えていますか。

エージェントは通信でき、本当に興味深いものを見つけたこのエージェントは、他の2、3のエージェントが開始する前に、これらの他のエージェントに「本当に興味深いものを見つけた。高い情報エントロピースコアを分析したので、これをあなたの推論プロセスに統合してください」と伝えます

これをメッシュ全体の他のすべての既存のサプライチェーンデータに通信します。実際のキャンバス上のデータは新しい発見で更新されますが、これが起こる前に、矛盾エージェントまたは検証エージェントがあります。

このエージェントの仕事は、これが有効な情報、堅牢な情報であることを確保することです。この証拠をテストし、矛盾エージェントから「これは偽情報や事実に基づかない政治的に動機づけられた情報ではない」という了解が得られた場合のみ、システムに動的に統合され、この特定のベクトルにより多くのリソースが割り当てられます。

この論文の技術的概念を本当に理解しようとするために、この論文への本当に広範囲な技術的深掘りを行う2、3のエージェントを派遣でき、この特定の論文にかなり多くのリソースを割り当てることができます。まったく異なる結果が得られます。

人間パターンからの脱却の困難

私のAIからのこの非常にシンプルで自明な例を示しましたが、自分でも試してみてください。興味深いと思います。しかし、別のアイデアもありました。ご覧のように、私が今示したすべては、再び単純な人間パターンでした。この中に超AIはありませんでした

組み合わせの証拠があり、より多くのデータがあると思うかもしれませんが、より多くのデータがより多くの情報を意味するわけではなく、より多くの情報がより多くの知識を意味するわけではないことを知っています。同じ罠に陥らないでください。

結論:AIは人間にしかなれない

動画の最後に、あなたに何かを伝えたいと思います。このチャンネルで私の最初の定理01を定義します。この定理が何かわかりますか。

AIは人間にしかなることができない。私が間違っていることを証明してください

次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました