この動画は、Emory大学とStanford大学が2025年7月に発表した研究論文を解説したものである。大規模言語モデル(LLM)、知識グラフ、マルチエージェントシステムを組み合わせることで、医療診断予測の精度を向上させる革新的なアプローチを紹介している。従来のLLMが抱える構造化された推論能力の不足、ハルシネーション、信頼性の問題を、3つのエージェント(リンクエージェント、検索エージェント、予測エージェント)と更新された知識グラフを組み合わせることで解決する手法が詳細に説明されている。

知識グラフとエージェントの最適な組み合わせ
皆さん、コミュニティの皆様、こんにちは。お帰りになって本当に素晴らしいです。2025年7月の今、皆さんは「最適な組み合わせとは何か」と尋ねます。大規模言語モデルの力と知識グラフの力、そして領域固有の知識を、どのように組み合わせることができるのでしょうか。そして、ここにマルチエージェントシステムの統合された力があります。
どのように組み合わせるのでしょうか。最良の知識とは何でしょうか。システムを本当に構築したい場合の、現在のAIにおけるベストプラクティスとは何でしょうか。
2025年7月3日にEmory大学とStanford大学による美しい新しい論文があり、それがどのように行われるかを素晴らしく示してくれています。彼らは「マルチエージェントアーキテクチャを通じてLLMベースの診断予測を改善する知識グラフ強化推論アプローチを行っている」と述べています。
つまり、必要なすべてのものが揃っています。知識グラフ、LLMベースの予測、そしてこれにマルチエージェントアーキテクチャを使用します。エージェントの複数のコア、複数のLLMを備えています。
「なぜ現在このように強力なLLMがあるのに」と言うかもしれませんが、EmoryとStanfordの研究者たちは次のように教えてくれます。LLMは依然として重大な課題に直面していると。LLMには構造化された医療推論能力が欠如している。つまり、LLMは人間の臨床意思決定と一致する方法で、医療概念間の関係を体系的に処理し推論することができません。LLMはハルシネーションの影響を受けやすく、これは高リスクの臨床環境において深刻な懸念を引き起こします。
さらに、彼らはLLMは時々予測において非常に役に立たないと述べており、信頼性と臨床適用性を確実にする必要があります。つまり、LLMには構造化された知識統合による外部指導が必要なのです。
これは医療だけの話ではありません。金融、物理学、エンジニアリング、お好きな分野に適用できます。これは一般的なレシピなのです。
構造化された知識統合の必要性
何が必要でしょうか。構造化された知識統合が必要であり、もちろん知識グラフについて考えることになります。なぜなら、ここには専用の領域知識があるからです。医療の場合、すぐに使える知識グラフを取ることができます。利用可能なIBKHは、様々な生物医学知識グラフからデータを統合し、11のカテゴリにわたって約240万のエンティティを持っています。薬物、疾患、症状、遺伝子、数百万の関係トリプルがあります。これは素晴らしいスタート方法です。基本的な情報がたくさん利用可能です。
この論文を見つけて、あ、これは2023年のものだと気づくでしょう。つまり、最新の研究データや最新の分子化合物、最新の関係などが含まれていない可能性があります。
では、どうするのでしょうか。知識グラフを更新することができます。まったく問題ありません。簡単に始めて、シンプルに説明するよう求められました。少し挑戦的ですが、最善を尽くします。
トランスフォーマーアーキテクチャの活用
膨大な医療テキスト、すべての医療教科書、すべての最新医療論文から始めます。金融であれば金融論文といった具合です。そして、トランスフォーマーブロックがあることを思い出し、トランスフォーマーの両側が必要になります。左側にはエンコーディング部分があり、右側にはデコーディング部分があることを覚えています。
エンコーディング部分は、言語的近さが単純に非常に高次元のベクトル空間における空間的近さにマッピングされる美しい数学的ベクトル空間を作成します。古典的なBERTシステムでは、約768次元程度です。
文章については、sentence BERTを作成します。高速検索手法が必要な場合、ColBERTは依然として最良の方法の一つだと思います。
しかし一方で、ご存知のように、美しいGPTシステムがあります。BERTシステムではなく、RoPE位置エンコーディングを備えたマルチヘッド自己注意を持つGPTシステムです。同じことが起こっており、目標は次のトークン予測です。
これは完全に異なるものを提供することを理解し、モデルを持つためにこれらを組み合わせます。しかし、これら2つを組み合わせるだけでなく、第3の要素が必要です。もちろん、知識グラフの構造化された知識統合です。
知識グラフの更新プロセス
この研究では、既製の標準知識グラフを使用するか、Amazon Neptuneなど、馴染みのあるデータベースを使用します。興味深いのは、これが2年前のもので、最新の知識で更新したい場合、それも非常にシンプルだということです。
sentence BERTやcontextual late interaction over BERTの場合を思い出してください。知識はベクトル間の幾何学的関係にあり、このベクトル表現は膨大なテキストの統計的パターンから学習されます。これを更新プロセスにも使用します。
古典的なBERTシステムを取り、高度に特化した高性能ツール用にファインチューニングします。新しいデータが必要になります。例えば、過去2年間の最新論文を使って知識グラフを更新します。ここで、領域固有の語彙、領域固有の新しい技術用語、知識グラフで出現する可能性のある新しいエンティティタイプでBERTをファインチューニングします。
素晴らしい、ファンタスティック、まさに望んでいた更新です。これで美しく強力なNERエンジンができました。BERTをクロスエンコーダーとして使用でき、トークン分類ヘッドを上に載せたBERTアーキテクチャがあれば、本当に強力なNERエンジンを持つことになります。
したがって、すべての新しい文書、すべての新しい研究論文からすべてのエンティティを抽出でき、非常にシンプルな方法で知識グラフを更新できます。はい、他のより高度な方法もありますが、これはシンプルで直接的な方法です。
マルチエージェントシステムの設計
Stanford大学の論文では、SapBERTを使用しています。SapBERTは、2021年からの医療分野における古いワークホースです。「Self-Alignment Pre-training for Biomedical Entity Representation」という論文も利用可能です。
しかし、異なる要素があることに注意してください。高次元ベクトル空間を持つBERTシステムがあります。定義上、定義を持たない知識グラフがあります(私はここで2次元パターンを描いていますが)。そして、もちろんこれらすべてを接続するマルチエージェントがあります。
では、マルチエージェント構成はどのように機能するのでしょうか。何をすべきでしょうか。エージェントの複雑さはどうでしょうか。LLMだけではこれを行うことができないことを知っています。複雑さを減らし、複雑さをよりシンプルなタスクとよりシンプルなアーキテクチャ構成に分割する必要があります。そこで、複数のエージェントを使用します。
エンティティリンキングプロセス
SapBERTと医療の主語-関係-目的語トリプルとの相互作用を示す簡単な例を見てみましょう。患者の記録に「脳卒中後認知障害」という用語があるとします。
これを行う方法は、リンクのための適切なツールを使用することです。これがSapBERTです。特化したsentence transformer SapBERTを使用して、知識グラフ内のクリーンなエンティティを見つけます。
どのように行うのでしょうか。ベクトル空間でコサイン類似度を計算します。これにより、SapBERTの類似度スコアが得られます。2つの用語があります。クエリ用語である脳卒中後認知障害と、例えば「認知機能障害」があり、これは非常に高い類似度スコアを持つ優れた候補であることがわかります。
リストの最後に行くと、非常に低い類似度スコアを持つ2つの用語があります。おそらく、これらの医療用語間には因果関係がないでしょう。これはネガティブな例であり、両方を使用します。
これで、テキストから知識グラフノードへのクリーンで曖昧でないリンクができました。「認知機能障害」があります。「脳卒中後認知障害」という技術用語から始めたことを理解しました。
BERTから本当に近くにある1つの候補を得ました。しかし、これが知識グラフの更新プロセスだったことも思い出してください。つまり、知識グラフ内の新しいノード、知識グラフ内の正確なアドレスもあり、今度はそれを問い合わせてこのノードから構造化された事実を取得します。
他のノードへのすべてのエッジを辿ります。1ホップ、2ホップ、3ホップのシーケンスがあります。知識グラフからこのすべての情報を抽出し、トリプレットを構築します。例えば、結果の1つは「パラバスタチンは認知機能障害を治療しない」かもしれません。知識グラフの更新のための更新トリプレットを生成します。
3エージェント構成
論文の例では、医療のために3エージェント構成を選択しました。第1のエージェントは、今示したリンケージを行います。第2のエージェントは検索を行います。研究者のようなものです。そして、何かを予測するエージェントがあります。AIを使って将来について予測し、新しい事実を発見します。
これが、トランスフォーマーベースのLLMをエージェントのコアとして使用し、複数のエージェントを持ち、これらのエージェントが領域用に最適化された更新された知識グラフと非常に特定の相互作用パターンを持つ全体像です。そのためには、クロスエンコーダーとして使用する非常に特定のsentence BERTシステムが必要でした。検索最適化のためにColBERTを使用する場合、ColBERTは本当に美しく高速ですが、特定のタイプを探しています。検索だけでなく、エンティティNERエンジンでもあります。
実際の応用例
論文からの公式の視覚化を見てみましょう。非常に簡単です。特定の患者からの医療データがあり、「デイビッド(私たちの患者)は近い将来、脳卒中後認知障害を発症するか」という1つの質問があります。非常に一般的な例です。
Emory大学とStanford大学が想像する3つのエージェントがあります。リンクエージェント、検索エージェント、そして予測エージェントです。
まず、リンクエージェントは、患者について知っていることと知識グラフの間で医療エンティティを接続します。示したように、「脳卒中後認知障害」という用語から始めて、美しい候補を探し、sentence BERTシステムからのベクトル演算、コサイン類似度演算も必要だったことを思い出してください。
知識グラフ内の正しいアドレスがすべて揃ったら、ポジティブとネガティブの関係があることをお話しし、ポジティブなものを抽出し、ネガティブなものを抽出します。これは学習プロセスに役立ちます。そして、予測エージェントは現在までのすべての情報を収集し、2段階プロセスを持ちます。
第1段階では、応答を生成しますが、第2段階で別のチェックがあり、ここで修正することができ、これは美しいメカニズムです。グランドトゥルースと最終予測の両方が一致することを本当に発見できます。
エージェント間の詳細な相互作用
これらが3つのエージェントと1つの知識グラフだけであることがわかりますが、これは完全に正確ではないことに注意してください。sentence BERTシステムを介して知識グラフを更新し、SapBERTシステムを介してエージェント相互作用も行いました。
リンクエージェントは簡単です。示したように、「脳卒中後認知障害」という用語を使用して、SapBERTを使って知識グラフ内の最も近いエンティティを見つけ、コサイン類似度を計算します。知識グラフで探すべきノードが「認知機能障害」であることがわかります。
検索エージェントは簡単で、知識ノード「認知機能障害」に行き、知識グラフを問い合わせ、すべてのエッジを辿り、1ホップノード、2ホップノードをフォローし、ポジティブとネガティブの関係を収集します。良いリストと悪いリストの2つがあります。
予測では2段階があります。最初はポジティブな知識のみを取ります。ポジティブな雰囲気が多すぎて、知識空間を制限するのに十分な反対知識がない可能性があります。
そのため、エージェントが間違った答えに到達する可能性があり、研究の著者たちは第2段階があると言いました。これを「修正」と呼んでいます。第1段階からすべてを取り、楽観主義で少し行き過ぎたかもしれません。今度はネガティブな知識を加えると、これは美しいことです。
これにより私たちを正しい道に戻し、うまくいけば正確な予測を得ることができます。アイデアは非常にシンプルです。
知識グラフの数学的表現
知識グラフについて話すとき、構造はエンティティのノードとエッジの関係のネットワークであることを知っています。概念において、常に2次元表現を示していますが、もちろん数学的には正式には次元がありません。グラフは数学的には頂点の集合とエッジの集合であり、位相的には座標ではなく接続に関するものです。
より正確に言えば、固有の次元性はありませんが、それらで計算し、数値計算を行う必要があります。そこで、知識グラフを取り、埋め込みを行い、機械学習表現を行います。利用可能な最もシンプルな数学的空間に行きます。これは再びベクトル空間です。
非常に高次元のベクトル空間、768次元があり、知識グラフで見つけるすべてのもののベクトルを構築します。そうすれば、ベクトル空間にある数学的推論、演算を可能にできます。類似度検索を行うことができ、真のAIモデルの学習プロセスがあります。
トレーニングは、トリプレットの最初の用語からのベクトル+関係用語からのベクトル=この用語となる特定のベクトルがある場合、学習される美しいベクトル表現を得るトレーニング実験がある方法で実際に行われます。
エージェントの詳細な動作
エージェントを詳しく見ると、「待って、このエージェントはベクトル空間で動作しているのか、それとも単語の人間言語空間で動作しているのか」と尋ねるかもしれません。興味深いことです。
リンクエージェントは翻訳者であり、両方の世界に流暢でなければなりません。ベクトルと言語の両方を行わなければなりません。まず、既に2回示したように、SapBERTモデル、コサイン類似度による高次元ベクトル空間での検索プロセスで動作します。知識グラフのベクトルを見つけます。素晴らしい。
そして推論が始まります。推論は簡単です。「よし、それを持っている」と言い、ベクトル空間で最も近い上位10のベクトル候補のテキストラベルを提示します。言語空間にある候補、認知機能障害、記憶障害などがあります。上位10、上位100の候補があります。
この情報で、検索エージェントに行くことができます。リンクエージェントから選択された知識グラフエンティティからテキストを検索します。テキスト名を使用して知識グラフをより深く問い合わせます。これは象徴的データベースの一種で、示したように事実トリプレットのリストを検索します。
出力は単純にポジティブな知識とネガティブな知識があります。既に通りました。予測エージェントは最終的に、患者データ、質問、知識グラフから得たすべてのガイダンスを取ります。この特定の研究では、著者たちはGPT-4 miniをLLMとして使用して、これを組み合わせて推論プロセスを持ちました。
このすべてのデータ、すべての情報、現在まで得たすべての知識を統合する推論プロセスは、テキストベースの答えを生成します。最もシンプルなケースでは、イエスかノーです。推論が利用可能な場合は、なぜこれが正しい予測だと思うかのテキストベースの説明も行います。
他手法との比較とベンチマーク
「ベンチマークしよう」と言うかもしれません。他にもたくさんの可能性がありました。LLMに患者データを直接プロンプトすることもできました。知識グラフなし、複数エージェントなし、1つのLLMでプロンプトするだけです。
またはステップバイステッププロンプト、予測ステップなしで、Chain of Thoughtのようなものを使用することもできます。医療研究では、この特定の目的のために訓練された高度に専用の医療言語モデルがあることは確実です。この特定の目的のために訓練された医療LLMを使用しましょう。
または知識拡張プロンプトを行うと言うこともでき、医療データベースで利用可能な方法もあります。または反復プロンプトを行うと言うこともできます。これは、過去10分間で通った内容とほぼ同じですが、知識グラフからの情報は提供しません。それ以外はすべて同じですが、知識グラフからの情報はありません。知識グラフから得る正確性、追加データ、構造化された知識がいかに重要かがわかります。
データを見てみましょう。通ったすべての手法があり、最後の行のCareが今日焦点を当てた方法論です。医療チームからの異なるベンチマークがありますが、最初のもの21、22、28、27、24、72を見ると、著者たちは彼らの成果を非常に誇りに思っています。「他のシステムと比較すると、私たちのシステムは本当に素晴らしく見える」と言い、「この診断予測方法論にどれくらいコストがかかるかのガイダンスも提供できる」とさえ言っています。
再び異なる代替案があり、最後の行がこの論文のトピックであるCareです。はい、他のどの方法論よりも本当に非常に高価です。もちろんです。特定のベクトル演算、特定の知識グラフ演算で非常に自明でない方法で相互作用する3つのエージェントがあります。
手順と推論とデータ集約に必要なトークンを見ると、数百万トークン単位で、Careの場合、著者たちは1つの診断予測を実行するのに7200万トークンが必要だと教えてくれます。
本当に素晴らしく、トークンを提供し、コストを提供し、時間はインフラストラクチャなどによります。これをカラーで見たい場合、異なるベンチマークのための異なる手法が再びあり、この論文の手法であるCareが紫色で表示され、パフォーマンスが単純に優秀であることがわかります。最終的にGPT-4 omniを使用しています。
著者の結論
著者たちに言葉を譲ります。「LLMを使用したゼロショット診断予測のための知識グラフ強化推論フレームワークCareを提案します。今日持っているLLMベースの医療診断における主要な課題、より構造化された推論の必要性、ハルシネーションの削減、臨床環境のための効果の改善に対処します。
リンクエージェント、検索エージェント、そして示した予測エージェントからなるマルチエージェントフレームワークを統合することにより、この組み合わせは患者データを構造化された医療知識と接続し、多段階の対話ステップを通じて診断推論を洗練します。実験結果は、既存の手法と比較して診断精度を効果的かつ効率的に向上させます。本当に素晴らしく、本当に興味深いです。
しかし、最もシンプルな説明における方法論は、ほぼ常に同じであることを決して忘れてはいけません。エンコーダーのみのブロック、デコーダートランスフォーマーブロックで動作します。ベクトル空間で動作するか、自己注意メカニズムを使用します。さらに、最適化を使用します。ファインチューニング、強化学習を使用します。より良い知識グラフを構築しますが、起こっているアクションは、エージェント内のLLMのパラメトリック知識と知識グラフの構造化された知識表現とエージェントが相互作用するときです。しかし、sentence BERTにある特定の構築された高次元ベクトル空間を通じてベクトル演算を行う必要があります。
常に同じコンポーネントが使用されていることがわかります。しかし、これがEmory大学とStanford大学によってたった2日前に発表されたことを考えると、臨床環境における真の安全性重要タスクのために、LLM、エージェント、知識グラフを組み合わせる最良の方法についての美しい説明を提供してくれていると思います。
楽しんでいただけたでしょうか。このようなビデオをもっと見たい場合は、ぜひ購読してください。次回お会いしましょう。


コメント