この動画では、従来のRAG(検索拡張生成)システムを大幅に拡張したGraphRAGの最新技術について解説している。単純なテキスト検索から知識グラフベースの複雑な推論システムへの進化を詳細に分析し、Gears、Susan(QM)、PyG 2.0という3つの主要研究論文を通じて、惑星規模の知識グラフ処理を実現する技術的アプローチを検討している。

GraphRAGの最新技術と課題
みなさん、こんにちは。今日はgraph ragのスケーリングに関する最新の科学的問題について話していこうや。今回はPyG 2から始まって、graph ragシステムをベースにした高度なグラフニューラルネットワーク報酬システムまで進んでいくで。わしらの意図はAIの最新推論システムの完全なスタック分析を構築することやねん。
標準的なグラフを知っとるやろ、そこからgraph ragを開発したんや。ここでの知識はエンティティと関係のグラフを持っとって、核心は単純に情報をフラットリストから知識グラフに移すことやねん。そしてもちろんグラフニューラルネットワークによる最適化や。
G9は本質的に2つの理由で高度なgraph ragシステムやねん。強化されたセマンティック検索と推論のための表現学習や。そしてGNNを報酬モデルとして持っとることを見せてやるわ。
システム構成要素の全体像
ほな、ゲームにどれだけの要素があるんか見せたろか?簡単やで。わしらはgraph ragを持っとる。これが戦略や、全体的なパラダイムやねん。それからエージェント的フレームワークがある。そして古典的なトランスフォーマー。それからグラフエンティティ用に最適化されたグラフニューラルネットワーク。
最後に知識グラフ自体や。複数の知識グラフで作業する場合、世界知識の構造化された表現で、これが正しいと仮定しとるんや。
多くの視聴者から「初心者向けと専門家向けの両方で説明してくれ」って言われたんで、今回初めて試してみるわ。気に入らへんかったら次の2分はスキップして、普通のやり方で続けるで。実験してみよう。
初心者向け解説
初心者向けは簡単やで。検索拡張生成がある。マルチホップ推論がある。大規模知識グラフを構築する。高度な戦略が前回の動画で話したgraph ragシステムや。
でも今、現実世界の知識グラフでパラダイムを運用する瞬間に、数千や数十万の要素から数百万の文書に移ると、本当に高価になるのが本当に早いんや。これが今のアイデアやねん。
階層的認知アーキテクチャを持たなあかん。各レイヤーが必要な抽象化と能力を提供するんや。推論パイプラインでこれをエンドツーエンドで処理する新しいスタックを見せてやるわ。
専門家向け深掘り
専門家向けや。専門家って誰や?2年前、3年前のPyG 2についてのわしの動画を全部見た人、グラフニューラルネットワークについて、DJLとPyTorchでのグラフリンク予測についてのコード、グラフニューラルネットワークでのグラフ機械学習のPyGコード例、全部見とって、全部知っとって、これで作業しとる人、そういう人が専門家や。
わしらが見るのは、PyG 2.0フレームワークの基盤レイヤーや。特に重要なIOとメモリボトルネックを攻撃するで。2つのキー、グラフストアとフィーチャーストア抽象化を使うからな。
これはアウトオブコア処理モデルを仮想化してインスタンス化して、わしらのGNNが独自のサブグラフで動作できるようにするんや。最後に、プログラマティックインターフェースを介して、大規模な非常駐知識グラフからサンプルするんや。
知識グラフ構築の課題
知識グラフの構築はオフラインでやるもんや。数千、数十万の要素のために知識グラフ構築ができる。素晴らしい。オフラインがある。このアプローチが必要やねん。図書館のすべての本を事前に読むようなもんや。
知識グラフを構築して、それから自分のドメインで正確に参照知識グラフを確立するんや。特定のタスクに必要な複雑さと深いマルチホップ推論を持ってな。
3つの新しいAI研究論文を見てみるで。最初のやつはGearsやねん。Gearsは巨大な公開参照知識グラフへのジャストインタイム知識アライメントの興味深い応用やねん。
Gearsシステムの詳細解説
これがHuawei Technologiesからの出版物や。これは多かれ少なかれ彼らの独自手法やねん。2025年7月23日を見せとる。馴染みがなかったら、2025年6月22日のGearを紹介するこの論文をお勧めするで。
同じHuawei technologyで、Gearは単純にretrieval augmented generationのためのグラフ強化エージェントやねん。ragに戻ったんや、graph ragから想像できる最も複雑なバージョンのragまで戻ったんや。
フロープロセスチャートから始めよう。これが新しいシステムアーキテクチャを説明する最も簡単な方法やと思うで。
元のクエリQがある。これがシステムに尋ねる自然言語の質問やねん。それから単純にベース検索器がある。クエリは標準的な非グラフ検索器に行って、その仕事は単純に、例えば理論物理学のような特定のドメインで作業する場合、持っとる文書コーパス全体で最初のパス検索を実行して、パッセージを抽出することや。
これは検索が関連するテキストパッセージのセットを返すんや。これが検索の結果やねん。それからリーダーに送るんや。
リーダーはクエリとパッセージと一緒にリーダーモジュールに送られるんや。数分後にリーダーモジュールのプロンプトを見せてやるわ。これは別の効率的な小さなLLMやねん。
10億のLLMを使っとると思うで、仕事は簡単や。リーダーの唯一の仕事はテキストを読んで、近似トリプレット抽出を実行することや。まだ完全な複雑さを探索してへんからな。答えを見つけるのに必要なサブドメインサブグラフ構造だけで作業しとるんや。
今度はt-dashと呼ぶ近似トリプレットがある。これはLLMのリーダーの出力やねん。簡単やないか。一時的な非公式トリプレットの小さなセット。主語-述語-目的語の構造で、小さなドメイン固有コーパスのテキストパッセージから直接抽出されるんや。
トリプレットリンクとグラフ拡張
今度は2つの要素がある。トリプレットリンクとグラフ拡張と呼ばれるもので、かなり興味深いんや。sync G部分では、システムがテキスト世界とグラフ世界の間のギャップを埋めるところやねん。
近似トリプレットとこの矢印がある。これはオンライン知識同期ステップを表しとるんや。これが興味深いねん。何が必要か?すべての真の知識を持つ巨大な惑星サイズのデータベースへのリンクが必要やねん。WikipediaやWikidataと呼ぼうか。
このオンライン知識同期がメインのトリックやねん。各近似トリプレットt-dashは、Wikidataの大規模な外部知識グラフで最も類似した正規トリプレットTを見つけるための検索クエリとして使われるんや。
グラフ拡張の興味深い要素がある。メインアイデアを理解したら簡単やで。正規トリプレットTから始まって、システムはWikipediaやWikidataグラフ内で検索を実行して、新しいマルチホップ推論パスを見つけるんや。
検索とランク融合プロセス
新しいトリプレットが発見されて、グラフ拡張中に、これらは単純に元の文書コーパスCを再クエリするために使われるんや。
これが重要なステップやねん。システムは追加のドメイン固有情報を学習したことを理解して、システムはWikidataグラフを探索することから学んだことを使って、初期のベース検索が見逃したかもしれない新しい文書を見つけるんや。美しいループで動作しとるんや。
次の簡単なステップは、reciprocal rank fusionプロセスや。何があるか?始めた単純なテキスト検索からの証拠と、ここでの高度なグラフベース検索がある。2つの検索されたパッセージのセットがあって、それらを単一のより堅牢なランク付きリストに融合するんや。
エージェント的処理とメモリ管理
エージェント的部分がある。メモリを持っとる、エージェントを持っとる、純粋なLLMはないんや。パッセージからメモリに入れて、トリプレットもメモリに入れて、それらで作業を続けるんや。
これらのボックスはエージェントの内部状態を表しとる。メモリが複雑すぎる場合はスクラッチパッドと考えてもええ。エージェントが追加情報を書く場所やねん。各反復後、検索されたパッセージと発見されたトリプレットが単純にここに保存されるんや。
停止コマンドに到達した場合の簡単なif-thenがある。検索と融合の完全なサイクル後、エージェントのLLM(脳)が決定を下すんや。「解決策を見つけた、クエリ履歴に蓄積した証拠で質問に答えられる」と言う場合はyesで、プロセスを停止する。noの場合は、ループにフィードバックするんや。
クエリを更新して戻るんや。追加情報をこのプロセスに送るんや。これが書き換えステップやねん。理解するのは簡単やと思うで。
複雑さの管理とフィルタリング
ワンショット検索プロセスを反復的なエージェント的に変えるんや。メモリ構造で作業しとる。ステップバイステップでより複雑な問題に取り組める推論ループやねん。
noの場合、更新されたクエリがベース検索器にフィードバックされるんで、複雑さが高すぎる場合は、入力に戻る途中で「ちょっと待て、別のLLMがある」と言って、特定のクエリの複雑さを下げるんや。
複雑さレベル7のクエリを3つのサブクエリに分割して、それぞれが複雑さレベル3から5だけを持つようにして、プロセスを再実行すれば、すぐに解決策を見つけられるはずやねん。
フィルターが必要やし、最終フィルターステップがある。別のLLMプロンプトが黄金データセットから無関係な情報を取り除くために使われるんや。最後に答え生成がある。
システムの実現可能性
すぐに解決策を見つけたと言った場合はシングルステップ出力、または複数の反復でエージェント的ループが完了した後のマルチステップ出力がある。
簡単に見えるかもしれんけど、小さなボックスの後ろで何が起こってるかを理解せなあかん。ここで本当に楽しみが始まるんや。複雑さはそれほど複雑やない。人間として、まだかなり単純なフロー構造を構築しとるんや。
より実現可能なのは何か?10億の文書から完璧なカスタム知識グラフを構築することか?100万が最初の良いステップかもしれん。ゼロから。これは本当に高価や。
GoogleやMicrosoftはできるけど、普通のユーザーはドメイン用の完璧なカスタム知識グラフを構築するために10万ドルや100万ドルを投資するつもりはないやろ。
もう一つの方法は、Wikidataのようなフリーでパブリックに利用可能な知識グラフを活用して、それにリンクするノイズの多いプロセスを扱うことや。これがメインのトピックになってきとるんや。
Susan(QM)システムの紹介
2番目の論文、このビデオのメイン論文がある。科学者が美しい名前を付けるのが好きやねん。QMと呼ぶけど、わしはSusanと呼んどる。
Susanは何の略かって?Query-aware Multipath Knowledge Graph Fusion approach for enhancing RAG(retrieval augmented generation)やねん。
これは古典的なragやない。想像もできない次元のragやねん。標準的なアテンションとクロスアテンション、そしてSusan用に開発した特定のGNN報酬システムを持つ、非常に認識的なマルチパス方式で知識グラフ融合をするんや。
オプションAを仮定しとる。企業データ、個人データ、独自の文書から完璧な自己完結型のドメイン固有知識グラフを構築する価格を支払ったと仮定しとるんや。上司を通して美しい知識グラフを構築したんや。
今度はデータを見つけることやなくて、異なる推論パスをどのように知的に融合するかが課題やねん。知識グラフの複数のハイパープレーンで複数の推論パスで作業して、それらを組み合わせて完璧な答えを見つけるんや。
マルチパス構築と分析
マスタープランは簡単やねん。1つのパスを見つけるのやなくて、オブジェクトのパラメトリック知識を与えられて、すべての可能なパスを同時に評価する計画を考案するんや。
3つの要素がある。即座の周囲、ワンホップ構造、マルチホップ構造、そして位相解析のために非常に古いGoogle PageRankアルゴリズムを使って構造的に重要な場所を特定するんや。
洗練されたクロスアテンションモデルを使って、どのスカウトパスが真の目的と最も一致しとるかを見て、定義された目標のコンテキストで証拠を評価するんや。
Susanフレームワークの詳細
これがSusanの完全なフレームワークやねん。かなり興味深く見えるやろ。今度は本当に必死やから、すべての知識を含む構造を構築するんや。うまくいってへんからな。
単独で動作した要素を組み合わせて、知的な方法で組み合わせれば、確実により良いパフォーマンスが得られることを期待しとるんや。
入力から始まる。最初のステップはエンティティマッピングや。エンティティマッピングの目標は何か?特定のユーザークエリ、人間のクエリに基づいて、知識グラフへの正しいエントリポイントを見つけることや。
潜在的なエントリとエンティティがある。クエリと抽出された潜在的エンティティ、LLMプロンプトが間違っとる可能性がある人間のクエリを分析するために使われるんや。
埋め込みモデルとベクトルデータベース
埋め込みモデルとエンティティベクトルデータベースシステムが既に知識グラフ全体を処理して、ファインチューニング埋め込みモデルを使って、すべての単一ノード、すべての単一エンティティのベクトル表現を作成するんや。
ベクトルは高速検索のためにエンティティベクトルデータベースに保存されるんや。「これはragやな」って気づくやろ。そう、これは標準的な古典的なrag、ようこそや。
興味深くなるのは、埋め込みモデルとドメインデータセットがあって、この青いサブダイアグラムが埋め込みモデルがどのようにそれほど効果的になったかを示しとるんや。これは単なる汎用の既製モデルやない。
特定のトリプレット、クエリ、ポジティブチャンク、ネガティブチャンクを持つドメインデータセットでファインチューニングされて、タスクに高度に特化したものになったんや。
サブグラフ構築プロセス
次のステップはサブグラフ構築で、目標は複数の多様な証拠サブグラフを構築することや。実際のエンティティから始まって、3つのオプションがある。
エンティティマッピングから出てくる実際のエンティティが、3つの異なる構築アルゴリズムに並行して送られるんや。
最初はワンホップ関係知識グラフ。アルゴリズムは単純にマトリックス映画のすべての即座の隣接とそれらを接続するエッジを検索する。これは直接的な事実コンテキストを提供するんや。
マルチホップ関係知識グラフがある。このアルゴリズムはより深く行って、ツーホップオフ構造で隣接を探索する。より高い情報が必要な複雑さレベルでクエリを解決するために必要な追加の推論チェーンがあることに気づくやろ。
重要度ベース関係知識グラフがあって、構造解析手法のためのPageRankがある。必ずしも近くにはないけど、出発点に対して非常に重要や影響力のあるノードを見つけるんや。
サブグラフ融合と報酬モデル
3つの異なる候補サブグラフがあって、それぞれが関連知識の異なる視点を表しとるんや。探しとるものに対する複数の視点、これがまさに必要なもんやねん。
サブグラフ融合がある。知的フィルタリングと統合の一種や。3つの候補サブグラフを単一の高品質でもちろん低ノイズの証拠に知的に組み合わせたいんや。
報酬モデルセクションがある。すべてのサブグラフが報酬モデルに送られる。ユーザーの元のクエリも報酬モデルに送られる。ユーザークエリを与えられてこれを評価することを覚えとって、これがクエリベースのアテンションが起こるところやねん。
報酬モデルの出力は最も単純な場合、3つのサブグラフのそれぞれに対するスカラー、スコアやねん。1から10があって、例えば1、3、4を得るとしよう。
融合知識グラフがある。最高スコアのサブグラフがバックボーンとして選択される。これが持っとる最も有望な証拠やねん。
最終処理とパフォーマンス評価
より低いスコアの他の2つのサブグラフが処理されて、類似性クエリロジックが実行される。これは低スコアグラフからの各個別トリプレットをユーザークエリと比較することを含んで、特定の類似性閾値を通過したトリプレットだけが十分に良くて、フィルタリングされて戻ってくるんや。
複数の視点から最良の解決策やと思うものを含む融合知識グラフができるんや。
サブグラフ利用では、最終的な融合サブグラフを使って言語モデルに可能な限り最良のコンテキストを検索するんや。
パフォーマンスデータを見ると、最後の行を見てほしい。太字になっとるから、他のすべてを上回っとることを意味するけど、実際に何を達成したかを見てや。
最も単純なベンチマークで、知識グラフなしのLLMで8、今は51を達成した。でも知識グラフプラス古典的な再ランカーのLLMで既に43にジャンプして、他のシステムから45から51に行っただけで、大幅に見えるけど、異なるテストセットを見ると、61.89から62.61や41.49から45.96に行っとるんや。
複数論文の相互参照と応用
これらの2つの論文を選んだ理由は、お互いを参照しとるからやねん。特にSusanの報酬モデルが今、Gearsの問題であるオンライン同期ステップの解決策になっとるからや。
これは両方の論文の範囲外やけど、複数の論文を読むと、作者が想像すらできなかった解決策を見つけることができる潜在的な相互参照が見えるんや。
解決策はSusanの報酬モデルを特に再利用することを含んどる。既存のクリーンなサブグラフを融合するツールとしてやなくて、Gearsのオンライン同期ステップの直後に直接適用できる、より洗練されたセマンティック検証フィルターとして使うんや。
PyG 2.0の最新アップデート
3番目の論文は2025年7月22日のPyGやねん。Yann LeCunの監督下にあって、最新バージョンで見つけた最新のものを見せたいと言っとる。
最新アップデートで洗練され拡張された3つのコア側面に焦点を当てとる。現実世界のグラフは多様なノードとエッジタイプを持っとって、PyG2では異種グラフデータタイプが自動的に動作するようになったんや。
最初の論文はスケーリングについてやったけど、PyGでは構築できるもののスケーリング動作を最適化するコードがあるんや。
論文1と論文2があって、このPyG論文は基盤、基礎、このビデオで見た論文1と論文2を実装できるすべての新しいコード機能とコード要素を提供する運用コード実装やねん。
Graph RAGパイプラインの実装
異種グラフが動作しとる。グラフトランスフォーマーアーキテクチャがある。PyGでのGNNの説明の古典的な図解に馴染みがあるやろ。PyTorch frameのPyGでマルチモーダルマルチテーブルデータがある。
最も重要な事実は、PyGの最新バージョンで美しいgraph ragパイプラインを構築できることや。
自然言語クエリが大きな知識グラフから関連するコンテキストサブグラフを検索するために使われ、それらがグラフニューラルネットワークを介してエンコードされ、結果のノード埋め込みが従来のLLMエンコーダーデコーダーワークフローを強化するために使われるんや。
惑星規模知識グラフの実現
Graph Ragは自然言語クエリから始まって、大きな知識グラフデータベース(例えばNeo4G)から関連するコンテキストサブグラフを検索するために使われるんや。
このサブグラフはグラフニューラルネットワークを使ってエンコードされる。メッセージパッシングとすべてを覚えとって、結果のノード埋め込みが集約されて、LLMの埋め込み空間に投影されるんや。
PyGがこの検索ワークフローをフィーチャーストアとグラフストア抽象化インターフェースの拡張を通じてサポートしとって、完全にカスタマイズ可能で、エレガンスをもって構築できるんや。
今日のHugging Face LLM標準と互換性がある。PyGがコードの力を提供してくれるから、今度は実際に惑星規模の知識グラフの構築を始められるんや。
数百万の文書、さらには数千万の文書にgraph ragシステムをスケーリングする問題を解決するんや。解決策があるように見えるで。


コメント