本動画は、現在主流となっているGPTシステムの根本的な限界を明らかにし、ニューロシンボリックAIが超知能への道筋となる可能性を探求する内容である。GPT-4やClaude 4 Sonnet、Gemini 2.5 Proといった最先端モデルは統計的パターン学習に依存しており、真の意味理解やシンボリック推論を欠いている。特に医療などの専門分野では、知識グラフのような構造化されたシンボリックシステムとの統合が不可欠であることが論じられる。さらに、現在のデータセンター中心のAI投資戦略に疑問を投げかけ、GPTアーキテクチャを超える新技術の登場が業界に与える潜在的影響について示唆している。本動画は、AI開発の次なるパラダイムシフトに向けた準備として、ニューロシンボリックAIの重要性を強調する導入編となっている。

現在のAIモデルの栄光と限界
こんにちは、コミュニティの皆さん。お戻りいただけて嬉しいです。さて、もちろん超知能について話さなければなりませんね。ただし、ドメイン特化型の超知能に絞って考えましょう。そして、皆さんが何を言おうとしているかは分かっています。ニューロシンボリックAI、このAIシステムを信頼できるのか、と。さあ、ようこそ。これは導入ビデオです。なぜなら、私たちは超知能の領域を準備しなければならないからです。では始めましょう。
ご存知の通り、私たちのAIモデルはすべて素晴らしいものです。Gemini 2.5 Proは素晴らしい。Claude Sonnet 4.5は素晴らしい。GPT-5は素晴らしい。Grok 4も素晴らしい。そして、コーディングに使うかもしれませんし、推論に使うかもしれません。あるいは何か他のことに使うかもしれません。一般的に、私たちはGPTシステムを持っています。これは、事前学習された生成型トランスフォーマー、つまり次トークン予測をコアとなる訓練目標とする自己回帰モデルを意味します。
そして、すべては順調です。世界は美しい。これこそが私たちがAIで必要とするすべてです。しかし、なぜでしょうか。なぜ中国からアメリカにかけて、新しいグラフシステムを見てみようという研究が進んでいるのでしょうか。グラフRAGシステムを見てみよう。グラフRAGシステムを超えていこう。MCP、エージェント間通信を。シンボリック推論とニューラル学習の収束を見てみよう。
これはAIの全く新しい聖杯ではないでしょうか。ハイパーグラフRAGシステムについて話しましょう。強化学習について、あるいはLLMと知識グラフとグラフニューラルネットワークを組み合わせることについて。これが今、私たちが必要とする最終的なAIシステムなのでしょうか。そして皆さんは言うでしょう、なぜGPT-5があるのに、と。ええ、そうですね。しかしLLMは意味空間においてある種の汎化を提供し、世界中に数百億ドル、数千億ドルをかけてデータセンターを建設すれば、うまくスケールします。しかし、それは同時に重大な脆弱性も導入します。信頼性の危機です。
知識グラフとシンボリック推論への回帰
ですから、世界中で研究が行われているのを目にするわけです。私たちは、LLMと知識グラフがあり、その知識グラフの知識をLLMに持ってくる必要があると言っています。グラフベースの真のAI推論が必要だと。あるいは、グラフRAG多様体上の階層的推論であるべきだと。いや、RAG 3.0理論システムで行こう。
私たちは研究を続けています。つまり、どういうわけかAIコミュニティでは満足していないのです。あるいは、ここに実際の複雑な高次元多様体上でLLMが知識グラフを修復するというものがあります。なぜこれを行う必要があるのでしょうか。あるいは、ここに新しい知識グラフ適応推論があり、LLMが多次元グラフ構造上で最適な推論プロセスを計画しています。
なぜGPT-5があるのでしょうか。なぜこのグラフインタラクションが必要なのでしょうか。私たちは何を見逃しているのでしょうか。もちろん、皆さんはこう言えるでしょう。ちょっと待ってください。これを再構成しましょう。なぜGPTシステムが必要なのか、と。そして私は愛するGPTに尋ねました。ねえ、GPTがテキストの統語的パターンから学習して意味を近似するというのは本当ですか、と。そしてGPTは答えます。ええ、その通りです。
膨大な量のテキストがここでの訓練データです。AIは統計的パターン、統語構造を学習して、意味的に一貫性のあるテキストを生成します。しかし、意味の理解は創発的特性であり、AIの明示的な機能ではありません。AI GPTは相関パターンを学習しますが、人間的な意味や純粋な論理のシンボリック的な意味での意味は学習しません。
そして私は言いました。ねえ、GPTが単に文中の単語の共起とコンテキストから意味を推論するというのは本当ですか、と。私はコンテキストエンジニアリングについて考えていただけでした。するとGPTが戻ってきて言います。ええ、それも正確です。GPTは単語の系列上の確率分布をモデル化することで動作します。つまり、特定のコンテキストで他の単語の近くにどの単語が現れる傾向があるかを捉えるのが得意です。
そして、これが単語の共起パターンから意味を推論する創発的能力につながることを期待します。そして私は言いました。しかし、GPTシステムは論理のシンボリック的な意味での意味の構造を本当には理解していませんよね、と。そしてGPTが戻ってきて言います。正しいです。だから今、突然私がGPTについてのアイデアを持っている理由が分かるでしょう。そして私は続けます。ねえ、GPTは純粋に統計的なシステムですよね、と。
いいえ、それらはまったくシンボリックなシステムではありません。そしてGPTは私に言います。絶対に正しいです。GPTは統計的パターン学習者であり、古典的なAI、論理ベースのシステム、プロダクションルール、知識グラフのようにシンボルで推論するシステムではありません。一部のコンテキストではシンボリック推論を近似しますが、根底にあるメカニズムは統計的であり、ルールベースではありません。もちろん自己回帰システムです。
要約すると、GPTは私に言います。ねえ、あなたは正しいです。GPTモデルは統語的およびコンテキスト的パターンから学習する統計的システムであり、真のシンボリック理解はありません、と。そして私は言います。ねえ、面白いですね。さて、では反対側を見てみましょう。ここに私たちの知識グラフがあり、私は言います。ねえ、私たちの知識グラフは、文の統語的複雑性の構造だけでなく、意味についてエンコードし推論するように設計されていますよね、と。
そしてGPTは答えます。正しいです。知識グラフはエンティティ、属性、関係をエンコードし、典型的には特定のドメインのためのオントロジーまたは形式論理システムを使用して、今や真の純粋な意味に対する推論を可能にします。推移的推論の例を挙げました。そして私は言います。しかし、これは今、GPTシステムと対照的ですよね、と。
なぜなら、GPTシステムは統計的統語的パターンに依存して意味的な意味をシミュレートするからです。そしてGPTが戻ってきて言います。正しいです。GPTには組み込みのシンボリック知識表現がありません。GPTはテキストの共起パターンから学習し、それらを使って形式論理やシンボリック推論なしに、統計的に意味を近似します。GPTシステムはしばしば言語を理解しているように見えますが、明示的なシンボリック推論ではなく、分布意味論を活用することでそうしているのです。
専門分野における信頼性の危機
ですから、私たちの美しい人間の医療専門家全員、想像できるあらゆる分野の医学における専門的で検証された研究論文、教科書の山があります。あるいは金融でも、製薬でも何でもかまいません。しかし、現在の世代の汎用LLMは苦戦しています。なぜなら、GPT-5システムでさえドメイン特化型の関係を誤って解釈し、知識グラフ生成のために頻繁に無効なトリプレットを生成するからです。
そして、現在のGPTシステムによって生成されるそれらのトリプレットは、ほとんどの場合、生物医学的オントロジーに違反しており、したがってGPTによるこのAIの結果を信頼できず、スケールできないものにしています。だから今、私たちが現在どこにいるかが分かるでしょう。そして私は言います。ねえ、これがGPTシステムのツール呼び出しが助けになる場所ですよね、と。なぜなら、ツール呼び出し、MCP、エージェント、マルチエージェント、エージェント間通信によって、外部世界、たとえばデータベースから純粋に論理的で事実的に正しいデータにアクセスし、コンテキスト内学習、少数ショット例を通じてLLMに戻すことができるからです。
そしてChatGPTが戻ってきて言います。ええ、あなたは全く正しいです。ツール使用、ツール呼び出しがなぜ発明されたのか、その核心的な目的の一つを正確に指摘しました。そして、ここに私のような非常に単純な人々のためのGPTにおけるツール呼び出しとは何かが見えます。ツール呼び出しとは、モデルがGPTシステムの外部システム、外部ツール、外部APIを呼び出せることを意味します。したがって、私たちの小さなGPTが内部でうまくできないこと、たとえばデータベースクエリや知識グラフクエリの実行、正確な計算の実行、リアルタイムの事実データの取得、あるいは必要な論理エンジン、形式ソルバー、その他のシンボリック推論ツールの呼び出しなどを行うことができます。
そして分かりますね、GPTのようなLLMは確率的で生成的です。訓練データに基づいて知識をシミュレートしますが、独自の知識は持っていません。そして私は言いました。ああ、なるほど。では、これが知識グラフやシンボリック論理とどう関係するのでしょうか。GPTシステムがあり、これはとても簡単です。GPTシステムとツール呼び出し、たとえば知識グラフへのツール呼び出しがあります。
そして突然、システムの意味的および事実的な力を持つことができます。なぜなら、GPTは統語的パターンに基づいて自然言語クエリを形成するだけだからです。ここに私たちの単語がどのように文を構築するかがあります。しかし、実際の正確で検証された医療データ、科学データ、グラウンドトゥルースデータのために、知識グラフや構造化された医療データベースを呼び出す必要があります。
そして、GPTはその外部データをコンテキスト内で使用して、流暢で美しく定式化された、根拠のある答えを生成します。そして、これはコンテキスト内学習、将来の例、そして私たちがすでに知っているものすべてを含むことができます。では、近い将来のどのAIシステムにも必要なものは何でしょうか。さて、皆さんが何を言うか分かっています。なるほど。
ニューロシンボリックAIの必然性
では、GPTが内部に正確で検証されたデータを持つ内部能力を持っていないのなら、医学だけに絞りましょう、膨大なドメイン特化型の知識グラフが必要です。ここで統語的GPTシステムに新しい知識を表現するために。しかし、意味空間と統語空間があり、それらが重複していない可能性があることが分かります。
なぜなら、GPTは意味的な意味をシミュレートするために統計的統語的パターンに依存しているからです。この医学用語は何を意味するのか。この医学用語での推論とは何か。つまり、私たちが持っているのは、GPTシステムを知識グラフからの新しい知識で継続的に訓練し、GPTのために統計的統語的パターンを生成する必要があるということです。
GPTが推論をシミュレートするために。現在のAIにおける私たちの固有の問題が見えますか。そして私はGPTに尋ねました。うーん、これがニューロシンボリックAIのアイデアが現在の研究トピックである理由ですか、と。そしてGPT-5が戻ってきて言います。ねえ、あなたは再び全く正しいです。ニューロシンボリックAIの概念は、GPTのようなニューラルアプローチ、統計的で柔軟でスケーラブルなもの、データセンターについて考えてみてください、と。
そして、事実を持つ本当に重要なシステム、知識グラフ、論理ベースの推論、あるいは単にルールベースのシステムのようなシンボリックシステム、それらは正確で、解釈可能で、構造化された意味に根ざしています、を組み合わせる動機に直接根ざしています。GPTシステムにはこれらの大きな制限があるため、これが知識グラフのようなシンボリックシステム、GPTの外部システムが必要な理由です。新しいシンボリックAIを形成するために。しかし今、GPTシステムの固有の制限を理解しているでしょう。
いいえ、ここは将来の知識が生成または表現される場所ではありません。これは単に素敵な文を構築する機械です。これは単に自己回帰的な次トークン確率分布計算ですが、推論エンジンではありません。そしてご存知のように、私は単純な人間です。だから私はGPTに言います。ねえ、将来、私たちが人間として行っているすべての新しい研究のために、そしておそらくAIシステムの少しのサポートで、これをAI、あるいはGPT AIに提示するために、膨大な医療知識グラフが必要ですか。それともGPTは純粋にテキストの教科書や出版物や論文から学習するのでしょうか、と。
そしてGPT-5が戻ってきて言います。ええ、私たちは依然として大規模な構造化医療知識グラフが必要になります。なぜなら、AIモデルが非構造化テキストの論文から学習できるとしても、シンボリック知識が純粋なテキスト学習に欠けている精度、信頼、推論能力をもたらすからです。これは美しい文ではありませんか。今、現在のGPTシステムで私たちが直面している問題を理解しているでしょう。
それらは単独で精度、信頼、推論能力を行うことができません。シンボリック論理が必要であり、したがって私たちはニューロシンボリックAIを持っているのです。だから私たちは、AIの未来のために二つのものが必要だと言います。さて、もし将来を見据えるなら、あなたがAIへの投資家であり、どこに投資すべきか、私たちが行おうとしている次の技術的飛躍は何かを見ているとします。だから今GPT-5自身から分かることは、非常に特定の方法で、高複雑多様体でエンコードされた新しい科学知識でエンコードされる、グラフ構造やさらに複雑な構造で、膨大な知識グラフを構築する必要があるということです。私のビデオを見てください。
GPTシステムの技術的限界と新たな可能性
そして、あなたは言うかもしれません。しかし待ってください、なぜ将来GPTシステムが必要なのですか、と。そして今、このビデオの冒頭に戻りましょう。私がどこで言ったか覚えていますか。ねえ、Geminiは素晴らしい。Claude Sonnetは素晴らしい。GPT-5は素晴らしい。Grok 4は素晴らしい、しかし将来これらのシステムが必要でしょうか、と。そして私はGPTに言いました。それは何ですか。それはデコーダーオンリーのトランスフォーマーアーキテクチャです。
マスク因果的自己注意機構があります。系列内のすべての前のトークンのみが与えられて、次のトークンを予測します。だから一方向の系列しかなく、他のものには注意を払いません。さて、自己回帰的言語モデリングには素晴らしいものです。そして皆さんは言うかもしれません。しかし、もし私たちが新しい技術を発明したらどうなるでしょうか。私たちが何かを発明すると想像してください。
おそらく中国の研究チーム、おそらくアメリカやヨーロッパやその他世界のどこかの研究チーム。私たちはGPTシステムの制限のない新しい技術を発明するでしょう。OpenAI、Anthropic、Grok 4なしで、さらに重要なことに、おそらくNvidiaなしでAIの未来を想像できますか。なぜなら突然この新技術は数千億パラメータの訓練システムを必要としないからです。
このアイデアに慣れていただきたいだけです。なぜなら、おそらく将来のAIに何らかの影響を与える技術があるかもしれないからです。そして、ここでいくつかのポイントを挙げるだけです。イェール・インサイト、これがAIバブルが崩壊する方法です。そして彼らはここに美しく書いています。教授たちとフェローたちが、現在のAI開発技術への危険な過剰投資について。そして彼らはバブルが弾ける三つの方法を概説しています。
しかし、ご存知のように、おそらく別の方法、四つ目の方法があります。おそらく、ゲームを大きく変える新技術が地平線上にあるのです。しかし、これは簡単なトピックではありません。なぜなら、ここでフォーチュンを見てみてください。そして彼らは言います。今特にアメリカで建設されているデータセンターがなければ、2025年前半のアメリカのGPT成長率は約0%だったとハーバードのエコノミストは言います。だから今この世界で最も発達した高技術国の一つで私たちが持っているすべての経済成長は、現在の投資と技術データセンターの完璧な調整がなければ、おそらく数日前からもはやAIの次の波のための主導的技術ではないかもしれないデータセンターとの調整がなければ、これはどんな影響を与えるでしょうか。
では、ここで中断しましょう。このビデオの第一部はここで区切りましょう。これは単なるウォームアップビデオでした。私たちがどこにいるのか、現在どのような制限に直面しているのか、そして新しい技術があったらどうなるかを要約するためのものでした。
そして明日公開されるパート2では、この新技術について深く掘り下げます。この新技術のあらゆる側面を説明しようと試みます。しかし、ねえ、それは明日起こることです。おそらく購読したいでしょう。おそらく何らかの形で私のチャンネルに参加したいでしょう。願わくば、明日お会いできることを。


コメント