本動画は、最新のAI研究論文5本を通じて、人間言語の豊かさと数学的論理構造の間に存在する根本的な緊張関係を明らかにする。マルチエージェント通信を制御する強化学習フレームワーク、階層的概念モデル、合成対話生成、擬似コード計画システム、そしてCEOの修辞戦略分析という一見無関係な研究群が、実は同じ課題に取り組んでいることを示す。それは、連続的で連想的な言語の流動性を、離散的で計算可能なグラフ構造へと強制的に変換しようとする試みである。物理学者である話者は、この還元主義的アプローチが人間言語の美しさと表現力を犠牲にし、真の推論能力向上には疑問があると論じる。科学的ブレイクスルーは厳密な論理的計画ではなく予期せぬ連想的飛躍から生まれるものであり、AIの未来は言語エンジンの意味的直感と計算グラフの厳密性を統合することにあると結論づける。

AIと言語の衝突
こんにちは、コミュニティの皆さん。お帰りなさい。今日はAIについてお話しします。言語がロジックと衝突する話です。本日発表された5つの新しいAI論文をお見せしたいのですが、それらにはある問題があります。今からお見せしましょう。
最初の論文は清華大学によるもので、素晴らしい内容です。マルチエージェントディベートを統合する強化学習についてです。これは、マルチエージェントディベート構造における動的コミュニケーショントポロジー制御を定式化する新しいフレームワークなんです。これは素晴らしいと思いました。テクノロジーらしい響きですよね。
そうなんです、マルチエージェントコミュニケーション構造におけるエージェント間通信を調整するコントローラーがあるんです。問題は、コンテンツに依存しない観測スキームを持っていて、私はそれに気づかなかったことです。
それから2つ目の論文です。ケンブリッジ大学とオックスフォード大学による、階層的概念ベースの解釈可能なAIモデルについてです。彼らは、階層構造を通じて概念の関係性を明示的にモデル化していると言っていました。これは素晴らしいアイデアだと思いました。論文を読んで、奇妙だなと思ったんです。突然、何かを分類システムに当てはめなければならないような感覚になったんです。
それから3つ目の論文です。同済大学によるもので、LLM駆動のマルチターンタスク指向対話合成についてです。AIのリアリスティックな推論のためのものです。なんて素晴らしい研究だろうと思いました。驚くべき技術です。彼らはここで、リアリスティックな推論シナリオにおけるマルチターンタスク指向対話を合成するためのLLM駆動フレームワークを提案しています。
彼らがこれを行う理由は、データがないからです。だからAIが学習するためにそれらのデータを合成しなければならないんです。何かがおかしいと感じました。これら3つの論文は、ある方向に進んでいて、私の内側で何かが起こっていました。
合成生成プロセスを見ると、すべてが絶対に美しいんです。論理的です。純粋です。まさに数学が私たちに命じることそのものです。
それからテキサスA&M大学です。農業と製造じゃなくて、機械工学だと思いますが。「PSACT:LLMエージェントにおける柔軟な計画と行動制御のための擬似コード合成の活用」という研究です。これは素晴らしい研究だと思いました。ファンタスティックな技術です。構造化された擬似コード計画を合成して、特定のタスクの複雑さを複数の扱いやすい低複雑度のサブタスクに分解し、AIが従うための擬似コード制御フローを明示的にエンコードするんです。
そのとき起こったんだと思います。私たちが人間言語に対して、本当にはうまく機能しない数学的操作をしようとしているという感覚を持ったからです。人間言語には、これに対する厳密性がないんです。
そして、美しい構造化されたウェブサイトのコード計画があって、高レベルの論理プリミティブで合成されています。論理プリミティブという言葉を読んだとき、これは19世紀の数学のようだと思いました。数学にはすべてを証明しようとした時代がありました。1+1=2を証明しようとしたんです。最も原子論的な論理プリミティブ、数学プリミティブからすべてを証明しようとしました。私たちは今、人工知能の次のAIシステムの開発において、まさにこの同じ地点にいるような気がします。
社会技術的想像力の発見
そして私はこれを読みました。コロンビア大学によるものです。そして私は何かを理解しました。これは異なる公的ペルソナについての素晴らしい研究です。OpenAIのCEOとAnthropicのCEOについてです。彼らは発表し、コミュニケーションを取ります。コミュニティに、コーダーに、開発者に、ソフトウェアエンジニアにコミュニケーションを取ります。そして株主にもコミュニケーションを取ります。政策機関にもコミュニケーションを取ります。
ここに、想像的構造と権威についてのコロンビア大学の研究があります。何が奇妙なんだろうと思いました。これがAIと何の関係があるんだろうと。これが他の4つの研究で私が見逃していた鍵だったんです。彼らは今、このコミュニケーションパターンを見て、何か知られているものがあると想像しました。社会技術的想像力と呼ばれるものです。
これらの想像力は、構造的に一貫した人間の修辞戦略を通じて構築されます。そして両方のCEOが、簡単に言えば、どのように科学技術プロセスのビジョンを検証するかについて、ほぼ収束していることを発見しました。つまり、AIの利点は何か、なぜAIにさらに投資すべきなのか、なぜAIの研究をすべきなのか、AIのどのトピックで人類は、それは拡張AIなのか、AIがすべてを引き継ぐのか、公的目的はどうなのか、達成したい集合的未来はどうなのか、AIにおける私たちの目標は何か、コミュニティのために何を見たいのか。
彼らは社会技術的想像力フレームワークを、国家の視点から、今や変革的技術開発の最前線にいる民間企業の視点へと拡張しました。
そして私は感覚を持ちました。今、皆さんに助けていただかなければならないと思います。なぜなら、ここで私の考えをお見せしますが、私はまだ終わっていないからです。まだ統合、結論に達していません。だから皆さんが助けてくれるかもしれません。
本日発表された5つの研究論文は、まったく異なりますが、5つすべての論文が何らかの形でつながっています。そして、これらすべての論文の間の深いつながりは、2つの根本的に異なる数学構造の間の衝突だと思います。
私たちには、そのすべての美しさ、表現力などを持つ人間言語があり、それを連続的な連想多様体にマッピングします。あるいは、単純な数学的ベクトル空間と呼ぶものです。RAGシステムのためのものです。一方で、純粋な計算論理の離散的トポロジカルグラフがあります。そこでは数学を知っており、ここでフィールド上のグラフ理論演算子をどのように操作するかを正確に知っています。
しかし、何らかの形で、人間言語は論理的アプリケーションのための計算フレームワークではないんです。そして、私がお見せしたすべての論文が、非常に非科学的に言えば、同じ問題を解決するための一種のメカニズムを発明しているような気がします。
言語と論理の緊張
どうやって厳密な離散的な足場、グラフツリー、アルゴリズム、AI構造を構築して、人間言語と人間の行動を人工知能が扱えるようにするのか。言い換えれば、人間言語の連想的流動性を、純粋で乾いた数学的な高確率タスク確率分布ピーク構造に制約し、チャネル化するにはどうするのか。
ご覧のとおり、何となくうまく合わないんです。何かが欠けているんです。例を挙げましょう。人間言語を想像してください。あるいは数学的な再構成で、LLMの潜在空間の広大さで行ってください。それは川のようなものです。連想的な水です。同時にあらゆる場所に流れ、最小抵抗の経路に基づいて、風景の中に蛇行するすべての有機的な経路を削り出しています。
あるいは、統計的確率がここで実際に自然の中で起こっていると言えます。古典的な昔ながらのReActエージェントやマルチエージェントチャットで行くと、それは何でしょうか。それはまさに洪水のようなものです。水が谷にこぼれ出て、自分自身の水たまりをたどり直し、膨大なエネルギーを無駄にします。膨大なトークンがここで無駄にされるんです。
それは単なる制御されない氾濫です。今日の最初の研究、RuMaTは、私が行っている再構成の中で、私が人間言語で行い、今皆さんとコミュニケーションを取り、異なるイメージを持ち込んでいるのですが、RuMaTは水力発電グリッドマネージャーのようなものです。
すべての川を互いに流れ込ませる代わりに、完全に接続されたn×nグラフで、特定の水路を動的に開閉します。これらはもちろん、グラフ構造上の通信チャネルと通信エッジです。圧力に基づいて、エネルギー出力を最大化し、おそらくエントロピーを計算しながら、無駄を最小化し、トークンを最適化します。これが最初の論文を見る最初の視点です。
同じフレームに留まると、2番目の論文は今、水ろ過階層として機能します。泥だらけの水、川の水を分離します。数学的視点では、ベクトルの密な埋め込みがある場所です。
今、これを明確で追跡可能な化学的ストリーム、あるいは概念とサブ概念と呼びましょう、数学構造における分岐ツリーに配置されたものに分離します。ご覧のとおり、私たちが何をしているか。ここに川があり、そして何らかの形でこの川の強大さをサブチャネルと追跡可能な化学ストリームと分岐ツリー構造にチャネル化したいんです。
アイデアはお分かりいただけると思います。次の研究、社会技術的想像力は、もしあなたが望むなら、川が特定の土地を横切る政治的ゾーニング委員会のようなものです。会話パターンと修辞を使って、今や一般市民や土地の所有者に、川を調整するためのこの特定の運河システムを建設することが不可避であることを納得させます。ここで私たちの社会的議論の複雑さを導き、私たちは、ほら、確率的な道は1つしかないと言います。さらに投資しなければならない、データセンターを建設するために1000億米ドルが必要だ、前進する他の方法はない、と。そして社会全体がそれを信じるんです。
これは興味深いです。なぜなら、これは修辞だからです。これは人間言語の複雑さとはほとんど関係がありません。しかし、これが意思決定プロセスにおいて他の人間に影響を与えるために人間言語を使う方法なんです。
もちろん、AIを使って、AIと人間の間、あるいはAIとAIエージェントの間のコミュニケーションパターンにおける意思決定プロセスを変えることができます。ご覧のとおり、これら5つの論文が何らかの形で無意識的にここで混乱を引き起こし、私はまだ整理できていませんが、私の理解をお伝えしたいと思います。
この緊張の根底には、現在のAI研究における戦いがあると思います。古き良き祖父である数学的高次元ベクトル空間、私たちのRAGシステムと、グラフ理論と複雑性の間の戦いです。私たちは今、AIに投げかけようとしています。何らかの形で推論させるために。
なぜ推論すべきなのかと問うかもしれません。それは意思決定についてであり、意思決定は行動につながり、行動は戦略フレームワークにつながり、戦略フレームワークは政策につながります。
ベクトル空間とグラフ理論の対立
私たちは類似性で考えます。これは、特定の数学的フィールドにおける密なベクトルのドット積として測定されます。論理的推論には、明示的な状態遷移が必要です。数学における部分観測可能マルコフ決定過程を考えると、相互排他性と因果関係があります。因果関係については、私の前回のビデオでAI研究における有向非巡回グラフ、つまりDAGシステムと、私たちが持つツリー構造で見たとおりです。
ご覧のとおり、人間は類似性で考え、それをドット積、明示的な状態遷移に変換します。そして何らかの形で、複雑さの一部を失います。人間言語の美しさを十分に失っています。
今日このビデオの最初の数秒でお見せした最初の2つの研究を、私は「心をグラフ化する」と呼びます。ただの美しいアイデアである何かからグラフを構築するためです。しかし、それを取り上げて、データセンターに入れなければなりません。それをデータセンターに入れるために変形させなければならないので、そこからグラフを構築しなければなりません。
RuMaTでは、これは素晴らしい研究です、誤解しないでください。しかし、人間言語の豊かさを単純な近接メトリックに変換し、それによって古いPPOに基づいたハード強化学習アルゴリズムが会話グラフを刈り込むことを可能にします。
素晴らしいアイデアですが、これが前進する道でしょうか。私たちが現在AIに投げかけている多くの技術的実装が、人間言語の美しさと表現力を最大限に削減しているだけだということをお見せしたいんです。そして、これが前進する道だとは確信していません。
階層的概念ベースでは、ほぼ同じことがあります。ドメインアーキテクチャで話している内容の美しい密な雲があります。そして、トランスフォーマーアーキテクチャの古典的なエンコーダ部分であるスパースオートエンコーダーを使用して、124次元にある壮大な多様体を離散的な分類法、つまりツリーに強制します。
私たちの確率分布を厳密な数学的階層に強制しています。なぜなら、そうしなければ扱えないからです。そうしなければコード化できません。そうしなければ計算できないからです。
ご覧のとおり、現在AIに投げかけているものはすべて、単なる近似です。何らかの形で人間言語を歪め、変換し、離散的な分類構造、数学的階層構造に変形させることを強制しています。そして、これが前進する道だとは確信していません。
人間言語の美しさ
人間言語の美しさの例を挙げましょう。突然、私は自分自身に驚いています。でも、このビデオに入っているので、行きましょう。
これを別の視点から見ることもできます。例えば、これら2つの論文、RuMaTはエージェント群通信パターンのマクロレベルと見ることができ、HIKEは潜在表現複雑性のミクロレベルと見ることができます。なぜでしょうか。
なぜなら、それらは著しく類似した数学的アプローチ構造を展開しているからです。連続的で非構造化されたLLM出力を明示的に数学的に制約されたトポロジーに強制するようなものです。
この点を念頭に置いて両方の論文を読むと、私が何を意味しているかすぐにわかるでしょう。そして、これら最初の両方の論文が同じ根本的な問題を解決していると思います。AIシステムの統治可能性です。私たちはAIシステムを扱うことができません。
RuMaTは、マルチエージェントシステムの壊滅的なトークン燃焼を解決します。しかし、どのように? コンテンツに依存しない強化学習エージェントを使用して、多様体上の複雑さにおける通信パスを動的にルーティングまたは切断します。これが前進する道だとは思いません。
あるいはHIKEで行くと、それは手動アノテーションのボトルネックと、概念ボトルネックモデルと呼んでいたもののフラットな表現を解決します。
お伝えしたように、スパースオートエンコーダーを使用して、人間言語で持っている高レベルの概念を有機的に開き、よりシンプルなサブ概念にします。そして、美しい数学的方法で、これらの階層を明示的に配線する神経アーキテクチャを構築し、それらを結合し直します。
今度はよりシンプルな方法で、サブ概念の方法で、おそらく人間でさえ正確な論理的深さで介入できるようにしますが、私たちは何かを失います。
ここで数学的アルゴリズムを見ると、私たち人間が心の中で持っている高レベルの概念を開くと、それを非常に多くの異なる視点から経験してきたわけです。私はこれらの研究を4、5回異なる方法で再構成でき、あなたは常に新しい要素を発見するでしょう。それを1つの数学的階層に分解すると。
そうなんです。そして、それを解決するための数学的方法は1つしかありません。ご覧のとおり、私たちは失います。膨大な情報を失います。決定、議論、コミュニケーションの他の道を大量に使用します。
AIエージェント間の通信の密度は、人間のようではありません。愚かなアンドロイドのようなものです。
ところで、概念埋め込みモデルについてもっと学びたい場合、この研究を読んだばかりで、この研究も強くお勧めします。2022年12月のものです。彼らはここに行き、中間レベルの人間のような概念に基づく分類タスクの条件付けを本当に示してくれます。これを見てください。本当に興味深いアイデアです。
しかし、人間言語の美しさについて私がお話ししたことを考えると、私は理論物理学者としてこれを言いますが、自分自身に少し驚いています。
これもこの視点から見てください。私はこの美しい人間言語であなたに話すことができるので、簡単に別の方法で再構成できます。
導体と虹の比喩
RuMaTは、私たちのオーケストラの聴覚障害の指揮者です。ウィーンにいて、フィルハーモニックイベントか何かに行くとしましょう。6人の優秀な専門家がいて、オーケストラとすべてがあります。
しかし、1人の指揮者がいます。これが私たちのコントローラーです。そして、このコントローラーは完全に聴覚障害です。何も聞こえませんが、オーケストラの指揮者なんです。これがまさに私たちが適用する数学的方法です。
RuMaTでは、指揮者は目の前にモニターを見ているだけで、専門家、オーケストラのメンバーの心拍数と投票の一致を示しています。
これはまさに、彼らの埋め込みのコサイン類似度です。そして、2人の専門家が高次元ベクトル空間で同一の埋め込み構造を持っている場合、指揮者は物理的にそのうちの1人をミュートして、お金を節約し、トークンを節約します。
しかし、1人の専門家が、1人のプレーヤーが突然ユニークな埋め込み構造を持っている場合、そしてこのRuMaTのRLコントローラーは聴覚障害であることを覚えておいてください、指揮者は彼らにメガホン、オープンな通信チャネルを与えます。
彼らが何を話しているかについて全く知らず、コミュニケーションの複雑さについて全く知らず、コミュニケーションの意味論的な何かについても全く知らず、単に類似したパターンを探しているだけです。そして、これはあなたへの間違った道だと思います。
AI は美しいパターンマッチングマシンだということは知っていますが、これはおそらくAI間の通信チャネルを比較する最適な方法ではありません。
別の再構成です。HIKEはプリズムのように機能します。子供の頃を思い出してください。外の日差しのある部屋にいて、少しだけ開けて、プリズムをそこに持っていくと、突然白い光が入ってきて、このプリズムから出てくるすべての異なる虹の色が現れます。ただただ驚くべきものでした。
今、ここで同じことが起こっています。概念が入ってくるとします。これが白い日光です。しかし、このプリズムで、明確な色スペクトルを発見できます。これは、数学的方法で異なるサブ概念を意味します。オートエンコーダーのサブスペースを構築でき、新しいキャビネットを構築できます。引き出しを開けると、正確な引き出しを通らなければなりません。リンゴに行く必要はありません。次にバナナに行かなければなりません。
私たちが発見したすべての異なるフレーバーと色スペクトル。しかし、これらのサブ概念は人間言語の論理的構成物です。しかし、これが人工知能で進むべき道でしょうか。これが本当に、より良い推論能力を可能にするものでしょうか。
別のものを取り上げましょう。研究4と5に移りましょう。PSACTと実際の推論、時間と対話の構造化です。対話がますます重要になってきているのは興味深いです。AIの完璧な決定についてではありません。対話についてであり、それはエージェントとエージェントの間か、人間とエージェントの間のどちらかです。
対話とグラフの制約
そして、この対話は非常に多くの追加的な次元をもたらします。
Real Reasoningを覚えていますか。トレーニングデータとしてマルチターン対話を合成しなければなりません。それが行うことは、数学エンジンから合成された隠れた論理的制約を特定のシナリオに埋め込むことです。数学的に、質問に答えるために特定の依存関係パスを横断するようLLMに強制します。
しかし、これは全く必要ないかもしれません。簡単な質問をしてくれれば、簡単な答えを出せます。なぜ論理的依存関係を持つ3部構成の答えを飛び越えなければならないのでしょうか。
強化学習のための複雑な推論トレーニングデータが欲しいことは理解しています。特に検証可能な報酬関数がない場合は。しかし、これが前進する道でしょうか。
あるいはPyo Actについて考えます。Pyo Actは頂点だと思います。連想的な段階的思考を単に拒否します。まずDAGを書き下ろします。擬似コードを書きます。ここでローカライズされたノード要件を満たすだけで、すべての言語生成を排除します。すべてをグラフに分解するだけです。
そして、単一のノードがあり、ノードには要件、依存関係、複雑さ、相互リンク構造などがあり、世界は非常にシンプルになります。しかし、私たちのLLMの美しさは、確率的および統計的原理からだけでなく、私の天よ、人間言語は非常に美しいということを覚えておいてください。
あなたが望むものを何でも構築でき、今、単一のタスクのためのドメインの複雑さ全体を反映していない可能性があるグラフ表現における現在の単一のノードにのみコンテキストを削減します。
これには満足していません。そして、5番目の論文はもちろん、お伝えしたように、OpenAIのCEOとAnthropicのCEOの間の社会学的視点です。この人間ハッキングです。人間がシステムを前進させるために議論する方法です。もちろん、CEOの仕事は製品を販売し、投資家を引き込むことです。
したがって、彼らは会話的修辞パターンを使用して人間を納得させます。では、なぜ突然このCEOの視点が必要なのでしょうか。それは私たちに何かを教えてくれます。
OpenAIのCEOが、AIまたはAGIが必要だと常に私たちに言っているのを覚えていますか。なぜなら、それが癌を治すからです。私はこのコミュニケーションを3、4、5年間気づいていて、それが歴史の不可避な道であると。
数学的視点でこれを見ると、彼らが行っていることは、政治的会話グラフを刈り込み、株主や投資家に提供することです。明らかに前進する道は1つしかなく、誰もこの戦術に疑問を持っていません。これは美しい修辞パターンであり、複雝さを単純な数学的な単一の前進する道に削減しようとしています。
AIの未来への展望
ご覧のとおり、私たちのAI企業のこれらのCEOが行っていることは、AIがどのように統治されるべきか、あるいはいくつかのルールによって制限されるべきかという多次元的議論を、二値的な結果に崩壊させることです。それを支持するか、AIの進歩を妨げるかのどちらかです。明確です。AまたはBのどちらかに属さなければなりません。間はありません。
2つの政党しかなく、1つの政党に属さなければならず、1つの政党に属している場合は他方と戦わなければならない、他に方法はないと言っているようなものです。そして、これは人間にとっても、AIシステムにとっても正しい前進の道ではないと思います。なぜなら、これがAIエージェントの意思決定プロセスとコミュニケーションプロセスに刷り込まれることを望まないからです。
しかし、これはまさに、最初の研究であるRuMaTが今エージェントに対して行っていることであり、これは人間社会内のコミュニケーションに適用されています。人間から他の人間へのコミュニケーションと、AIの決定複雑性に刷り込みたいものとの間の類似した並行パターンを見ることは、絶対に魅力的です。
考えてみてください。今日の見通しは何でしょうか。私たちはもはや、ニューラルネットワークやトランスフォーマー、あるいは何でも、次のトークン予測だけを通じて論理を行い、決定し、論理的結論に達することを教えようとしていません。
そして、AIの未来は、この連続的な連想的言語エンジンを離散的な古典的計算グラフ内に包むことだけだと思います。
両方が必要です。LLMは意味論的直感、ニュアンス、人間言語の美しさを提供し続け、したがってインターフェースを構成すると思います。そして、擬似コードトポロジーからコード状態機械、5つの論文で見たような低レベルオプティマイザーまで、すべての外部グラフです。それらは安全性、境界、推論の厳密さを提供するだけですが、これは単なる要素です。
私の前回のビデオで、人間のコミュニケーションの複雑さ、つまり人間言語を数学の厳密なパターンに強制または押し込みたいという印象を持った場合。はい、それが私の目標だったかもしれませんし、魅了されていたかもしれません。
しかし今、それについてより多くの研究を読むにつれて、この単純化、サブカテゴリー、サブ分類への分解を行うと、数学的に扱い、したがってコード化できるようにするために、非常に多くの情報、非常に多くのコンテキストを失うことがますます見えてきます。
これは前進する道ではありません。そして、人間言語を純粋に計算可能な階層に強制すると何が失われるのかと問うかもしれません。
人間の推論が強力なのは、それが連想的だからだと思います。科学における画期的な発見は、例えば物理学に関する本を読んでください。厳密な擬似コード段階的計画で起こることはめったにありません。
それは、無関係なドメイン間で予期しない連想的飛躍が起こったために起こりました。これを聞いたことがあるでしょう。シャワーを浴びていて、突然これについて美しいアイデアが浮かんだ、と。これがまさに私が話していることです。
創造性を論理的に導き出すことはできません。私たち人間にただ起こるんです。なぜなら、この連想的知識を持っているからです。そして、これら5つの論文を読んでいただけではないことをお伝えします。視覚言語モデルに関する他の10の論文も読んでいました。言語モデルから視覚言語モデルに移行すると、同じ問題があります。
言語と視覚的解釈の間のこのクロスリファレンスも、今日あなたのためにこのビデオを作成するきっかけとなりました。
何が間違う可能性があるか
何が間違う可能性があるか考えてみてください。最初の研究であるRuMaTが、コサイン類似度がしきい値を下回るエージェントを積極的にミュートすると、単純なPPOコントローラーにとってノイズのように見える素晴らしいが非線形の連想的接続を行っている1つのエージェントを殺す可能性があります。
あるいは、現実世界の概念を排他的な階層ツリーに強制すると、人間の理解の複雑に絡み合った、韻律的な性質を捉えることができません。
すべてのニュアンスを得ることに失敗するだけです。そして、LLMをコードに、これが3番目の論文ですが、数学プリミティブのようなコードプリミティブに強制することで、1990年代の純粋な記号的AIの脆弱性に戻るリスクがあります。
最終的な剣は何でしょうか。私が今日戦っているものは何でしょうか。意地悪になります。なぜなら、イメージをお見せするつもりだからです。私の言語でイメージを構築し、想像してくださいとお伝えします。
これら4つの論文すべての究極のメタナラティブは、AIのための制約の工学であり、それらは、人間言語の連想的豊かさが、単一エージェント論理であれ群れの議論であれ、私たちが人工知能で探している複雑な推論を達成するために、生の不安定な燃料電池、バッテリーのようなものであるという科学コミュニティの認識を表しています。
この意味論的燃料は点火されなければなりません。そして、階層的トポロジカルアルゴリズムの重い鉄のシリンダー内で点火されなければなりません。
この剣で、今日のビデオを皆さんに残したいと思います。少しでも楽しんでいただけたことを願っています。新しい情報、考えるための新しい糧がありました。次のビデオでお会いできることを楽しみにしています。


コメント