
13,174 文字

コミュニティの皆さん、こんにちは。ついに最新のAI研究開発についてお話しする時が来ました。非トークン化は可能でしょうか?ご存知の通り、現在の私たちのAI基盤モデルはすべてトークン表現に依存しています。そして、ここには既に対称性の破れが起きています。なぜなら、私たちは連続的な実世界のデータを扱っているのに、それらのデータを細切れにしているからです。離散化しているのです。
それをトークンとして使用し、その小さなトークンを使って計算を行っています。これがAIの未来なのかと疑問に思うかもしれません。そして、言わせていただければ、そうではないかもしれません。
このトークンの断片化は、AIの学習能力を著しく制限しています。なぜなら、実世界の知識は統計的な相関関係を超えるものだからです。私たちは意味的な一貫性を維持したいのです。
モダリティを横断する際には、きめ細かい時空間ダイナミクスを捉えたいですし、モダリティをまたいで、堅牢で複雑な因果推論を実行する必要があります。では、なぜ今私たちはこれを持っていないのでしょうか?
今日の研究の著者であるジョンズ・ホプキンス大学の研究者たちは、これらの限界はすべて、現在のAIのトークン化パラダイムに固有のものであると主張しています。そして彼らは、これは単にモデルサイズやデータセットを拡大するだけでは解決できないと私たちに告げています。
ですから、トークンの数が10億、1兆、1京になろうとも関係ありません。いいえ、それは助けにはなりません。これは私たちのモデルの基盤、モデルの核心にある限界なのです。では、私たちに何ができるでしょうか?私たちには天才的なひらめきが必要です。そして、皆さんがまさにこの天才的なひらめきのためにここにいることを私は知っています。
皆さんの目を開かせる一文として、少し歴史のレッスンから始めましょう。そうです、歴史の時間です。初めの頃、LLMが意味の通じる一文を生成できれば私たちは満足していました。そして、複数の文を生成できるようになり、「素晴らしい、意味が通じる」と言っていました。実際には、それは単なるコピー&ペーストのパターンでしたが、誰も気にしませんでした。それから、私たちの文は単語で構成されるようになり、単語やサブワードのトークナイザを導入して、人間の文をベクトルオブジェクトに、埋め込みトークンに変換することは理にかなっていました。これは、トランスフォーマーアーキテクチャの入力部、最初のレイヤーに入るときのことです。しかし、結果駆動型で物理的に接地された表現へと向かう中で、私たちのAIシステムが失敗し始めていることに気づきました。なぜでしょうか?物理的に接地された表現とは、私たちが実世界実験と呼ぶものだからです。
そして、どうでしょう?今まで私たちはAIに話しかけるだけでした。彼らはインターネットをコピーしただけです。これは、実世界で実際に起こっていることの美しい意味論的記述、言語学的解釈に過ぎませんでしたが、本物ではありませんでした。それは、人間の特定の記述によって少し偏っていたかもしれません。
ですから、私たちの文章は、例えばソーシャルメディアのような意味論的表現だけを求めている限りは、LLMによって生成され、再現されました。私たちはただ友達と少しおしゃべりしたかっただけなのです。しかし、AIは実世界、そのダイナミクス、依存関係を理解することに完全に失敗しました。なぜなら、AIはそれについての愚かな意味論的記述しか持っていなかったからです。そして突然、私たちはAIに二次元配列、専門用語では画像とも呼ばれるものを操作させたいという突飛なアイデアを思いつきました。そして、それらの画像を記述し始めました。いいえ、私たちは視覚言語モデルの事前学習のために訓練データに入りました。しかし、それらの記述は何百万人もの異なる人々によって生成されたものでした。それらは一貫していませんでした。人間はそれぞれ画像の異なる側面に焦点を当てていました。誰もが細部を異なる方法で記述しました。そして、その結果はただの恐怖、純粋な恐怖でした。
そこで私たちが今達成したいのは、純粋に統計的な断片やトークン表現を超えて、実世界の結果駆動型で物理的に接地された表現へと移行し、優れた因果推論と、私たちのロボットアクションのための真に堅牢で複雑な実世界との相互作用を備えた、AIの真のマルチモーダルな理解を達成することです。
しかし、今の私たちにはそれがありません。なぜなら、今日のマルチモーダルモデルはマルチモーダルな理解に失敗しており、異なるモダリティを横断する一貫した因果推論を持っていません。そして、私たちの視覚言語行動モデル、あるいはロボットと呼んでもいいですが、それらは実世界の相互作用のあらゆる小さな、些細な、無責任な側面について訓練されなければなりません。なぜなら、それらは単にそれを自分で学ぶにはあまりにも愚かだからです。
私たちは彼らにトークンを与えてしまったので、正しい基盤を与えてこなかったのです。
ええ、もしトークン化、テキストトークン化、画像トークン化、ビデオトークン化についてもっと知りたいなら、ここにあなたのための情報があります。もしこれを2、3年前のビデオでライブで見たいなら、バイトペアエンコーディングトークナイザについてのビデオがあります。ここで私たちは独自のトークナイザをコーディングし、構築しました。
私たちはここでBERTのための完全な入力データパイプラインを構築しました。純粋に科学的なドメイン知識に基づいた新しいBERTトークナイザもここにあります。つまり、トークナイザにおいて極端なドメイン特化を行っています。これらがあなたのためのビデオです。そして、半年ほど前にMetaから突然、次のバイトのエントロピーも計算したバイトラテントランスフォーマーに関する情報のかたまりがあったのを覚えていますか?このビデオでお見せしたように。いいえ、忘れてしまいましたか。
気にしないでください。核心は、次世代AIの現在の開発にあります。私たちはトークン表現への依存から脱却したいのです。なぜなら、私たちのAIは、その理解が完全に表面的であり、一部のモデルでは存在しないことさえ示しているからです。それは、出来事を記述する巨大なデータセットから学習された統計的な相関関係に純粋に基づいているからです。まったくもう。
そうですね、記述と表現、そしてアトラクタについて話すと、短い余談ですが、ついさっき誰かと会話していて、「あなたのビデオのどこに、私が取ってきてコピーして使えるコードがあるのですか?」と言われました。私は「ここに、このビデオの中に、複数の新しい研究論文のエンコードされた知識がありますよ」と答えました。その人は「いいえ、いいえ、それはあなたが話しているだけで、次々と論文を紹介しているだけです。でも、私があなたから持ち帰れるコードはどこにあるのですか?」と言いました。私は「ええ、これがコードですが、これはあなたの脳のためのコードです。あなたが探しているのはPythonコンパイラのためのコードでしょう。でも私は、あなたの脳のためのコードを差し上げて、あなたがより速く学べるようにしたいのです」と答えました。すると突然、私たちの会話は終わり、二度と連絡はありませんでした。というわけで、このビデオを続けます。
トークン化は、連続的な実世界のデータを断片化し、人工的な境界を作り出す効果があります。これはジョンズ・ホプキンス大学の人々があなたに伝えていることです。そして、それは私たちの基盤モデル、AIモデル、視覚言語モデル、言語モデルに、物理法則やドメイン知識を統計的な相関関係を通じて再びゼロから学び直すことを強います。まったく、これは退屈です。そして、モダリティ間で意味論的な一貫性を維持するのに苦労します。その理由はお見せした通りです。そして、堅牢な因果推論を実行するのにも苦労します。これが、私がAIの推論を改善する方法について、おそらく1ダースものビデオを作っている理由です。なぜなら、私たちはまだここでトークン化を扱っているからです。オーケー、素晴らしい。
さて、皆さんがこの限界を克服できる表現を開発し、基盤モデルが世界をより深く理解できるようになるためのモチベーションを得られたことを願っています。そして、この研究を覚えていますか?これは2025年5月2日、Google DeepMindとカーネギーメロン大学によるものです。タイトルは「行動系列類似性によるLLMプランニングの改善」。そしてこれは、当時お話ししたように、非常に重要な論文です。強くお勧めします。これについては2日前に特別なビデオを作りました。素晴らしい。そして、Googleが発見したことをお伝えしました。それは、AIの推論能力を向上させたいのであれば、タスク記述のベクトル空間にとどまり、ここでタスク記述特有の、えー、特徴量、パフォーマンス指標を見ているだけではもはや価値がないということです。なぜなら、タスク記述はタスクを解決するのに役立つものではないからです。
あなたが探すべきなのは、プランニングプロセスからの行動系列です。つまり、正しい解決策に到達するための一連の行動です。Googleはここで、これをどのように行うことができるかという美しい新しいプロセスを開発したと言いました。そして、私のビデオでお見せしたように、タスク記述の類似性計算で通常行うベクトル空間、つまり埋め込みベクトルの758次元ベクトル空間のようなものに行く代わりに、私たちは今、行動系列を主要な要素、このベクトル空間の主要な埋め込みベクトルとして持つ新しいベクトル空間を開発しました。そして今、私たちはここで類似性を計算しますが、最初の試行におけるLLMの与えられた行動系列の類似性を計算します。そして、それは2段階のプロセスであることをお見せしました。それから、ベクトル空間内の、少なくとも1つの類似した部分を持つすべての類似した行動系列を見て、これをコンテキスト内学習のためにここに報告します。しかし、ご覧のように、私たちは今、異なる表現を持つ異なるベクトル空間を構築しています。
私たちは記述的なものではなく、解決志向の行動系列を目指しています。そしてGoogleは、「この方法論によってパフォーマンスが大幅に向上した」と私たちに告げました。ほら、私たちはすでに最初の兆候を見ました。「おい、何かが起こっている。何かが古い古典的な構造から離れつつある」と。そしてここに、もう一つお見せしたい研究があります。ジョンズ・ホプキンス大学コンピュータサイエンス学部、2025年5月初旬のもので、彼らはある見解を持っています。そして彼らはこれを発表し、「基盤モデルにはデジタルトレンド表現が必要だ」と言っています。
ジョンズ・ホプキンス大学は、医療病院などで有名であることを覚えておいてください。これについては後ほど戻ってきます。そして彼らは、この論文を、基盤モデル、特にマルチモーダルAIや身体性を持つAI、ロボットAIのための表現学習という、かなりニッチな分野に位置付けています。つまり、彼らはここでAIの最先端の研究に本当に踏み込んでおり、そこでマルチモーダルAIや身体性を持つAIを扱うと非常に多くの問題に遭遇すると言っています。そして彼らは、それらの問題はトークン表現と関係があるのではないか、彼らはアイデアを持っており、解決策を持っていると言っています。
さて、基盤モデルが、例えばビデオシーケンスや他の何かを見る前に、ボールが転がり落ちるビデオシーケンスで考えてみましょう。そして彼らは、もし今ここに、このビデオを見ている別のAIがいて、このAIがデジタルトレイン構築モジュールだったらと想像してみてくださいと言います。つまり、私たちはビデオで見た内容のコンピュータシミュレーションをここで構築できるでしょう。そしてこのDT(デジタルトレイン)構築モデルは、これをボールとして識別します。
ボールの幾何学的特性、形状、サイズ、角度を推定し、連続的な動き、速度、加速度を追跡し、さらにはエネルギー保存則などの既知の物理法則を、この転がるボールの観測に埋め込みます。それを今、仮想コンピュータシミュレーション、デジタルトレインで再構築しようとしています。
そしてこれが、私たちのAIレパートリーに加える新しいモデルです。そして、これによって突然、言語による記述、意味論的な言語的記述が不要になることがわかります。「今、ボールが見え、ボールが秒速2メートルの推定速度で、6度の傾斜で転がり落ちている」というような。お分かりですね。しかし、私たちはすでにそれをコンピュータシミュレーションに変換しています。
そして、エンティティの状態、システムが置かれている物理パラメータに関するすべてのデータについての、この構造化されたデジタルトレイン表現を供給します。私たちはこれをビデオの複数のフレームから推論し、関係グラフを構築します。なぜなら、車が通り過ぎたり、子供がボールの後ろを走っていたり、反対側から速い車が近づいてきたりするかもしれないからです。もうお分かりですね。
これらすべてが、今や基盤モデルに供給する異なる構造化された表現なのです。では、アイデアは何でしょうか。このすべてに隠されたアイデア、直感を皆さんに伝えたいのですが、それは、皆さんがAIに、現実の重要な側面と完全なドメイン知識、例えば物理学などをすでに具体化した表現を提供するということです。そして基盤モデルは、より高レベルの推論と予測タスクに集中できるようになります。
思い出してください、私の最後のビデオの一つで、私たちはすでにタスク記述から、解決に必要な行動系列へと移行しました。そしてこれは今、仮想コンピュータシミュレーションから出てくる行動系列です。ですから、お分かりのように、それはすべて収束しています。世界中のさまざまな研究グループが多かれ少なかれ集まり、より良い理解につながる一つの収束点を持つ類似した軌跡をここで開発しています。
それは、FM(基盤モデル)に、世界を見るためのより良いレンズを与えるということです。細切れにされたトークンの記述はもはや必要ありませんが、今や物理的なものに本当に調和した何かを持っています。そしてもちろん、ええ、私たちは意味論的な現実を必要とします。私たちは人間です。私たちは聞き、話し、私たちにはさまざまな感覚器官があります。
素晴らしい。
では、もし私たちが次世代のAI、次の基盤モデル、次に来る最高のモデルを学習または訓練するとしたら、どうするでしょうか?私たちもインターネットをコピーするだけでしょうか?単なる意味論的な言語的記述、「そして私はボールが通りを転がり落ちるのを見た」と?いいえ。もしかしたら私たちはこう言うかもしれません。「さて、私の部署には、機械工学、量子力学、量子場理論など、あらゆるもののコンピュータシミュレーションが何千もあります。熱物理学について考えれば、化学だけでも1万か2万のコンピュータシミュレーションが利用可能で、それらは実験、実世界の実験で検証されたコンピュータコードです。それはAIではありません。ツールとして考えてください。しかし今、基盤モデルにアクセス権を与えずに話すのではなく、もっと良いことができるようになりました。
私たちは基盤モデルに学習能力を提供します。大学や世界中のすべてのコンピュータシミュレーションへのアクセスを提供します。どこでも構いません、お分かりですね。これはC++やPythonなどのコードで、実世界で1万回もテストされたものです。例えばお湯を沸かすとき、物理的性質を深く理解しているので、何が起こるか正確にわかります。
何が起こっているのか、その理解とは何でしょうか?そして今、私たち人間はこれをFMに記述する必要はありません。しかし、次世代のAIは、私たちのコンピュータシミュレーションライブラリや世界中のインターネットからこれを簡単に学習します。ご存知のように、私たちはここでもより高い集約、より高い複雑性へのステップを踏み出しました。なぜなら、これらの追加の知識はすべて、数学的な公式、自然の法則とでも言いたければ、この計算コードにすでにエンコードされているからです。
素晴らしい。他に何か?ええ、デジタルトレイン表現は、これらの新しい特性、この新しい特徴量を、基盤モデルに適した形式でエンコードする基礎となる表現層として機能します。論文のほとんど20%しかお見せできませんが、論文の80%はご自身で読んでいただく必要があります。
ここで理解を深めるために奮闘し、彼らがどこにいて、次のステップでどのように改善したいのかを確認する必要があります。しかし、重要なのは、私たちは今、次のシステムに、ジオメトリ、ドメイン固有の制約の物理的特性についてすでに訓練してもらいたいということです。単にインターネットをコピーすることに頼りたくないのです。
それだけではもはや十分ではありません。ですから、私たちは合成データを生成したいのです。ええ、もちろんです。しかし、それらの合成データはRedditからでも、Twitterからでも、他のソーシャルメディアプラットフォームからでも、あなたのおじいさんからでもありません。それらの合成データは今、検証済みの物理学、医学、生物学など、あらゆるコンピュータシミュレーションから来ています。
次世代のAIは、検証済みのコンピュータシミュレーションコードから学ぶべきです。実世界は人間の言語的記述とは異なることを理解すべきです。私たちはこれを応用するでしょうし、彼らはすでに応用していると思いますが、あらゆる物理的オブジェクト、あらゆる物理的プロセス、またはあらゆる物理システムのこの仮想表現を、工学、製造業、ヘルスケアにおいて、プロセスの構造、物理的対応物を監視、分析、最適化するために応用するでしょう。そして、私たちは今、実世界の物理的プロセスと結果駆動型のレプリカについて話しています。
ですから、私たちのロボットを本当に野に放つ前、本当に人間と接触させる前に、次世代のAIがこの世界のすべての物理化学的プロセスをこれらのレプリカから学ぶ、この完全な仮想訓練キャンプに入ることは良いステップだと思います。なぜなら、そうすれば彼らは現実を学ぶからです。
もしかしたら別の視点が役立つかもしれません。わかりませんが、できるだけ多くのヒントを提供して、「なるほど、わかったぞ」と言ってもらえるように努めています。集中治療室、病院、クリニックでの行動の言語的記述は、何かがなぜ起こっているのか、何が起こっているのか、そこで行われている方法で行われることの主な原因は何かを学ぶための十分なデータではありません。
なぜなら、あなたには人間がいて、私たちは言語的、意味論的にコミュニケーションするだけでなく、他の人間、医師、サポートスタッフを見ればすぐにわかります。彼らは医学的状態などを理解するように訓練されています。ですから、あなたはすべての視覚情報を持っており、もしかしたら何らかの臭いの情報さえ持っているかもしれません。誰が気にするでしょうか?そして、あなたは最初からマルチモーダルな知識を持っています。
そして、もしかしたら、単なる言語モデルから始めるのは最善のアイデアではなかったかもしれません。しかし、もし今日、マルチモーダルな知識ベースから始めたとしたら、次世代のAI構造の中核のために異なる方法論を開発したかもしれません。これについてもっと知りたい場合は、これをお勧めします。
2025年3月末のものであることは承知していますが、これは生成AIの課題と機会に関するものです。非常に興味深い論文です。今日私たちが直面している限界についてもっと学びたいなら、強くお勧めします。
未来に目を向けてみましょう。ここでジャンプします。これは次のレベルの複雑さです。もしここでビデオを止めたければ、それで結構です。
問題ありません。これが主なメッセージでした。もしもっと先へ進みたいなら、もし「おい、この人の話をあと5分聞くほど私はクレイジーだ」と言うなら、今日何が起こっているか見てみましょう。私にとって、今日このビデオを録画している2025年5月7日、シャンハイ大学によって新しい美しい論文が発表されました。
著者の方々には申し訳ありませんが、お名前は発音しませんが、皆さんは美しいです。ここでの改善を超えて注目しています。これは非常に重要な定式化フレームワークであり、形式的問題解決のためのベンチマークです。これは、私のチャンネルではあまり言及してきませんでしたが、より良い科学、工学、問題解決、因果推論にとって非常に重要な部分です。
抽象的な観点、理論的な観点から問題解決について考えると、決して簡単ではありません。もし本当にそのための数学モデルを開発し、決定論的なモックアップ決定プロセスに実装したいのであれば、この論文はあなたのためのものです。美しいGitHubリポジトリもいくつかあります。見てみてください。
計算、方程式の解法、数学方程式の解法、反例構築など、あらゆるものを網羅しています。そして、AIの問題解決能力こそが、インテリジェントシステムの鍵だと私は考えています。他には何もありません。何かを解決するための計画を生成するだけです。問題を完全に解決できるようにするための行動計画をここで生成するのです。
現在、私たちはあなたが毎日L1、プロンプト、Pythonツール、アルゴリズム、ツールで行っている非形式的な問題解決を持っています。素晴らしい。しかし、次のステップははるかに美しいです。なぜなら、私たちは形式的な問題解決を持っているからです。そして、これが彼らがここで提案しているものです。演繹的な形式的問題解決メカニズムです。そこでは、彼らは、人間の言語だけではもはや十分ではないと言っています。私たちは、特定の人工的なコンピュータ言語、偶然にもLean 4と呼びましょうか、それらに基づいて動作する専用のLLMシステムを構築しなければなりません。そして、それらは定理証明器ソフトウェアです。
ですから、私たちはここに正式な解決策を持っています。コードをご覧ください。これらのシステムは、絶対に正しい解決策を思いつくことができます。ですから、もはやここで何らかのLLMに尋ねるようなことではありません。「ねえ、これが例だよ。どんなポケットコンピュータでもできるような数学計算をここでやってくれ」と。
しかし、私たちは今、真に複雑な数学的形式的問題解決アルゴリズムを目指しています。そして、彼らは今、独自のLLMを持っています。なぜなら、Lean、Lean 4と聞いたことがあるなら、ええ、それはすでに4番目のバージョンだからです。つまり、彼らは独自のシステムを開発するために、ここに数年間携わっています。ですから、これは私たちの通常のAIシステムに今、入ってくるだろうと思います。
これがあなたの次のAIに実装される次のステップであり、AIが突然、絶対的に正しい解決策を思いつくことが可能になったとき、あなたに何が起こっているのか、あなたは全くわからないでしょう。なぜなら、それはもはやここで何らかのマルチトークン表現でつまずいているのではなく、次のトークンを計算しただけではないからです。
いいえ、それは、私たち人間が過去、そうですね、5年、10年、15年の間に幾何学的、数学的なアイデア、形式的理論の改善についてすでに開発してきたものをここで使用しています。なんと美しいアイデアでしょう。ここに定義があります。彼らは問題とは何かという定義から始め、次に答えとは何か、ここでは何が充足可能かという定義があり、そして解決状態とは何かへと進みます。つまり、彼らは独自の言語を持つ完全な演繹的形式言語開発を行っており、もちろん、GitHubリポジトリも持っています。
ご覧のように、これは昨日設立されたばかりです。ですから、あなたがそこに行けば、すでにより多くのデータと、より多くのエージェントがあなたのために活動しているでしょう。本当に興味深いことです。これが次世代のAIに統合されれば、私はそれを夢見ています。ええ、Lean、もし馴染みがないなら、プログラミング言語であり、定理証明器のアイデアです。これがEIの不可欠な部分になれば、素晴らしいことになるでしょう。1日前、もし次のステップに進むなら、もし「オーケー、これは単純な数学的問題解決器だった。今度は次の抽象化、次の複雑さのレベルに進みたい」と言うなら、なぜなら私たちはこのビデオでただ歩き回るだけでなく楽しみたいからです。そこで、私はあなたにこう示しました。「もしあなたが理論物理学者で、自己学習AIとしてあなたに近づくときの期待理論の特異関数についてもっと学びたいなら、この記事が面白いと思うかもしれません」と。そしてここに、カーネギーメロン大学と北京大学からのものがあります。美しい。
ありがとう。さて、コンテキストからの新しい表現形式です。そして彼らはここに、非常に単純なアイデアの新しい美しい証明を持っていますが、そのアプローチ方法は絶対に興味深いです。そして彼らはこれをコンテクスチャと呼んでいます。私の投稿に短いコメントさえあります。もし見つけたら、ここで私の最後のビデオの内容と比較しています。そこでは、ICLとこのGoogleアルゴリズムを使ったLLM行動計画空間の最適化をお見せしました。そして私は言いました、「これは偶然ではないでしょうか?見てください、これは別の視点、別のパズルであり、今一緒になっているのです」と。
ですから、これは本当にAIの最先端であり、他には何もありません。そして、私はあなたに何かを尋ねます。これは本当に次のレベルのためのものです。量子力学における作用積分、経路積分のようなものが、私たちが扱っている目のこの解空間に現れる可能性が見えますか?
そして、もしその気になれば、量子EIに関するビデオがあなたを待っています。しかし、私たちがどこへ向かっているのか、そのアイデアは掴めたでしょう。
さて、先週の新しいDeepSeekモデルのリリースを見逃しましたか?いいえ、見逃していませんか?いいえ、V3の話をしているわけではありません。それはすべて美しいですが、あるモデルがありました。そして、オーケー、説明しなければなりません。私はDeepSeekが大好きです。
これは美しい方法だと思います。ええ、私のアメリカ人の友人たち、DeepSeek、私はOpenAIよりも少しDeepSeekの方が好きだと思います。なぜなら、彼らはオープンソースモデルを持っていて、それは素晴らしいからです。そして、彼らは先週、最新のモデルをリリースしました。これは先週のもので、彼らのモデルはDeepSeek Proverバージョン2モデルであり、ご覧の通り、15人が見ていて、誰もそれについて知りません。Proverは推論モデルではありません。
Proverはベースモデルではありません。Proverは視覚言語モデルではありません。Proverはまさに私たちが話したものです。Proverは、次世代のための次のステップにおける専用のLLMであり、オープンソースです。ありがとう、DeepSeek、オープンソース、素晴らしい。Lean 4での形式的な改善のために設計されており、不可能です。彼らはすでにこのLLMを持っているので、次のモデルDeepSeek R2を楽しみにしています。待ちきれません。なぜなら、彼らがこれをLean 4と統合すれば、
これは本当に興味深いモデルになるでしょう。なぜだか分かりますか?もし彼らの出版物「DeepSeek Pro:形式的数学的推論の推進」を読めば。そしてあなたは、「オーケー、これは単なる数学的推論だ」と言うかもしれません。いいえ、これは推論の変化、私たちがすべての因果推論に対して持っている新しいパラダイムです。金融、医療、ロジスティクス、生産、工学のすべてです。
これは、サブゴール分解のための強化学習を介して、どこでも使用できます。再び、私の最後のビデオのトピックの1つです。なんて偶然でしょう。最近、すべてがうまく収まっています。Deep AI、美しい、美しい論文です。そして、彼らはここで美しい例を挙げています。もし馴染みがなければ、何が起こっているのか、なぜ彼らがこれを必要としているのか、なぜ彼らがLean 4に依存しているのか、そしてトレーニングをどのように行うのかをここで教えてくれます。
ここにはDeepSeekバージョン3モデルがあります。素晴らしい。Leanステートメントでこれを形式化する最新のモデルです。次に、分解されたサブゴールを解決する承認モデルがあります。すべてを合成された証明にまとめ、次にこれをDeepSバージョン3の元のソートの連鎖に追加します。そして、もし彼らがR2をトレーニングする前にこれをやったとしたら、これは何か美しいものになるでしょう。
ですから、今何が起こっているかわかりますね。EIは著しく発展しています。もはや言語トークンに基づいたものはありません。今や、AIシステムの開発、元のソートの連鎖、ソートの木、あるいは次にハイパーグラフのソートの連鎖を行う人の開発に統合された、新しい形式的なティア改善器があります。
ですから、次世代AIの開発軌道はすでに設定されています。そして、私が次世代について話すとき、私は希望に満ちています。なぜ希望に満ちているか分かりますか?なぜなら、私はこれをほんの2時間前に読んだばかりで、Google DeepMindとワシントン大学による新しい研究もあり、彼らは私に教えてくれました。私はこれについて全く知りませんでした。そして、あのOpenAIボードのウィンドサーフィンが興味深いものだと思っていましたが、忘れてください。
興味深いのは、7歳の子供向けのコードエディタとコードジェネレータが今あるということです。そして、もしここで「続きを読む」をクリックすると、これに関する私の個人的な意見があり、それは単純に素晴らしいと言わざるを得ません。7歳の子供が今、AIコードエディタを持っています。なぜなら、彼らはここで、ヒューマンコンピュータインターフェースとUIインターフェース定義に関するベストプラクティスに従って、AIを使った若者の創造的なコーディングをサポートするスクラッチコパイロットを開発したからです。
まったく、もしあなたが7歳の子供の父親であるか、あるいは7歳であるなら、あなたの年齢層、あなたの特定の年齢、7歳のために特別に設計されたAIコードエディタが今あり、好きなものをコーディングするのを手伝ってくれます。そして、ここでのトピックは子供たちのためのプログラミングの民主化です。そして一方では、あなたが世界のどこにいようと、幼い子供であり、もしかしたら一流の学校やどんな学校にも通う余裕がないかもしれないのに、インターネット上でコーディングを学ぶことができ、7歳向けに設計された特定のAIコードエディタがあり、すぐに始めることができるというのは素晴らしいことだと思います。
ですから、これは素晴らしい。これは驚くべきことです。これは本当に次世代を、理解、コーディング、論理、因果推論、そしてAIプログラミングにおいて、信じられないほど前進させています。わあ。
しかし、その一方で、7歳の子供は外に出て遊びたいことをする自由を持つべきだと思います。しかし、もし本当に学びたい、本当にコーディングに興味があるなら、今日のテクノロジーの可能性は本当に無限です。
ねえ、もしかしたら面白いと思ったかもしれません。もしかしたらチャンネル登録するかもしれません。もしそうなら、次のビデオでお会いしましょう。


コメント