Grok 5はxAIの最大のブレークスルーになる可能性がある 誰もこれに気づいていなかった

イーロンマスク・テスラ・xAI
この記事は約13分で読めます。

xAIが開発を進めるGrok 5は、再帰的自己改善を実現する可能性を秘めたAIモデルとして注目を集めている。イーロン・マスクの発言を誇大宣伝と見る向きもあるが、xAIを離れた複数の元社員が相次いで継続学習や自己改善ループについて言及しており、技術的ブレークスルーの存在を示唆している。特にAdamオプティマイザーの共著者であるJimmy Baは、今後12ヶ月以内に再帰的自己改善ループが実現する可能性を指摘した。OpenAIのGPT-5.3 Codexが既に自己開発に貢献していることや、GoogleやMetaも継続学習の研究を進めていることから、AI業界全体が自己進化する次世代モデルへの移行期を迎えていることが窺える。Grok 5が真に継続学習を実装すれば、AI開発の速度は人間の追従を許さないレベルまで加速する可能性がある。

Grok 5 Could Be xAI’s Biggest Breakthrough Yet - Nobody Noticed This
🎓 Learn AI In 10 Minutes A Day - your Free AGI Preparedness Guide - 🐤 Follow Me on T...

イーロン・マスクのxAIは再帰的自己改善AIを生み出したのか

イーロン・マスクのxAIが再帰的に自己改善するAIを作り出したのでしょうか。この話について詳しく見ていきましょう。

最新のGrok 4.2のアップデートによって、多くの人々がこのモデルは一体何なのか、何をしているのかと疑問に思っていました。そして私はかなり興味深いことを発見したんです。

この投稿を見てみると、イーロン・マスクが新たな妄想を共有していると言っている人もいますが、いろいろ調べてみたところ、それは真実とはかけ離れていることが分かりました。

ご存知かもしれませんが、イーロン・マスクはGrok 4.2エージェントをリリースしました。これは協力して結果を導き出す約4つの異なるエージェントです。非常に興味深いのは、イーロン・マスクがこのモデルの基盤は毎週改善できるようなものだと述べていることです。つまり再帰的な知能の成長が強力になるということですね。

この点で興味深いのは、イーロン・マスクのツイートを見ると4.2の基盤は毎週改善できるようなものだと書かれていることです。つまり再帰的な知能の成長が強力になるということです。ここで引用ツイートを見ると、彼が何を意味しているのか完全には分からないが、おそらく厳密な意味での継続学習ではないだろう、つまりデプロイされたモデルが時間とともにライブで重みを更新するというものではないだろう、おそらく高速な反復ループのことだろうと書かれています。

実際のRedditの投稿を見ると、イーロン・マスクが妄想を示していると書かれており、これは完全に理解できます。なぜならイーロン・マスクは頻繁に特定のタイムラインを少し誇張する傾向があるからです。つまり、彼は多くのことが起こると言ってきましたが、まだ実現していないものもあります。

ですから彼がAIについてこう言っても、それは変わらないかもしれません。しかし実際にこの発言に関するすべての情報を見てみると、実はこの発言が偽りというより真実である可能性を示しているんです。

xAI元共同創業者Jimmy Baの証言

では、ここで実際に何が言われているのか正確に見ていく必要があります。Jimmy Baが、これがxAIでの最終日だと言っているのが分かります。

Jimmy BaはxAIで働いていた人物で、共同創業者だったと思います。最も興味深いことはここから来ています。彼はそこで働けて興奮していた、人類を前進させたと述べています。しかし私が強調した部分を見てください。彼は「適切なツールがあれば、私たちは100倍の生産性の時代に向かっている」と述べ、「再帰的自己改善ループは今後12ヶ月以内に実現する可能性が高い」と言っています。これはxAIを去る直前に彼が言ったことなんです。

覚えておいてください、再帰的改善ループとは基本的に、AIシステムが自分自身を改善し、その改善されたバージョンを使って再び自分自身を改善することができる、つまり複利効果を生むループを作り出すということです。

基本的なサイクルはこうです。AIモデルが自分自身のより良いバージョンの設計や訓練を手伝い、そのより良いバージョンは設計や訓練においてより賢くなります。そして次のイテレーションはさらに速く改善されます。これを繰り返すと、人間が追いつく能力を超えて加速する可能性があるんです。

現在のところ、人間は依然としてAI開発における主要なボトルネックです。研究者が実験を設計し、結果を解釈し、コードを書き、評価を実行しています。ここでの主張は、12ヶ月以内にこれらのAIシステムが人間を全く必要とせずに、このループ全体を自律的に実行するようになるということです。本質的にAIが研究を行うということですね。

これはかなり興味深いことになると思います。なぜなら、もちろん彼はこれが最も忙しく重大な年の一つになるだろうと言っていたからです。そして覚えておいてください、これは信じられないほどの信頼性を持つ人物です。彼はただの誰かではありません。彼は元々のAdamオプティマイザーの共著者の一人であり、最も引用されている機械学習論文の一つです。そしてもちろん、先ほど言ったように、彼はxAIの創設メンバーでした。

ですからこのツイートや報道がされたのはそういう理由なんです。イーロンがここで何かのタイムラインを誇大宣伝しようとしているわけではありません。Jimmy Baが実際に、再帰的改善ループは今後12ヶ月以内に実現する可能性が高いと述べているのが分かります。

xAI従業員たちの証言

実際に私はイーロン・マスクの他の従業員を調べ、彼らが何をツイートしているかを見て、情報を解読することにしました。xAIの他の従業員たちは基本的に継続学習の問題について話しており、再帰的自己改善が遠くないと述べています。

これらすべてから、イーロン・マスクのチームがどこかで何らかの方法で、どうやったのかは分かりませんが、自己改善を可能にする何らかの改善を行ったと私は信じるようになりました。

基本的に、これはShant Patelという人物で、xAIで働いていた、あるいはかつて働いていた人ですが、もう働いていません。彼は実際に次のように述べました。これは彼が去る前のことですが、継続学習は主にコンテキスト圧縮の問題だと。

無限のマルチモーダルビットストリームを密で再利用可能な学習表現に圧縮することは、このようなシステムを現実世界に展開する上で極めて重要です。統一された学習表現を構築することは、安全で信頼性の高い方法で現実世界から継続的に行動し学習できるAIを作成するために必要になるでしょう。

これは非常に興味深いです。なぜなら彼が説明している問題は、現在のAIモデルが基本的に時間の中で凍結されているということだからです。訓練が終了すると、重みは完全にロックされます。ゼロから高価な再訓練を完全に行わない限り、新しい経験から学ぶことができません。

あなたがAIと行うすべてのやり取りは、その直後に忘れられてしまいます。知識の蓄積もなく、成長もありません。

ここでコンテキスト圧縮が実際に意味するのは、現実世界の1秒1秒がデータの消火ホースのようなものだということです。ビデオ、オーディオ、テキスト、センサー、すべてが同時に。これがマルチモーダルビットストリームです。問題は、そのすべてを永遠にAIに注ぎ込むことはできないということです。

計算上不可能です。ですから本当の問題は、その洪水をどうやって圧縮して、実際にモデルの重みに定着するコンパクトな学習表現にするかということになります。

何かを経験して本当にそこから学ぶ人間と、何が起こったかのトランスクリプトを読んでから即座にメモを失う人間の違いを考えてみてください。

統一学習表現の重要性

そして統一学習表現が重要な理由は、現在のモデルは画像、テキスト、ビデオを処理するための別々のシステムを持っているからです。真の継続学習には、それらすべてを一緒に吸収できる一つの統一された表現が必要です。なぜなら現実世界はそれらすべてを分離していないからです。

そしてもちろん、イーロン・マスクは基本的に「的中」と言っています。それがxAIが構築しようとしていたものです。継続的に生き、現実から学ぶAI。TeslaのOptimus、自律システム、Xのリアルタイムデータストリームと統合されたGrok。これらすべては、まずその問題が解決される必要があります。

これを見てください。xAIで働いていた別の誰かが、退職してxAIを去った他の人たちと何かを構築していると言っています。

実際にxAIを去ったRolandが新しい会社を立ち上げました。そして彼らが何に取り組んでいるか、あなたは絶対に当てられないと思います。ここを見てください。

xAIで働いていた人たちです。はっきり分かりますし、もしxAIが何らかのブレークスルーを起こし、AI能力において明確な進歩を遂げたことに懐疑的だったなら、これがそこで働いていたRolandからの声明です。

彼は言います。「xAIでの時間の間、私は測定可能な方法で定義できるあらゆる問題に対して山登りする明確な道筋を見ることができました。同時に、エージェントハーネスに導入された最も微細な人間のエラーによって、生の知能がどのようにロボトミー化されるかも見てきました。勾配は流れなければなりません。学習はモデルの重みで止まるべきではなく、AIシステムのあらゆる部分を改善し続けるべきです。今日、私はNeurolineを立ち上げます。これはAIネイティブソフトウェアが継続的に自己改善することを可能にする欠けていたインフラストラクチャです。」

つまり、もしこれが最大の、明らかに彼らはAIで自己改善する何らかの方法を見て、おそらくそれを実装しようとしているのでなければ、他に何があるでしょうか。もちろん、イーロン・マスクはAIについてかなり興奮していますが、3〜4人の従業員全員が再帰的自己改善について話しているとき、彼らが何かを解明した可能性があることは非常に明確だと思います。

OpenAIのGPT-5.3 Codexにおける自己改善

さて、他の会社も見ていきましょう。これを含めている唯一の理由は、かなり興味深いからです。GPT-5.3 Codexについて、OpenAIが基本的に、これが自分自身の作成に貢献した最初のモデルだったと述べているのが分かります。

Codexチームは初期バージョンを使用して、自分自身のトレーニングをデバッグし、自分自身のデプロイメントを管理し、テスト結果と評価を診断しました。そして彼らのチームは、Codexが自分自身の開発をどれだけ加速できたかに圧倒されました。

これが人々が話していることです。コードが十分に良くなれば、モデルは自分自身を改善できるようになるということです。

2025年の終わり、つまりほんの数ヶ月前に、私たちは本当に全く新しいパラダイムあるいは技術の時代を始めたと思います。それは本当に再帰的自己改善の時代の始まりです。

そして私たちは本当にモデルの開発においてこれを見始めていると思います。主要な研究所のほとんどが彼らのモデルの開発においてこれを見ていると思います。つまりモデル自体が次のAIを生産するプロセスを加速する上で重要な役割を果たすようになったということです。

ですから外から見ると、全体的な開発速度の加速、新しいモデルがリリースされる速度の加速が見えるかもしれません。内部的に私たちが見ているのは、単に劇的なスピードアップです。個々の研究者の生産性が劇的に向上したと思います。そしてそれが止まるとは思いません。この再帰的自己改善の時代は、すべてが加速しているように感じられるでしょうし、技術は非常に速く発展し続けると思います。

2026年は再帰的自己改善の年になるのか

Peter Diamandisが述べたことを見てください。もし2026年の再帰的自己改善の予測が真実なら、私たちが持つすべての予測曲線は劇的に加速し、すべてのガバナンスフレームワーク、すべての安全プロトコル、規制アプローチはすでに時代遅れになります。私たちはロケットになろうとしている車のためにレンガを積んでいるのです。

ここで見られることを見てください。Gary Tanは言います。「最先端が再帰的自己改善に飛躍しているのを見るのは驚くべきことだが、現実世界の開発者の大多数はまだ本番環境でのバイブコーディングに対してさえ懐疑的だ。」

彼がここで言っているのは、私たちが2つの並行世界に生きていることがいかにクレイジーかということです。一方では、再帰的自己改善と言っている人々がいますが、他方では、バグやバイブコーディングで言及されている他のすべての問題のために、これらのコーディングツールを使うことさえ懐疑的な人々がいます。本当に非常に興味深い時代です。

もちろん、世界経済フォーラムでのDario Amodeiは基本的に、6〜12ヶ月後には、おそらくClaudeがソフトウェアエンジニアがエンドツーエンドで行うすべてのことを行うようになるだろうと述べました。

もちろん、それが真実なら、それがAI開発にどう影響するかを見るのは非常に興味深いでしょう。

コードを書くモデルに関して言えば、Anthropic内のエンジニアたちが「もうコードは書いていません。モデルにコードを書かせているだけです。それを編集して、周辺のことをやっているだけです」と言っています。6〜12ヶ月後には、モデルがソフトウェアエンジニアがエンドツーエンドで行うことのほとんど、おそらくすべてを行うようになるかもしれません。そしてそのループがどれだけ速く閉じるかという問題になります。

私が見つけた別の一連のツイートを見てください。開発者のHaididerがDeepMindの研究者が2026年が継続学習の年になると予測していたという事実についてツイートしました。彼が4回別々の機会にこれについてツイートしているのが分かります。そして非常に興味深かったです。

彼は継続学習で大きな進歩を遂げるだろうと述べました。おそらく実際には2回だけツイートしたのかもしれませんが、Googleもネステッドラーニングの紹介という論文をリリースしたという事実を見ると、これは継続学習のための新しい機械学習パラダイムでしたが、これも非常に非常に興味深いものでした。

破滅的忘却への取り組み

ネステッドラーニングを見るのはかなり興味深いです。これは破滅的忘却の問題を完全に回避する新しいアプローチです。破滅的忘却とは、新しいタスクを学ぶと基本的に古いものを忘れてしまうというものです。そしてもちろん、その分野に取り組んでいるのはGoogleだけではありません。

xAI、Googleがあります。そしてもちろんMetaもあります。彼らの論文「継続学習」は、スパースメモリファインチューニングによる継続学習で、新しい知識によって高度に活性化されるメモリスロットへの更新を選択的にターゲットにすることで、この破滅的忘却に対抗します。そしてこれは本当に本当にもっと効果的です。

全体的に、私たちは基本的にこれがかなりクレイジーだと見ています。そして皆さんにお見せしたいのは、Lex Friedmanのポッドキャストのクリップも見つけたんですが、そこでAIの現状について話していて、cursorがブログ投稿で継続学習について何か簡単に言及していたことに触れていました。ほとんどの人はこれを見ていないと思いますが、見てください。非常に興味深かったです。ただ見てください、かなりクレイジーだから。

継続学習などについて話しました。彼らはブログ投稿で最も興味深い2文のようなものを持っていました。それは彼らが新しいcomposerモデルを持っていたということで、それは中国のこれらの大規模な専門家混合モデルの一つのファインチューンでした。

モデルが時々中国語で応答するのでゴシップに聞けば分かります。アメリカのモデルではこれをするものはありません。そして彼らは「使用している人々からの実世界のフィードバックに基づいて90分ごとにモデルの重みを更新している」というブログ投稿を持っていました。これはモデル上で起こっている実世界のRLに最も近いものです。

ですからここで分かるように、Grok 5はほぼ即座に学習する何かになるのでしょうか。イーロン・マスクがこのモデルに取り組んでいることは分かっています。イーロン・マスクと言いましたが、もちろんイーロン・マスクのxAIです。もちろん研究者たちの功績を否定しようとしているわけではありません。

これは昨年の早い時期、あるいは後の時期の別のツイートです。そして彼は動的強化学習が重要だと述べています。Grok 5は賢い人間のようにほぼ即座に学習するでしょう。

xAIで彼らが継続学習の瀬戸際にある何かを解明したかもしれないことは非常に明確だと思います。異なるツイートを見てきました。AIを去った人々が実際に自己改善するAIエージェントに取り組んでいるスタートアップに行ったのを見ました。イーロン・マスクがこれについて何度も異なる機会にツイートしているのを見ました。

それだけでなく、これについても積極的に語る新しい研究論文が発表されているのを見ました。

Grok 5の未来

ですから、もしそれが真実なら、Grok 5はどのようなものになるのでしょうか。スタック全体にわたって彼らがどのようにAIを統合し、どのような結果を得るのかを見るのは非常に興味深いでしょう。

ですから、これを妄想だと思うか真実だと思うかに関わらず、一つ確実なことは、未来は非常に非常に興味深いということです。

それでは、また次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました