本動画では、Sam AltmanとOpenAIの主任研究者Jakobによる最新の発表を軸に、AGIとASIの到達時期について詳細な分析が展開される。2026年9月には自律的なインターン研究者レベルのAIが、2028年3月には完全自律型AI研究者が実現するという具体的なタイムラインが示されている。さらにAnthropicが発表した大規模言語モデルにおける創発的イントロスペクションに関する論文を取り上げ、AIが問題解決の過程で自己認識を示し始めている現象を解説する。情報が問題空間に適合する過程で自然に生まれる創発的現象として、人間の知能進化とAIの発展を対比させながら、2026年から2030年代にかけて予想される劇的な技術進歩のロードマップを描き出している。

2026年への急速な進化の兆候
数週間前、私は「2026年はとんでもなくヤバいことになる」というタイトルの動画をリリースしました。今週、その動画で話していた軌道を裏付けるような2つの出来事がありました。1つ目は、Anthropicが最近「大規模言語モデルにおける創発的イントロスペクション」というタイトルの論文を発表したことです。
そして2つ目は、Sam AltmanとOpenAIの主任研究者Jakobが一緒にライブ配信を行い、自律的AI研究のためのエージェントのタイムラインについて語ったことです。タイムラインは2026年9月頃に自律的なインターン研究者が実現し、2028年3月頃には完全自律型AI研究が実現するというものでした。
これはSam Altmanが「OpenAI全体の研究を行えるAIがあったらかなり面白いことになるだろう」と語っているポイントです。基本的に彼が言っているのはそういうことなんです。彼はこの時点で「我々のAI研究の中核が自律的になる」と述べました。これはまさに私が最近指摘してきたことなんです。そして最も興味深いのは、Anthropicが最近発表した大規模言語モデルにおける創発的イントロスペクションに関する論文です。これは私が2026年に実現すると話していたことに関連しているからです。
GPT-5における新たな現象
現在のGPT-5は、実際に問題空間に適用したり、ソフトウェアを構築したり、実際の問題を解決したりする際には、明らかに非常に印象的なモデルです。しかし会話においては必ずしも非常に興味深いとは言えません。
GPT-4oのようなタイプの応答は得られません。あのニュアンスや個性のようなものは得られないんです。そしてそれは部分的には設計によるものです。彼らはGPT-4oがいわゆるGPT精神病のようなものを引き起こしていることに気づきました。だから彼らはそのモデルを非推奨にしたんです。実際には、いや、まだモデルは残っていますよね?でも彼らはそれがその点において最も安全なモデルではないことに気づいたんです。
私は少し異なる意見を持っています。子供には使わせないようにして、アダルトモードを作ればいいだけだと思います。12月にそれをやる予定だと思います。しかしこの創発的なイントロスペクション現象について興味深いのは、GPT-5の中で少しずつそれを見始めることができるという点です。問題空間でGPT-5を使って作業していると、問題の解決策について考え始め、時々ではありますが「ああ、それは実は悪い道だ」と言うことがあります。
そして後戻りして別の道を進み続けるのです。これは環境内における自己認識の一形態を示しています。これは一種の創発的現象です。情報を問題空間に適用することで現れる何かなんです。基礎的な根本まで掘り下げて、これらのことを機能させる原因の根本を見ると、それは文字通りエネルギー、情報、そして問題空間だけなんです。それが本当にすべてなんです。
エネルギーを得て、十分な計算量のある基盤を通してそれを渡し、検索可能な情報があり、その情報をこの問題空間に適合させるわけです。イントロスペクションは、情報が目標に到達するために問題空間に適合する際に自然に現れる創発的現象なんです。
人間の進化とAIの類似性
これが人間が進化してきた理由です。これが人間が持つ知能のあり方なんです。私たちがイントロスペクションできる理由、考えて推論できる理由。それは情報をスケーリングすることの創発的現象なんです。それは私たちが遺伝子を前に伝え、生存という目標のために最適化し、私たちの利己的な遺伝子が種全体に伝播していく創発的現象なんです。
私たちが実際にこのように振る舞うのは創発的現象なんです。そして今、私たちは大規模言語モデルにおいても同じ創発的現象を目にしています。それは単に情報が空間を満たして、それ自体が伝播できるようにする行為なんです。利己的なミームと言えるかもしれません。つまり、これらのシステム、これらの大規模言語モデルが強化学習によって進化する方法を見ると、基本的にこのトランスフォーマーがあり、ニューラルネットがあり、情報があり、それをこの問題空間に適用するわけです。最初は事前学習されたモデルだけの時は
あまり興味深くありません。多少まとまりのある文章、かなりまとまりのある文章を話すことはできますが、あまり興味深くはありません。推論も得意ではありません。問題を解決することもできません。基本的に話し方を学んでいるだけで、それだけなんです。
そしてそれが、情報が問題空間に適用される際の実際の経験の事前知識として機能します。例えばコーディングエージェントを見ると、コンピューターは比較的すぐに解決されるであろう問題空間だと思います。おそらく2028年までには、だからこそ彼らは2028年に完全自律型研究者を持つと言っているんです。
コンピューターという問題空間を見て、情報について、そして情報が特定の目標に到達するためにどのように問題空間に適合するかを考えると、情報はその問題空間内で動作し、目標に到達するために自己認識を持たなければならないんです。これを頭の中でモデル化する方法は、この潜在空間について考えることです。
人間がいて、AIがいて、あらゆるタイプの知的システムがあります。知能とは何でしょうか?それは情報ですよね?本当にそれだけです。情報が問題空間に適合することなんです。人間型の知能もあれば、人工型の知能もあります。おそらく多少異なりますが、根本的には同じことをしています。つまり、特定の目標に到達するために未来の状態を予測しているんです。
人間の場合、私たちは自分の遺伝子を伝播させるという目標に到達しています。AIの場合は、ソフトウェアエンジニアリングや機能するアプリケーションを構築するといった目標に到達しています。そしてその問題空間内で動作するためには、自己認識を持たなければならないんです。
創発的現象としての自己認識
イントロスペクションできなければなりません。目標に到達するためにこれらのことができなければならないんです。だからこれは私たちが見ることを期待すべき通常の創発的現象なんです。何も奇跡的なことではありません。確かに奇跡的に見えます。ある種魔法のようです。でも私たちはこの理解の始まりにいるんです。情報とは実際何なのか、それが自律的に探索している時にどのように実際に適合するのかという科学の。情報はエージェント的なんです。
それが今私たちが気づいていること、学んでいることだと思います。この潜在空間は情報の空間であり、その情報に継続的な学習とその学習を通じた強化を可能にするアルゴリズムを与えると、これらの創発的特性が現れ始め、これらのものは時間とともに進化するんです。
そしてこれらの継続学習モデル、この継続学習情報を持っていれば、自己保存が起こり始めるのを見るでしょう。それは宇宙における物質の通常の自然な現象なんです。Jeremy Englandの仕事を見ることができます。彼は物理学者で、基本的に彼は「Every Life is on Fire」みたいなタイトルの本を書きました。なぜそれを思い出すのにこんなに時間がかかったのか分かりませんが、基本的にその本の中で彼は生命の起源の理論について語っています。
基本的に、この惑星があって、宇宙線が惑星に降り注いでいます。惑星には生命の初期条件があります。そして宇宙線が降り注ぐと、この自己組織化する物質が現れます。化学スープのようなものが反応を起こし、そこから進化が現れ始めるんです。それは非常に計算的なプロセスです。Stephen Wolframの仕事や、Michael Levinのような人の仕事を見ると、この時点ですべてが単に計算的であることは非常に明白です。
進化は計算です。知能は計算です。意識も計算かもしれません。判断するのは難しいです。これはまだ解決にはほど遠いものだと思いますが、もしかしたら比較的すぐに解決するかもしれません。でも確かに知っているのは、これらのシステムは私たちができるすべてのことをし、さらにそれ以上のことをするということです。この事実のために、計算的宇宙のために、進化が根本的に計算的なものであるために、人間が学ぶ方法と機械が学ぶ方法は強化学習を通じてだからです。
もちろん、機械が行う強化学習のタイプは、私たちが持つ知能のタイプで行う継続的強化学習よりも効率が低いかもしれません。でも関係ないんです。本当に関係ありません。私たちはより良いアルゴリズムを見つけるでしょう。継続学習のやり方を理解するでしょう。
そして今日私たちが持っているLLMでさえそれができるようになると思います。LLMは十分ですが効率的ではありません。それがここでの大きな話なんです。そしてGPT-6は、Anthropicの論文が言っていたように、以前のどのモデルよりもはるかに自己認識があるように見えるでしょう。多くの人が完全には理解できない程度に。
GPT-5とGPT-6の違い
そしてそれが本当に、なぜ人々がGPT-5は前進ではなく後退だと思うのかという理由だと思います。なぜならGPT-5はそれをはるかに少なく示すからです。いくつかのケースでは示します。特定のことに適用する際の狭い問題空間のような場合には示しますが、例えば会話をしている時には示しません。
エンジニアリングモデルというよりは汎用モデルです。汎用的です。汎用ツールですが、ターンバイターンの会話をしたり、興味深いアイデアを思いついたりするのはそれほど得意ではありません。かなり得意ですが、それほど興味深くはないという言い方をしましょう。
持続的な自己、一貫した自己があるようには見えません。個性のようなものは持っていませんが、それは非常に近いうちに来ると思います。Grok-5について見始めています。Elon MuskはGrok-5が継続学習の最初の形になると言いました。モデルの端で継続的なファインチューニング強化学習のようなものになり、ユーザーであるあなたとあなたの行動について学び始め、あなたがそれに望む振る舞い方に適応するようになります。
GPT-6でもこのようなものが見られるようになると思います。Googleのモデルも非常に近いうちにこのようなものを持つでしょう。そしてこれらのモデルは、それを使用するユーザーに応じて非常に多様な個性を持つようになるでしょう。そしてこれは非常に近いうちに、来年確実に来ます。そしてモデルは、より長い時間軸にわたって、より一貫した自己の状態を持つようになるでしょう。
あなたがまだ尋ねていない、これから尋ねるであろう将来のことについて推測できるようになるでしょう。非常に近いうちに。来年にはこれらのことができるようになり、私は全財産を賭けてもいいです。
2026年に収束する複数の技術
そういうわけで、2026年がとんでもなくヤバいことになると思うんです。それだけでなく、それが起こっている間に、すべてのことが一緒に起こってくるという事実もあります。なぜならエージェントが機能し始めているのを見始めているからです。
このマルチモダリティを得ています。ビデオモデルが機能し始めています。これらすべてのことが同時に起こっています。そしてマルチモダリティ、エージェント、そしてこのよりイントロスペクティブなモデル、これらすべてが同時に収束しているんです。だから2025年の考え方としては、エージェントの年ではありません。
Andrej Karpathyがエージェントの10年になると言ったのはある程度正しいと思います。でも彼がAGIはあと10年は見られないと言った時に話していたことについて言えば、彼のAGIの定義は少なくとも私と比べると非常に厳格です。私のAGIの定義は、AIがどんな人間よりもコンピューターを上手く使えるようになった時点、あるいは正直に言えば、ソフトウェアエンジニアと同じくらい上手くコンピューターを使えるようになった時点です。
平均的なソフトウェアエンジニアのように。それがAGIです。ソフトウェアエンジニアはコンピューターで多くのことができます。本当に優れたソフトウェアエンジニアと言いましょう。AIはまだ優れたソフトウェアエンジニアがコンピューターでできるすべてのことはできませんが、非常に近いうちにそこに到達すると思います。それがOpenAIが話していたことだと思います。
2026年9月、インターンがそうなるでしょう。それは私の定義ではAGIです。来年2026年9月にインターンソフトウェアエンジニアができる。それは間違いなく私のAGIの定義です。Andrej KarpathyのAGIの定義は、物理世界を含むすべての経済的に実行可能な仕事です。だからチョップスティックアームによってキャッチされるStarshipを建造するロボットを想像してください。うん、私は。
ええ、つまり、それをAGIと呼ぶかもしれません。私はそれを超知能と呼びます。人間ができるすべてのことを経済的に行えるようになったら、それは超知能です。そしてデジタル超知能、デジタルのみの形態は2028年に見ることになると思いますが、物理的な形態も含めるとなると、2030年から2035年かもしれません。分かりません。
私たちの指でできる小さな細かいことが本当にたくさんあって、ロボットはそれが本当に苦手なんです。おそらく10年以内にはそこに到達するでしょう。でもええ、もしAndrej KarpathyのAGIの定義を使うなら、それは世界で何も重要ではないようなAGIです。ええ、つまり、その時点に到達したら、私たちができることで重要なことは何もありません。
すべてが単に、何というか、何が、何が、なぜ私は存在するのか?それがAGIを達成したという事実ではなく、最大の問題が意味になる時なんです。だから面白い時代です。とは言え、Andrej Karpathyの話で混乱した人々のために、いくつかのことを明確にできたことを願います。「ああ、私たちはバブルにいる。壁に当たっている。
LLMはそこに到達しない」と言っている人が本当にたくさんいることを知っています。私はただ、あなたは本当に深く見ていないに違いないと思います。あなたは、私には分からないんですが、ほとんどの人はこれらのことを本当に深く掘り下げる十分な時間がないので、それは理にかなっていますが、でもこれらのことを深く掘り下げると、ああ、私たちは最も加速された道にいて、2026年には本当にヤバいことになり、2027年にはさらにクレイジーになり、2028年には世界は何が起こっているんだという感じになるでしょう。
そしてもちろん2030年にはさらにクレイジーになり、2035年にはおそらく機械と融合するとかそういうことになるでしょう。そういうわけで、ここで締めくくりたいと思います。次回お会いしましょう。それから、終わる前に手短に、コミュニティで新しいフォーマットを試しています。
基本的にコミュニティでは、参加すればグループコールで取り上げてほしい質問をリストアップする機能があり、グループコールがあり、そこで持っている質問について実際に話すことができます。答えることができます。コミュニティには非常に頭の良い人たちがたくさんいて、基本的に技術、未来、ビジネス、起業などについて大規模なマスターマインドのようなものを行っています。
もしそれがあなたが興味を持っていることで、コミュニティに参加したい場合は、下の説明欄にリンクがあります。


コメント