Sam Altmanが知能爆発の正確な日付を明らかにする

AGI・ASI
この記事は約9分で読めます。

OpenAIが企業再編を完了し、Microsoftとの新たな契約を締結した後、Sam AltmanとJakob Pachockiが行ったライブ配信で、AGI(汎用人工知能)実現の具体的な時期について驚くべき予測を明らかにした。2026年9月にはインターンレベルのAI研究アシスタントが、2028年3月には本格的な自動化AI研究者が実現するという極めて具体的なタイムラインが示された。この自動化AI研究者の実現は知能爆発の引き金となり、その後急速に超知能へと到達する可能性が高い。OpenAIは現在1.4兆ドル規模のインフラ投資を進めており、ギガワット級の工場建設計画も進行中である。また、思考連鎖の忠実性という新しいアプローチを通じて、AIの内部思考プロセスを理解し、整合性を保つ取り組みも紹介された。Sam Altmanは、Soraなどの製品における依存性の問題についても懸念を表明し、過去のソーシャルメディア企業と同じ過ちを繰り返さないことを誓った。OpenAIの新しい組織構造では、非営利団体であるOpenAI Foundationが公益法人であるOpenAI Groupを統括し、26%の株式を保有する形となった。

Sam Altman reveals exact date of intelligence explosion
Experience the future of design workflow with Recraft's Chat mode. Join the waitlist for free here: One ...

OpenAIが示した具体的なAGI実現のタイムライン

私たちは、来年の9月までにインターンレベルのAI研究アシスタントのようなものを実現し、2028年3月までには本格的なAI研究者を実現できると考えています。これが私たちの研究プログラムの中核的な推進力となっています。

OpenAIは企業再編を完了したばかりです。Microsoftとの全く新しい契約を結び、パートナーシップを継続しています。そして彼らはライブ配信を行いました。ここからが重要なのですが、Sam AltmanとJakob PachockiがAGIの正確な日付を明らかにした素晴らしいQ&Aセッションを行ったのです。こんなに正確な日付を示すとは信じられませんでしたが、実際にそうなりました。このライブ配信全体を皆さんのために詳しく解説していきます。

そして今回のビデオのスポンサーであるRecraftに大きな感謝を申し上げます。詳細は後ほどお伝えします。

まず、彼らのタイムラインを見てみましょう。これをご覧ください。現在は2025年10月です。そして2026年9月という非常に具体的な日付があります。彼らが説明する自動化AI研究インターンです。基本的には、AI研究を促進するのに役立つかなり優秀なAI研究者ということです。

しかし、ここからが驚くべきことなのです。2028年3月です。彼らがこれほど正確な日付を出せた理由を想像するのは難しいのですが、自動化AI研究です。

もし状況認識に関する論文の知能爆発のタイムラインを思い出すなら、それは実際にOpenAIが予測しているのとほぼ正確に同じ時期に来ていました。しかし、自動化AI研究を実現した時点で、AIの加速は私たちがどれだけの計算資源を投入できるかによってのみ制限されることになります。それがここで示されている知能爆発が起こる時期なのです。そしてその直後に、急速に超知能に到達することになります。

これこそがOpenAIという研究所が目指しているものなのです。そして私は、これがすべてのフロンティア研究所が目指しているものだと思います。つまり、自己改善する人工知能に最初に到達した者が勝つのです。他のすべての者は負けます。

なぜなら、一度自己改善AIに到達すると、それは再帰的になるからです。それは自身の改善を改善し、改善の速度が増大します。そして一度それに到達したら、他の誰がどうやって追いつくことができるでしょうか。

だからこそMark Zuckerbergは数千億ドルを誤配分することを厭わないのです。なぜなら、AIの波に乗り遅れることのマイナス面は、わずか数千億ドルよりもはるかに大きいからです。そしてもちろん、それはSam Altmanも同じように信じていることです。

自動化タスクの期間とその重要性

次に彼らが取り上げたのは、ChatGPTとAI全般が完了できる自動化タスクの期間についてです。そして私は、フロンティアモデル企業がこれについて話しているのを聞き続けています。AIが5日間、5ヶ月間、あるいは5年間、自律的にタスクを完了できるようになったら何が起こるでしょうか。これがまさに私たちが見ているものです。

現在、私たちは5秒、5分、5時間はできますが、5日間はまだそこまで到達していません。そこから先は、5週間、5ヶ月、そして5年間のタスクを見ることになります。

しかしもちろん、私がしばらく言い続けているように、これは期間だけの問題ではありません。その期間内で実際に何を達成できるかということなのです。その期間中にトークンの使用量や計算資源をどれだけ効率的に使えるかということです。繰り返しますが、期間だけではありません。効率性も非常に重要なのです。

しかし、知能爆発に話を戻すと、この時点でモデルが長期間にわたって自律的に実行できるようになれば、唯一の制限要因、つまり人工知能の品質や性能を向上させることを妨げる唯一のものは、実際にどれだけの計算資源を投入できるかということだけになることを覚えておいてください。

しかしもちろん、この種のAIはAI研究にのみ適用される必要はありません。バイオメディカル研究を想像してください。新しい材料科学や創薬を試みることを想像してください。これらすべてのことにおいて、自律的なAI研究者が完全に独自に実行し、人類のために驚くべき発見をする、そして私たちがしなければならないことは、それに砂と電気を提供することだけなのです。

ところで、ちょっと一時停止して、今日のビデオのスポンサーであるRecraftについてお話しさせてください。まだAIチャットとデザインキャンバスの間を行き来して時間を無駄にしていますか。Recraftの新しいチャットモードがそれを完全に終わらせます。

想像してみてください。ロゴを生成し、それをチャットにドラッグして、「これから完全なブランドキットを作成して。ソーシャル投稿、ポスター、モックアップ、すべて数分で」と言うのです。そして最後には、すぐに使用できる一貫した完全なブランドアセットのセットが手に入ります。

これがRecraftの新しいチャットモードの魔法です。無限キャンバス内の強力なAIチャットアシスタントです。超高速の探索のためにチャットで始め、それからピクセル単位の完璧なコントロールのためにキャンバスに切り替えます。アプリ間の切り替えはもう必要ありません。最初のプロンプトから最終的なアセットまで、創造的なプロセス全体が一つの場所で実現します。

単に画像を生成するのをやめましょう。精密に創造を始めましょう。今日、ベータチャットモードのウェイトリストに参加してください。説明欄にリンクがあります。私が紹介したと伝えてください。Recraftは素晴らしいパートナーです。では、ビデオに戻りましょう。

思考連鎖の忠実性という新しいアプローチ

次にこのライブ配信から取り上げたいのは、彼らが思考連鎖の忠実性と呼んでいるものです。これは非常に興味深いです。なぜなら、私はこれについてのOpenAIの考えを以前に聞いたことがなかったからです。一緒に見てみましょう。そして途中で私の考えをお伝えします。

最初の推論モデルから、私たちはこの新しい方向性の解釈可能性を追求してきました。そのアイデアは、モデルの内部推論の一部を監督から自由に保つことです。つまり、訓練中にそれを見ないことで、モデルの内部プロセスを代表するものとして残すのです。

つまり、モデルに良い考えを考えるように導くことを控え、実際に何を考えているかにより忠実に残すようにします。そしてもちろん、これがうまくいくという保証はありません。ディープラーニングについて数学的な証明を作ることはできませんから、これは私たちが研究していることです。

しかし、楽観的でいられる理由が二つあります。一つの理由は、私たちが非常に有望な経験的結果を見てきたということです。これは私たちが社内で大いに活用している技術です。私たちはこれを使って、モデルがどのように訓練されるか、訓練中にその傾向がどのように進化するかを理解しています。

彼が何について話しているのか、すぐに説明させてください。彼はモデルを信頼できること、整合性のあるモデルを持つこと、そしてモデルの思考連鎖、つまり答えを提供する前に取る推論ステップを見ることができることについて話しています。そしてそれが第一に人間のインセンティブと整合していること、そして私たちがそれに信じてほしいことに反応しようとするのではなく、実際に信じていることを述べていることを信頼することについて話しているのです。そしてそれが全体的にAIをより安全にします。

そのため、モデルが何を考えているかについての洞察を本当に可能にするために、彼は基本的にこう言っているのです。「モデルを実行させましょう。モデルに考えさせましょう。そして私たちは途中でそれを見るつもりはありません。後でそれを見て、途中で人間の介入なしに何を考えたかを確認します」と。

そして第二に、それはスケーラブルです。明示的に、私たちはスケーラブルな目的をモデルを監視する能力に対して敵対的ではないものにしています。

そしてもちろん、目的がモデルを監視する能力に対して敵対的でないことは、戦いの半分に過ぎません。理想的には、それがモデルの監視を助けることを望みます。そしてこれは私たちが非常に重く研究していることです。

しかし、思考連鎖の忠実性について強調すべき重要なことの一つは、それはやや脆弱だということです。それは本当にこの明確な境界を引くこと、この明確な抽象化を持つこと、そして思考連鎖にアクセスできる方法について抑制を持つことを必要とします。そしてこれはOpenAIに存在するものです。アルゴリズム設計から製品設計の方法まで。

ChatGPTの思考連鎖の要約を見れば、もし思考連鎖サマライザーがなかったら、もし思考連鎖を常に完全に見えるようにしていたら、それは全体的な体験の一部になってしまい、時間とともにそれを何らかの監督の対象にしないことが非常に困難になるでしょう。

そして長期的には、モデルのためにこの制御されたプライバシーをある程度保持することによって、私たちは彼らの内部プロセスを理解する能力を保持できると信じています。

私はそれがとても興味深いと思います。彼は基本的に、モデルにプライバシーを与えることができるので、彼らを放っておき、考えたいことを考えさせ、それが実際に彼らがどのように考えるかについてより多くの洞察を与えてくれるだろうと言っているのです。

それは理にかなっていると思いますが、これらのモデルを人間のように扱うようなものです。そしてそれは私を少し不快にさせますが、魅力的だと思います。続けましょう。

そして私たちは、これが非常に有能な長時間実行システムに向かって進むにつれて、非常に影響力のある技術になり得ると信じています。Samに戻します。

さて、それは残りの部分についていくのが非常に難しいです。そして明らかにそれが私たちが言わなければならない最も重要な部分です。

しかし、繰り返しますが、私たちは完全に間違っているかもしれません。私たちは以前に目標を設定し、悲惨なほど外したことがあります。しかし私たちが見ている全体像では、来年の9月までにインターンレベルのAI研究アシスタントのようなものを実現し、2028年3月までに、GPT-4のローンチからちょうど5年後になると思いますが、本格的なAI研究者のようなものを実現できると考えています。

そしてこれが私たちの研究プログラムの中核的な推進力です。

OpenAIの野心的なインフラ計画

コメント

タイトルとURLをコピーしました