AGIは来ない!

GPT-5、5.1、5.2
この記事は約6分で読めます。

OpenAIの新モデルリリースを受けて、AI研究者が現在のLLM開発の現状と限界について分析する動画である。従来のような革新的な進歩の時代は終わり、スマートフォンのような漸進的改良の段階に入ったと指摘している。合成データと強化学習に依存する現在の手法では、AGIの実現は困難であり、むしろツール呼び出し機能に特化した製品開発の時代に移行していると論じている。

AGI is not coming!
jack Morris's investigation into GPT-OSS training data

OpenAIの新モデルと現在の状況

こんにちは。今日はいつもの部屋とちゃうとこにおるんや。見ての通り、仕事でアメリカに向かう飛行機の中やねん。でも、この1週間でOpenAIが発表した新しいモデルについて、ちょっと簡単にアップデートしたくてな。

彼らはいろんなバリエーションのオープンソースモデルを発表して、それに加えてフロンティアモデルも色んなバリエーションでリリースしたんや。オープンソースモデルはGPTO OSSって呼ばれてて、フロンティアモデルはもちろんGPT-5や。

みんなもこの発表は聞いたり見たりしたと思うけど、これについてちょっと私の考えを言わせてもらいたいんや。それは、本当に境界を破るような画期的な進歩の時代は終わったんちゃうかって感じるんよ。AGIは来えへんし、これはOpenAIの新モデルだけやなくて、他のフロンティアモデルを見ても、かなり確信を持って言えるんや。

スマートフォンの進化に例えた現状分析

まるでLLMのSamsung Galaxy時代に入ったみたいな感じやねん。つまりこういうことや。初期のスマートフォンを思い出してみ。新しい世代が出るたびに、本当に革新的で、新しい機能がどんどん追加されて、めっちゃデバイスの性能が向上したやん。

でも今はSamsung Galaxy 425 Starとか、そんな感じの名前になってて、前の世代よりちょっとカメラが良くなったとか、画像処理ソフトウェアがちょっと改善されたとか、そんな程度やろ?まだそこまでは行ってないけど、確実にそっちの方向に向かってる感じがするんよ。

コミュニティでは大きな話題になってるんやけど、OpenAIはこれらのモデルの訓練で合成データセットを大幅に使用して、強化学習も徹底的に活用したって言われてるんや。つまり、あらゆるところからデータを集めるんじゃなくて、特定のユースケースに向けてモデルを調整してるってことやねん。

そのユースケースっていうのは、コーディングやと広く推測されてる。なぜかっていうと、コーディングは今LLMが最も大きな影響を与えてる分野やし、ベンチマークタスクでもそうやからな。別にベンチマークを攻略してるって言いたいわけやないけど、確実にこういうベンチマークに役立つデータを集めて、それに対して直接強化学習をかけるっていうのは十分考えられることやねん。

モデルの特徴と課題

これは、特にOpenAIのオープンソース版のモデルが他のモデルと比べて幻覚を起こしやすいって人々が言ってることからも明らかやねん。モデルの世界知識が他のモデルよりもかなり少ないように見えるんや。

でも同時に、これらのモデルは指示に従うことと、ツール呼び出しにおいては本当に、本当に、本当に優秀なんよ。だから私は、LLMが将来的にはツール呼び出しのハブみたいな役割を果たすようになると思ってるんや。つまり、たくさんのツールを与えたら、LLMがそれらのツール間で情報をルーティングする責任を負うってことや。

これは今日でももう見られるよね。どのLLMプロバイダーからでも、エージェント的な動作を得ることができるんや。だから、こういうのを見ても別に感動せんでええよ。これはもうLLMプロバイダーの標準機能やからな。

今後の展望と重要な要素

将来的に重要になってくるのは、ツールとそれらにアクセスする方法やねん。LLMプロバイダーにとって重要なのは、まず第一に、どこまでツール呼び出しに向けてモデルを調整できるかってことや。

ここには本質的な危険性があるんや。ツール呼び出しとして偽装されてる多くのことが、実際にはまだかなりの世界知識を必要とすると私は思ってるからな。これがどう展開していくかを見守る必要があるで。

もう一つの要素は価格や。OpenAIのGPT-5モデルは、その性能に対して本当に、本当に安く価格設定されてるんよ。ベンチマークや人々の印象を見る限り、他のフロンティアモデルと同じレベルの性能があるように見えるねん。

でもコーディングとツール呼び出しでは本当に優秀やし、本当に安い、というか他より安いんや。だから、これらのモデルをより良くするための基礎研究では、もう勢いが尽きた感じがするねん。

スケーリングの限界と新たなアプローチ

訓練データのスケーリングと計算資源のスケーリングにおいて、おそらく2~3桁の余地がまだあるって長い間言われてきたけど、私はそうは思わへん。というか、少なくとも割に合わないかもしれへんな。

今、舞台裏で人々がやってるのは、合成的にデータセットを作る方法と、強化学習の報酬設計などをどうやるかを試行錯誤することやと思うねん。これはある意味良いことやで。なぜかっていうと、これは機械学習が始まった頃に戻ったようなもんやからな。

ディープラーニングが登場した時、これらをどう最適に訓練するかを模索してたんや。その後LLMの時代が来て、とにかくデータを投入して、データを投入して、データを投入して、計算資源を投入するっていう感じで、それで大きな成果を得てたんや。でも今は「実際に何か賢いことをせなあかん」っていう状況に戻ったんよ。

これはワクワクすることやで。でも、以前と比べて、今は1回の訓練実行に数百万ドルかかるんや。だから今、本当に良い時代やと思うのは、大規模な訓練実行がどこに行き着くかを予測できることやねん。

研究の新たな方向性

もちろん、大手企業はもうそれをやってるし、長い間やってきてるんや。でも、もし私が今から研究に参入するとしたら、小規模な実験や初期の訓練軌跡から最終的にどこに到達するかを予測する方法、そして理想的にはその過程で修正する方法を研究するのが非常に興味深い時代やと思うねん。

つまり、最初からやり直す必要がないように、「ちょっと左に寄ってるな。こんな感じで修正しよう」って感じで、望む結果を達成できるようにするってことや。

もう一つの研究領域は、どのくらいの世界知識が必要で、どのくらいのツール呼び出し能力が必要で、この二つのバランスをどうとるべきかってことやねん。

結論とこれからの時代

つまり、OpenAIの新モデルは合成データで大幅に訓練されて、おそらく強化学習の部分も大きくて、今お金になる状況に非常に特化してて、もう純粋な知能だけを追求してるわけやないんや。

その面では頭打ちになってるようで、AGIは来えへんのや。Jack Morrisっていう人がTwitter(今はXって呼ぶんやっけ?)で本当に良いスレッドを書いてるから、説明欄にリンクを貼っとくで。

彼はオープンソースのGPTモデルから出てくる埋め込みデータを徹底的に分析して、それが非常に特殊な分布を持ってることを実際に示してるんや。これは、これらのモデルが持っていたであろうデータ構成と訓練パラダイムのさらなる証拠やねん。

それだけや。もう製品の時代に入ったんよ。ようこそ。研究コミュニティが再び何か興味深いことを見つけられることを願ってるで。

それじゃあ、またな。バイバイ。

コメント

タイトルとURLをコピーしました