OpenAIでAGIは既に達成されていると思う

AGI・ASI
この記事は約13分で読めます。

の動画では、OpenAIが既に内部的にAGI(汎用人工知能)を達成しているという主張が展開される。従来の大規模言語モデルが検証可能なタスクのみを得意としていたのに対し、最新モデルは数学的証明のような部分的に検証可能なタスクでも優秀な成果を示している。国際数学オリンピックで金メダルを獲得し、OpenAI社内のコーディングリーダーボードで2位を記録したモデルの事例を挙げ、これらの能力を組み合わせることで真の知性が生まれると論じている。動画の後半では、2026年から2027年にかけてマウスやキーボードを使わずに音声だけでコンピュータを操作できるようになるという予測を示し、これがAGIの実現を意味すると主張している。

I Think AGI Has Already Been Achieved at OpenAI
I'm Building a One Person AI Business: Join the main Community: NE...

OpenAIは既にAGIを達成している

ほら、この動画に反対する人おるやろうけど、わしの観点からしたら、OpenAIはもう内部的にAGIを持っとると思うんや。ラボでも工場でも、知能工場でも何て呼んでもええけど、とにかくそこにAGIがあると思うで。また、反対する人もおるやろうけどな。

AGIの定義はめっちゃ曖昧やねん。わしに言わせれば絶望的な定義やわ。でもわしにとっては、これらのシステムが示す知能の種類がもっと重要なんや。長い間、大規模言語モデルしかなくて、データベースにある情報しか取得できへんかった。人工知能から本当に面白い再結合効果は得られへんかったんや。

検証可能なタイプのリクエストしかうまくプロンプトできへんかった。例えばコーディングやな。コーディングは検証が非常に簡単や。動くか動かへんかの二択やからな。この技術がどう展開していくかについて色々話し合われてきた。

強化学習の新しいアプローチ

わしも過去にその件について意見を述べてきた。このチャンネルの数本前の動画を覚えとるやろ?大手ラボが実際の経済の問題空間に応用強化学習をやってるって話したやん。もうベンチマークを狙うだけやないんや。

もうそれらは飽和してることは明らかやからな。特定の質問に答えるRHFをやってるだけでもないし、ベンチマークにモデルを合わせようとしてるだけでもない。AIMベンチマークの特定の数学問題を解けるだけの推論能力を持たせようとしてるだけでもないんや。もうそれを超えとるんや。実際に解決しようとする問題空間に強化学習を適用するエージェント型強化学習をやっとるんや。

国際数学オリンピックで金メダルを取った数学モデル、いや、数学モデルじゃなくて大規模言語モデルやけど、これはまさにその証拠やと思う。問題空間があって、それが数学のベクトル上、数学の領域にあるんや。その数学の問題空間に強化学習を適用してるんや。ツールは要らへん。

ツールを全く呼び出さへんのや。このモデルが持ってる推論だけなんや。推論を適用してこれらの問題を解決しとるんや。この特別な点で興味深いのは、数学的証明をやってることや。Nom Brownがこのことについて話してた。ツイッターでスレッドを作ってて、結構面白い読み物やで。

チェックしてみることをお勧めするわ。彼が言うには、Go、Dota、ポーカー、外交といったこの種の結果については、研究者は何年もかけて一つの狭い領域を習得するAIを作るが、それ以外はほとんど何もできへん。でもこの国際数学オリンピックモデルはそれに特化してるわけやないんや。推論大規模言語モデルなんや。

汎用モデルなんや。汎用技術を組み込んでる。異なるツールを呼び出すこともない。わしやあんたがやるように、ただ推論してるだけなんや。これらの数学問題の証明を考え出すために実際に推論してるんや。大きく違うところは、大規模言語モデルをかなり良くして、検証が困難なタスクに対応できる新しい技術を開発したことや。

検証可能から部分的検証可能へ

知らんかもしれへんけど、これがかなり長い間の大きなパラダイムやってん。モデルは非常に検証しやすいタスクでしか良くならへんかったんや。コーディングは非常に検証しやすい。もう言ったけどな。ベンチマークの種類で非常に決定論的な答えをするのは、非常に検証可能で簡単に検証できることや。

Gnomeが使った例やと、Aimemeベンチマークでは基本的に答えは0から999までの間の単純な整数なんや。単純な整数が出てきて、これが正しいか間違いかを言えるんや。数学オリンピックでは何ページにもわたる証明を書かなあかん。

つまり、実際に推論フレームワークを適用して、実際の数学問題に対してこの何ページにもわたる長い証明を開発してるんや。本物の論理を表示し、本物の推論を表示してる。これは部分的に検証可能なものや。技術的には検証可能や。正しいか間違いかやからな。でも結論に到達する方法はいろいろあるんや。

数学的証明は非常に二進的な出力みたいなもんやない。答えにはものすごい変動があるんや。多くの場合、一つ以上の方法でやることができる。だから興味深いのは、明らかに検証可能やけど、違う方法で検証可能なものについて推論することが非常に得意になってきてることや。

これはモデルが開発してる知能のタイプにとって大きな意味があるんや。単なるクエリデータベースから、まだ多少そんな感じやけど、実際に本物の知能の種類を持つようになったからな。o3は確かに印象的や。知的やと主張することもできるやろ。

でも、ある意味では全然知的やないんや。彼らが社内で話してるこのモデル、わしには衝撃的やし、みんなにとっても衝撃的であるべきや。これは重大なことが起こってるんや。部分的に検証可能なタスクが飽和するときの意味を人々が本当に理解してへんと思う。現実のほとんどの問題はそういうタスクやからな。

これらは、わしがこういうことが得意になると期待してたタスクの種類や。こんなに早いとは思わんかったけどな。今すぐ言うけど、こんなに早いとは思わんかった。かなり印象的やわ。そして明らかに、Sam AltmanがOpenAIのコーディングリーダーボードについて話してたな。彼らが持ってるコーディングモデルが会社全体で2位になったって。

OpenAI社内でのモデルの実力

会社全体をこのモデルと対戦させたら2位になった。一人だけがモデルに勝ったんや。これらはただの一般人やない。OpenAIで働く才能ある技術者たちや。OpenAIは恐らく最も働きたい会社の一つやろ。今、大きな人材戦争が起こってて、みんながみんなの人材を買い取ってるけど。

知能の時代を持ち込んだのが彼らやから、最も働きたい会社の一つなんや。革命的な会社にいるようなもんやからな。非常に興味深いわ。そして彼らは境界をかなり押し広げてる。o3モデルは非常に興味深い。彼らがリリースしたエージェントも非常に興味深い。

これらのモデルは非常に早く動いてる。だから技術者は優秀なんや。それでもモデルは2位になった。o3はo3モデルは非常に良いコーディングモデルや。リーダーボードに全然現れへんやろうと思うけどな。いざとなったら、この数学モデルとコーディングモデルを取って、組み合わせてみよか。

もっと強化学習をやってみよか。モデルを改善してみよか。他のタイプのことももっと得意にさせてみよか。この二つのモデルを組み合わせたら、実際に何が手に入るんやろ?国際数学オリンピックの問題をやって、今は部分的に検証可能なタスクをやってる推論モデルは、ツールを呼び出さへん。

だからコードを実行しないんや。このコーディングモデルへのアクセスを与えて、これらを統合することはバカげてるわ。人々が今、本当にそれを把握してへんと思う。実際に数日前にインタビューを見たんや。えーっと、誰やっけ?Peter DiamandisとNom Brownの間の。あ、Nom Brownや。

Peter DiamandisとNo、すまん。Peter DiamandisとEric Schmidtで、Eric SchmidtがNom Brownと話してて、こう言うとった。「今年の言葉はscaffoldingやと思う。そう聞こえるやろ?今年の言葉はscaffoldingや。これらのエージェントが実際に構築される基盤やからな。

スキャフォールディングからエージェントへ

足場を構築して、その足場に強化学習を適用する。そしたら足場で作業できるエージェントができる。今度は足場で作業し、足場と連携する。それがこれらのエージェントを得る方法や。OpenAIが今リリースしたエージェントの仕組みや。

足場があり、ツールがあり、インフラがあり、コンピュータがあり、それを使って、かなり興味深い効果が得られる。」Nom Brownは言った。「ああ、今年の言葉やと言った理由はわかるわ。ラボ内部では、月の言葉みたいに見えるけどな。これらのエージェントは今、問題空間に適用される際に自分自身の足場を構築できる地点に到達してるからな。

その問題空間を見て、結論に到達するために解決する必要がある問題を特定する。「よし、これらの問題を解決するのに役立つ足場をこれだけ構築できる。足場を構築して、問題を解決して、ユーザーに戻ろう」って言うんや。数学がそんなに得意でコーディングがそんなに得意なボトルがあるときは、それほど困難やないんや。

実際、全然困難やない。そして今、自分自身の足場を作成する能力を持ちながら、部分的に検証可能なタスクができるようになってる。それをAGI以外に何と呼ぶかわからん。わからんわ。少なくともわしの定義は満たしてる。何人かの人は定義を動かし続けてて、基本的にASIを求めてる。「von Neumannプローブができるまではどうでもええ、AGIやない。von Neumannプローブができて、宇宙全体に広がって拡散するまではな」って感じや。

そうやな、それは素晴らしいけど、今のわしらにとってそれがどれだけ意味があるかはよくわからん。絶対にそこに到達すると思うで。疑問の余地もない。今日の技術よりもわしらに大きな影響を与えるんやろうか。疑問の余地もないわ。でもPeter ThielがよくJoe Roganのポッドキャストで言ってたように、いや、一度だけ言ったんやったかな。

彼は言った。「みんな超知能について話してる。わしは超知能にはあまり興味ない。それは神様にとって興味深いんやろう。超知能は神様にとって興味深いんや。実際に興味深いのは、話して物事をやってくれる機械やと思う。それがわしらにとってもっと興味深いからな。

それがわしらが実際に使うもんや。それがわしらが競争相手になりうるもんや。超知能は神様にとって興味深い。わしらにとってはそうでもない。」ある意味ではわしらにとっても興味深いけど、「で、今度はどうなるん?」って感じやな。確かにそれはいずれ起こるやろう。

実際にはその時間軸はわからん。でもわしらが知ってるのは、これらのモデルの能力は人間レベルとは正確に同じやないけど、コーディングが本当に得意になってきてることや。数学も本当に得意になってきてる。より広い問題空間に適用されるようになるやろう。

マウスとキーボードのない未来

前にもチャンネルで言ったけど、1年、2年後には、コンピュータを使うのにマウスやキーボードを使わんでもよくなる。コンピュータに話しかけたら、コンピュータが物事をやってくれるんや。こっちに行ってキーボードでタイプしたり、ボタンをクリックしたりする必要がないんや。そんなんは原始的やわ。

1年や2年でそんなことをする必要がなくなるんや。2027年の終わりまでにまだマウスとキーボードを使わなあかんかったら、ちょっと失望するわ。実際、非常に失望するやろう。実際には2026年の終わりまでにはそのパラダイムにいると期待してるんや。2026年の半ばには、実際にそれが実現可能な地点に到達してるやろう。

2026年の初めには、そのサインは見えるかもしれへんけど、まだそんなに良くないんやろう。もうそのサインが見え始めてると思う。ClaudeとClaude Codeを見てみ。ターミナルは何や?なんで彼らはClaude CodeのCLIを持ってて、なんでそれに主に焦点を当ててるんや?それがAGIとやり取りする方法やからや。

このビデオのためにAGIをすぐに定義してみよか。わしにとってAGI は、コンピュータを使う伝統的な方法であるマウスとキーボードから、話しかけたら物事をやってくれるスタートレック方式に移行することや。AIが最もうまくコンピュータをコントロールするにはどうするか?コマンドラインを通してや。そしてブラウザにオペレーターもあるやろ。それでほぼ全部や。

オペレーターがあって、コマンドラインでAIとチャットできるなら、他には本当に何もいらん。今やコンピュータで何でもできるんや。コンピュータで何でも、全部や。それが全てなんや。そしてすぐに、そういうタイプのことをやるのにわしらを上回るようになって、わしらはコンピュータに話しかけるだけで、コンピュータが物事をやってくれるようになるんや。

そんなに遠くないで。2026年の初めから半ば、2026年の後半。ただそれができるようになることを期待してる。こういうことが起こってて、人々がわしらが今いる軌道を本当に理解してへんと思う。これらの統合はもうほぼそこにある。いくつかのことを結びつけて、モデルをもうちょっと良くして、彼らがアクセスできるツールをもうちょっと良くするだけでええんや。

そして最大のことはコンテキスト長を増やすことや。コンテキスト長が増えるにつれて、そしてそれは増えるんやけど、彼らはもう数百万のコンテキスト長について話してる。他に何がAGIになるんや?確かに。von Neumannプローブ、何でもええわ。とにかく、要点はわかったやろ。彼らはもうAGIを持ってると思う。実際にツイートを見たんや。えーっと、見つけられるか見てみよか。

画面に表示するけど、この人が結構興味深いことを言ってた。OpenAIの本当のAGIはモデルを生産するRLシステムやと思うって言ってた。AI工場がAGIなんや。モデルを生産するRLシステムがAGIなんやって。そう、つまり、もしあんたがあのクレイジーなSFのvon NeumannプローブバージョンのAGIを求めるなら、恐らく正しいで。

恐らく正しい。それが恐らくそれや。でもわしの定義では、数学的証明のような半検証可能なタスクができて、国際数学オリンピックで金メダルを取って、OpenAIでコーディングでも2位になって、そしてコンピュータを効果的に使えて、より長い時間軸で物事ができるもの。

他に何を求めることができるんや、おい?数学自体とコーディングと、モデルが持ってる推論を組み合わせただけで。国際数学オリンピックの数学問題空間の問題を見て、ツールを全く呼び出さずに推論するだけで、それをツールと適用して、科学の問題空間にその推論フレームワークを適用したら、来年は科学の問題を解決してるやろう。

科学的ブレークスルーへの期待

最初はSam Altmanが「2026年には科学的ブレークスルーを起こすと思う。LLM自体が科学的ブレークスルーを起こすんや」って言ったとき、懐疑的やった。「確かに、いくつかの側面では起こすやろうな。文字通り、宇宙の望遠鏡から得たデータを全部見るようにAIに頼めば、わしらの人間の目では見えないものを簡単に見つけられるやろうからな。

それはAIが得意な本当に良いことの一つや。」確実にそこでは科学的ブレークスルーがあるやろうけど、今はコーディングのおかげで、数学のおかげで、彼らが表示してる推論のおかげで、もっと多くの場所でそれが起こるのが見える。もし推論が彼らが説明してる通りに実現するなら、来年科学的ブレークスルーがないのは難しいと思うわ。その翌年は確実やな。

2027年までに科学的ブレークスルーがなかったら、ちょっと腹立つで。だから、スタートレックのコンピュータがここにある。他のスタートレックのものを作り始める時や。みんなでそれができるんや。多くの人が忘れてることやと思うけど、これらのツールを二つの方法で見ることができる。あんたの能力を抑制してるって見ることもできる。

仕事を奪ってる。あんたを無用な食べる人にしてるだけで、問題空間にあんたの創造性を適用して、あんたの知能と創造性を向上させるツールを適用することができへんようになってるって。それがこれらのコンピュータの正体なんや。わしらの認知の外部委託や。

わしらはテクノマンサーなんや。置き換えられるんやない。強化されるんや。だからもっと大きく考えろ。「尻に火がついてUBIで生活するわ」なんて言うな。それが遅れをとる方法や。それが二極化が起こる方法や。もっと大きく考えて、創造的になって、困難なもんを見て、やるんや。今やみんながそれをできるんや。みんなができるんや。

それは選択なだけや。それだけなんや。ということで、ここでビデオを終了するわ。素晴らしいツールがオンラインになってる。大きく考えよう。ツールを適用しよう。もしもっと大きく考えて大きなものを作ることに興味があるなら、下の説明欄にリンクされたコミュニティがある。起業家や技術で加速してる人々、未来に非常に興奮してて実際に物事を作ってる人々で満ちてるコミュニティや。

アイデアが欲しいなら、そこに参加する場所や。この技術についてもっと学びたいなら、そこに参加する場所や。建設者、大きな思想家、実際に技術で加速してる人々のコミュニティにいたいだけなら、そこが場所や。かなりクールなものを作ってると思うし、あんたにその一部になってほしいわ。

ということで、次のビデオでみんなに会うで。

コメント

タイトルとURLをコピーしました