私たちはAGIについて間違っていた…

AGI・ASI
この記事は約12分で読めます。

RepletのCEOであるAmjad MsadとベンチャーキャピタリストのMarc Andreessenが、AGI(汎用人工知能)の本質的な定義と現在のAI開発の方向性について議論している。彼らは、現在のAIシステムが真のAGIに向かっているのではなく、検証可能で測定可能なタスクの自動化に特化していると指摘する。コーディングや数学のような明確に検証可能な領域では急速に進歩しているが、医療や法律のような曖昧な領域では進展が遅い。Msadは「機能的AGI」という概念を提唱し、あらゆる経済活動に対してデータを収集し訓練することで、真のAGIでなくても変革的な価値を生み出せると述べる。しかし同時に、現在のシステムがあまりにも経済的に有用であるがゆえに、「ローカル最大値の罠」に陥り、真の汎用知能への到達を妨げる可能性があるという懸念も示している。

We Were WRONG About AGI…
Everyone keeps talking about AGI like it’s right around the corner.. but what if we’re not actually getting any closer?I...

AGIの定義をめぐる混乱

私はちょっと、真のAGIのブレークスルーについては弱気なんです。なぜなら、私たちが構築したものがあまりにも有用で経済的に価値があるからです。ある意味、十分に良いものが敵になっているんです。ええ、ええ。あのエッセイを覚えていますか?「より悪いものがより良い」という。より悪いものがより良い。より悪いものがより良い。より悪いものがより良い。つまり、ローカルな、罠があるんです。ローカル最大値の罠です。私たちはローカル最大値にいるんです。

さて、誰もがAGI、つまり汎用人工知能について、それがもうすぐそこまで来ているかのように話し続けています。しかし大多数の人々は、AGIの定義が何であるかについてすら合意できていません。ある人は、AIが人間ができるあらゆるタスクをこなせるようになったときだと言います。また別の人は、AIが自分で学習できるとき、つまり任意の環境に放り込んでも自分で物事を理解できるようになったときだと言います。

そして、私たちはすでにそれを手に入れている、あるいは少なくともその初期的なバージョンを持っていると信じている人もいます。しかしRepletのCEOであるAmjad MsadとベンチャーキャピタリストのMarc Andreessenによれば、私たちがAGIの定義を間違えているのではないということです。私たちは現在のAIについての考え方を間違えているのです。なぜなら、今日私たちが構築しているシステム、アプリをコーディングしたり、アートを作ったり、動画を生成したりするシステムは、実際には私たちを真の汎用知能に向かわせていないかもしれないからです。

その代わりに、それらは全く別のことをより上手にこなすようになっています。測定または検証できるすべてのものを自動化することです。そしてそれこそが、Amjadがこの最初のクリップで説明していることなのです。それは、その運動の復活なんです。私たちには、LLMという驚くべき生成的なニューラルネットワークがあります。そして今、それが正しいことをしているかどうかを検証するための、より離散的な方法を重ねているのです。

そしてそれをトレーニングループに入れるのです。そうすると、LLMは数学やコードなどについて推論するような新しい能力を獲得し始めます。その通りです。なるほど。それは素晴らしいことです。でも、そこで重要なのは、RLがLLMの推論に機能するためには、定義された検証可能な答えがある問題文でなければならないということです。

その通りです。そうですよね?そして、これについていくつか例を挙げて考えてみると、医学では例えば、人間の医師団が同意する診断のようなものかもしれません。あるいは、実際にその状態を解決する診断です。法律では、陪審員の前で実際に無罪判決につながる議論のようなものです。

数学では、実際に正しく解ける方程式です。物理学では、実際に現実世界で機能する結果です。わかりません、土木工学では崩壊しない橋です。そうですね。つまり、常に何らかのテストがあるわけですが、最初の2つはまだあまりうまく機能していません。

法律と医療は、まだ少し曖昧すぎる、少し柔らかすぎます。数学やコードとは違います。数学でトレーニングする方法では、Leanと呼ばれる証明可能な言語、プログラム言語のようなものを使っています。つまりLeanのステートメントを実行できますし、コンピュータコードを実行できます。おそらく物理シミュレーションや土木工学の物理シミュレーションのようなものも実行できます。でも診断を実行することはできません。なるほど。

だから私が言いたいのは、でも人間の答えで検証することはできますよね。ええ。つまりそれは、ある意味でRLHFに近いものです。だからそれは、完全にスケーラブルで自律的な、自律的なRLトレーニングのようなものではありません。だからこそ、コーディングは他のどの領域よりも速く進歩しているのです。それは、私たちがこれらの問題を生成してその場で検証できるからです。これは重要なポイントです。なぜなら、例えばOpenAIが新しいコーディングモデルは数学も得意だと言うとき、それはコーディングモデルが突然数学のやり方を理解したということではないからです。

同じアーキテクチャが数学で訓練されたときに、良いパフォーマンスを発揮するということです。言い換えれば、それは正確には汎用知能ではありません。狭い検証可能な領域内での知識の転移に近いものです。そしてそれが、Marc Andreessenが次に提起するより大きな質問につながります。私たちは実際にAGIへの道を歩んでいるのか、それとも現在のシステムを段階的に改善しているだけなのか?見てみましょう。

AGIへの道なのか、それとも改良の限界か

これについてのあなたの見方が気になります。私たちには奇妙な力学があるんです。ここのオフィスでよくこの話をしますし、最先端の起業家たちともよくこの話をします。それは、わあ、これは史上最も素晴らしい技術で、とても速く進歩しているのに、私たちはまだ本当にがっかりしている、という感じです。

そして、十分に速く進んでいないような、あるいは停滞しかけているような感じで、ハイパーエキサイトしているべきなのに、同時に手首を切りたくなるような気分でもあるんです。だって、金のなる木が終わりに近づいているかもしれないから。そして私はいつも思うんです、一方では、すべての梯子が月まで届くわけではないでしょう、何かがうまく機能しているように見えるからといって、それを拡大してフルに機能させられるとは限りません。

だから、実用的な限界を認識して、すべてを無限に外挿しないことが重要なんです。一方で、私たちはここで魔法のようなことを扱っています。5年前、確実に10年前には不可能だと思っていたようなことです。私は80年代後半から90年代初頭にコンピュータサイエンスの学位を取りましたが、生きているうちにこんなことを見られるとは思っていませんでした。これが実際に私の生涯で起こっているということは驚くべきことです。

しかし、AGIに対する巨大な賭けがあります。基盤モデルであれ、今やアメリカ経済全体がある種AGIへの賭けになっています。そして、私たちがAGIへの軌道に乗っているかどうかという重要な質問があります。なぜなら、いくつかの点で、私たちはAGIへの軌道に乗っていないように見えると言えるからです。なぜなら、これらの重要な領域間で転移学習が起こっているようには見えないからです。だからコードがずっと上手になっても、

すぐに汎用的な推論が上手になるわけではありません。生物学や化学、物理学、数学、法律などのためのトレーニングデータを取得し、RL環境を作る必要もあります。そしてこれは、Dario AmodeとRichard Suttonのインタビューの後、AI コミュニティで議論のポイントになっています。Richard Suttonが苦い教訓に冷や水を浴びせたんです。

皆が彼が書いた「苦い教訓」というエッセイを使っていました。その考えは、AI研究を行う無限にスケーラブルな方法があり、より多くの計算量とデータを投入すればより多くのパフォーマンスが得られるという、それがAGIに到達する究極の方法だというものです。

そして一部の人々は、そのインタビューを、彼が私たちが苦い教訓の道を歩んでいることにさえ疑念を抱いているのかもしれないと解釈しました。そしておそらく現在のトレーニング体制は実際には正反対で、私たちは人間のデータと人間のアノテーションなどにとても依存しているのです。だから私は、あなたに同意します。

つまり、企業として、私たちは物事が向かっている方向にワクワクしていますが、でも、私たちがAGIへの軌道に乗っているかどうかという疑問があるんです、そうですよね?つまり言い換えれば、問題は進歩していないということではないかもしれません。なぜなら確実に進歩しているからです。私たちが間違った目標でそれを測定しているということかもしれません。なぜなら、たとえAGIの聖杯バージョン、それが最終的に何を意味するにせよ、に到達しなくても、同じくらい変革的に感じられる何かを手に入れるかもしれないからです。

Amjadが機能的AGIと呼ぶものです。基本的に、すべての有用な経済活動について十分なデータを収集し、それぞれを自動化するために大規模モデルを訓練すれば、必ずしも汎用的な心を得るわけではありません。デジタル労働力全体を手に入れることになります。そしてそれこそが、まさに私たちが向かっているところかもしれません。

機能的AGIという概念

でもそれはおそらくもう一つの側面で、彼らも自分たち自身に不合理な目標を設定しているんです。不合理な目標を設定して、その過程である種の自己鞭打ちをしているんです。そして私は、それがどちらの方向に作用するのか気になります。ええ。興味深い質問ですね。

私はこの考えについて考え始めました、それが真にAGIかどうかは重要ではないという。私のAGIの定義は、AIシステムを任意の環境に置いて、効率的に学習するというものです。つまり、何かを学ぶために多くの事前知識を持っている必要はありませんが、その知識を異なる領域間で転移することもできます。

でも、機能的AGIに到達することはできます。機能的AGIとは、今日の世界のあらゆる有用な経済活動についてデータを収集し、その上でLLMを訓練するか、その上で同じ基盤モデルを訓練することです。そして経済のあらゆるセクターをターゲットにして、そうすれば労働の大部分をその方法で自動化できます。

だから、ええ、私たちは確実にその軌道に乗っていると思います。そう、実際に私はこれに同意します。AIとChatGPTの初期の頃、AGIはこの超汎用的なシステムとして見られていました。何でも学習でき、すべてを人間より上手にこなせるもの。そしてASI、つまり人工超知能がその次のステップでした。全人類の集合知を上回るパフォーマンスを発揮できるシステムです。

しかし時間が経ち、AIがより主流になるにつれて、その定義は静かに変化し、誰もの仕事を置き換えられる超経済的に価値のあるシステムについてのものになったように感じます。そして実世界の仕事は確かに能力の良い尺度ですが、私はまだAmjad Msadの見方に近いところにいます。真のAGIとは、限られた事前知識で任意の状況に放り込んでも、本当に賢い人間のように、ただより速くより良く物事を理解するシステムだろうと。

そしてそれが、Amjadが次に説明することです。彼の個人的な、真のAGIが実際にどのようなものであるかという定義です。しかし問題は、そしてこれは私が彼に同意しない点ですが、彼は私たちが決してそこに到達できないと確信していないのです。なぜなら、私たちがすでに持っているバージョンのAIは、あまりにも有用で、経済的にパワフルなので、私たちを今いるところに留まらせ続けるかもしれないからです。

これをご覧ください。だから、私は二つの心があるんです。一つの心は実用的な起業家のものです。私には遊ぶおもちゃがたくさんあります。今日AI の進歩を止めても、Repletは今後5年間改善し続けるでしょう。アプリ層とインフラ層だけでやれることがたくさんあります。

だから、でも基盤モデルも改善し続けると思いますし、私たちの業界にとって非常にエキサイティングな時期です。もう一つの心はより学術的なものです。なぜなら子供の頃から、私は常に意識の本質、知能の本質に興味を持っていたからです。常にAIに興味があり、その文献を読んでいました。そして私はRLの文献を指摘したいと思います。

Richard Sutton、DeepMindの共同創業者だと思われるもう一人の人物、Shane Leggが、AGIとは何かを定義しようとする論文を書きました。そしてその中で、AIの定義は、おそらく正しいオリジナルのものだと思いますが、効率的な継続学習です。なるほど。つまり、任意の領域に放り込める汎用人工知能を本当に構築したいなら、車についてあまり事前知識がない状態で車に放り込んで、人間が運転を学ぶのにどのくらいかかるか、数ヶ月以内に本当に上手に運転できるようになる、汎用的なスキル、汎用的なスキル獲得、汎用的な理解の獲得、汎用的な推論の獲得です。そして私はそれこそが、真に世界を変えるものだと思います。それこそが、人間の心、人間の意識についてのより良い理解を与えてくれるものであり、それこそが私たちを人類文明の次のレベルへと推進するものなのです。

文明のレベルでは、それは本当に深い質問ですが、でもそれには学術的な側面があって、私は本当に興味があります。そして、もし私たちが今日Kelseyにいるなら、それにどんなオッズを置きますか?私は真のAGIのブレークスルーについてはちょっと弱気です。なぜなら、私たちが構築したものがあまりにも有用で経済的に価値があるからです。

ある意味、十分に良いものが敵になっているんです。ええ、ええ。あのエッセイを覚えていますか?「より悪いものがより良い」という。より悪いものがより良い。より悪いものがより良い。より悪いものがより良い。そして、ローカルな、罠があるんです。ローカル最大値の罠です。私たちはローカル最大値にいます。ローカル最大値の罠で、それは、非常に多くの経済的に生産的な仕事に十分良いからです。

そうです。それがシステム内の圧力を和らげてしまうんです、汎用的な答えを作り出すための。そうです。そして、Richard Suttonのような変わり者たちがまだその道を進もうとしていて、もしかしたら成功するかもしれません。でも、私たちが登っているこのローカル最大値の背後には、現在のものに対する膨大な最適化エネルギーがあります。

そうですね、これは私が以前聞いたことのない興味深い視点で、皆さんがどう思うか聞きたいです。私たちは本当にAIでローカル最大値に到達し、真のAGIを構築する意味すらなくなると思いますか?それとも、私たちは必然的にそこに到達すると思いますか?私は確実にそう願っていますが、現在この分野で見ているものに基づいて、それは私たちが思っていたよりも遠いのかもしれないと考え始めています。

とにかく、見ていただきありがとうございました。コメント欄に自由に考えを書き込んでください。また、動画を楽しんでいただけたら「いいね」を押してください。新しい方は登録ボタンを押してください。そしていつものように、次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました