本動画は、AI研究者フランソワ・ショレとポッドキャスター ドワルケシュ・パテルによる対談である。12ヶ月前の前回対談以降のAI進歩に対する見解の変化が主要テーマとなっている。ショレは従来AI悲観論者として知られていたが、O3などの最新モデルがテスト時適応能力を示したことで、AGI到達予想を10年から5年程度に短縮したと述べている。一方でパテルは逆に悲観的になっており、特にAIの継続学習能力や実務経験蓄積の困難さを指摘している。両者はAGIの定義、シンギュラリティの可能性、推論スケーリングの効率性についても深く議論を展開している。

AGIタイムラインの大幅更新
もしワイが2024年6月にあんたに「AGIまであと何年や?」って聞いて、今同じこと聞いたら、答えはどないなるんや?
そやな、ワイのタイムラインはちょっと短くなったわ。去年の時点では何年先やと思てたか、ようハッキリ言えへんかったけど、たぶん10年くらいやったと思うで。でも人間よりも早いとか効率的に学習できへんかったとしても、あんたは全てのコピーから学習できるけど、人間は自分の経験からしか学べへんっていう事実だけで、もう実質的に超人間やねん。
そうなんや。そしてモデルのインスタンスのどれか一つが何かを学習するたびに、それが他の全てのモデルと共有される。これが将来の全てのインスタンスが永続的に利用できる新しい構成要素になるんや。
そやから我々にはフランス、有名なAI悲観論者がおって、5年でシンギュラリティが到来するって言うとるわけやな。
いやいやいや、ワイはそんなこと言うてへんで。
ワイはある時点でプラトーに達すると思てたんやけど、1000ドル分のトークンを使ても、まだ何らかの利益が得られるねん。
記録しとる人らのために言うとくと、これは実はドワルケシュがフランソワにインタビューするのは2回目や。1回目は12ヶ月前のポッドキャストで、フロンティアAIの現状について非常に活発な議論を交わしたんや。ワイは二人とも密にフォローしとるんやが、この12ヶ月間で二人ともAIに対する見解を更新したと思てる。そやから今夜何が出てくるか、めっちゃ楽しみやねん。ステージにフランス・ショレとドワルケシュ・パテルを迎えようや。
静的AIから適応的AIへの大転換
よし、フランソワ、やってくれてありがとう。我々のローンチイベントに参加してくれてありがとう。
ゲームもやりたいけど、まず話そうか。よし。そやから、グレッグが残してくれた話から始めようか。12ヶ月前に話したんやが、我々の会話以降、あんたが最も考えを変えたことは何や?
そやな、ワイにとって大きなアップデートは、去年の我々の会話を覚えてるか、当時のAI研究の主なボトルネックは、我々が持ってるAIシステムが静的やったことやって説明してたやん。
そやから全て完全に記憶に依存してたんや。訓練時には膨大な有用なテンプレート、推論テンプレートとか知識の断片とかを集めて、テスト時には完全に静的やった。もしも前に記憶したテンプレートを再適用するだけで解けるような問題やったら、それは動作した。でも例えば簡単なARCタスクみたいに、実際に新しいものをモデルに見せたら、それは失敗してた。そしてそれが変わったんや。大きなアップデートが去年の12月、特にそうやったんやが、我々が開催したARC競技を通じて一年中起こってた。
大きなアップデートは、今や我々には実際にテスト時に、これまで見たことがないものに適応できるモデルがあるということや。そやから我々には流動的知能の真の兆候を示すモデルがあるんや。そしてそれをOpenAIのO3ローンチで見たし、去年の競技での上位エントリーは全て、テスト時ファインチューニング、テスト時サーチ、プログラム合成、これら全ての異なる方法でのテスト時適応に依存してた。あんたが完全に新しいものを見てるときに、記憶したテンプレートを盲目的に再適用しようとするんじゃなくて、見てるものに適応したプログラムや思考連鎖みたいなモデルを合成しようとして、見せられる新しいタスクごとにこの合成をその場でやってるんや。
AGIまでの距離感の変化
そしてそれがAGIまで何年かかるかっていうあんたの感覚をどう更新したんや?去年聞くべきやったんやが、もし2024年6月に「AGIまであと何年や?」って聞いて、今同じこと聞いたら、答えは何や?
そやな、ワイのタイムラインはちょっと短くなったわ。あんたのタイムラインについても非常に興味があるんやが、ワイのタイムラインについて話そうか。
去年の時点では何年先やと思てたか、ようハッキリ言えへんかったけど、たぶん10年くらいやったと思う。そして今は、たぶん5年くらいやと思てる。そやからワイのタイムラインはかなり短縮されたんや。
とはいえ、「AGIはいつ起こるんや?」って聞くとき、それはちょっと曖昧な質問やねん。なぜなら見つめるべきマイルストーンがいくつかあるからや。
まず、世界のどこかのチームが正しいアイデアで作業を始める瞬間があるやろ?それから誰かが初めてAGIのようなシステムを構築してテストして、人々が「これがAGIかもしれん」って疑問に思い始める瞬間がある。そしてこのシステムが大規模に展開され始める瞬間がある。実際には各マイルストーン間にはかなりのラグがあるんや。例えばLLMを見てみると、LLMは大体現在の形で2018年、2019年頃には既に発明されてたんや。
でもそうしたシステムが実際に構築されてテストされて、現実世界で有用やと証明されるまでは、2022年後半まで来なかった。そやからアイデアで作業を始めてから、展開できるシステムまで、実際に数年かかったんや。
そして展開に関しては、我々は今日でもまだ展開段階にある。この技術を解決できるあらゆる問題に展開することには全然近づいてへん。そしてワイは実際にAGIも同じようなテンプレートを辿ると思てる。おそらく次の数年のうちのある時点で、どこかのチームが解決策の核心、正しいアイデアで作業を始めるやろう。
それから実際にそれを構築するのに2、3年かかるやろう。そしてそれが世界を変えるには5年以上、10年以上かかるやろう。
AI進歩に対する見解の逆転
去年これを聞いておくべきやった。これはあんたの見解やないかもしれんが、あんたはTwitter界隈ではAI進歩の著名な悲観論者として、あるいは我々がこれまでAIで成し遂げてきたことの悲観論者として認識されてる。そしてあんたがそれを5年先やと思てるっていうのは、信じられへんくらい…
間違いなく、ワイのタイムラインは多くの人よりもかなり長い。おそらくこの部屋の多くの人、少なくともベイエリアのテックコミュニティの多くの人よりも長いやろう。ワイは覚えてるんやが、ChatGPTの最初のリリース前でも、サンフランシスコの人らと話してて、「そうや、AGIは1年で来る」って言ってた。「本当に確信してるんか?」って感じやった。
そしてこれは実際に、2023年のQ1、Q2あたりのAGIハイプのピーク頃に、ある種主流になった見解やった。人々はAGIが1、2年先やって確信してた。この物語の背後にあったもの、これが何やったかっていうと、それはGPT-3とGPT-4の間に巨大な能力ジャンプがあったっていう事実やった。そして人々は、GPT-4をスケールアップする、つまり全く同じレシピを再適用するけど、それをより大きくすることで、同じような性能のジャンプ、同じような完全なパラダイムチェンジをもたらすと期待してたんや。
でもそれは起こらへんかった、実現してへん。そしてワイは当時言ってたんや、「いや、あんたらはそれを得られへん。なぜならこんなふうには動作せえへんからや。これは起こらへん」って。そしてそれは起こってへんし、今ワイはテスト適応みたいなボトルネックがどこにあったかを少なくとも特定したから、我々はもっと近づいてると思てる。そしてこれらのボトルネックで本当に良い進歩を始めてる。
そやから去年みたいにちょっとした激しい議論ができるんやが、我々の役割は逆転してるやろうな。なぜならワイも去年から考えを変えたからや。でもワイはより悲観的になった。
特にワイは、あんたが特定した問題、この迅速にスキルを獲得する能力、生の知能について、モデルは本当にそれが得意やと思う。でもワイは実際に有用であるための能力に対する巨大な障害やと思う別の欠けてるものがあると思うんや。これは去年は思い浮かばへんかったことやが、それは仕事で学習する能力や。
見たことのない新しいタスクに適応する能力やなくて、人間従業員のように、あんたのために働く最初の3、6ヶ月間は有用やない。彼らは全てのコンテキストを構築して、失敗から学習して、あんたのために働きながら小さな改善と効率性を拾い上げてるんや。
そしてワイには、この重要な能力をこれらのモデルに簡単にスロットインする方法がないように見える。実際に興味があるんやが、新しいタスクに適応する能力と、その場で学習することの違いをどう定義するんや?ワイには同じことのように聞こえるんやが。
継続学習と適応学習の本質的違い
もしワイが仕事で3ヶ月前に学んだことを呼び戻してるなら、ワイにとってそれは、「ああ、YouTubeアナリティクスが興味深いパターンを教えてくれたし、それが今エピソードを制作する方法とどう相互作用するかについて理論を持ってる」みたいなもんや。その以前の知識を呼び戻して、それについてのある種の豊かな理解を持つこと。それは新しい問題への適応には見えへん。
そうや、そうや。そやから同時にその場で学習すること、仕事で学習すること、そしてその後にその知識を保存して呼び戻せること、単なるドライブリコールやない。
明らかに何かに教師ありファインチューニングをしたら、事実そのものは覚えるやろうけど、ある種のより適応的な…我々は人間が何をしてるかさえ知らんから、対応するML手順が正確に何なのかを言葉で表現するのは難しい。でもそれはより有機的な手順で、その生の情報があんたのデータバンクに再び保存されるだけやない。
ここでの良い例はコンテキスト内学習や思うんや。これは真に人間のような能力を持ってて、コンテキスト内の書かれた言葉だけやなく、あんたのスタイルを拾い上げて、あんたが何を望んでるかについて非常に豊かな理解を持ってる。そしてあんたはこれが3ヶ月、6ヶ月持続することを望んでる。これは人間が仕事でやってることや。
そして商業LLMsに現れ始めてるメモリー機能は、期待に応えてへんと思うんや。それはあんたが意味したことやないんか?
そうや、それらはコーディングには本当によく働くと思う。なぜなら外部の足場があるからや。コードベース自体がそれで、言語ベースで呼び出せる。でも大部分の仕事にはこの種の外部の既存メモリーはない。コードベースのようなもんはないし、さらにコーディングでも一度…これは出てきたMeeterペーパーやったが、この種のことが起こる理由の一つの理論はこのコンテキスト腐敗で、特にクラウドコードを圧縮せなあかん時、「よし、我々は1時間話してたんや、これをもう一度圧縮する必要がある」って聞いたら、それは一緒に思いついた困難な革新について忘れてしまうんや。
でも、よし、あんたは今強気やな。ワイはまだテックの大部分の人よりは強気やないと思う。大部分の人は、ワイよりもずっとずっと短いタイムラインを持つ傾向がある。
そうや。でもワイは、我々がもうAIからそれほど遠くないと信じてる。主要な問題が何かを知ってるし、正しいアイデアで作業を始めさえすれば、それらは取り組み可能に感じられる意味でや。そしてワイは正しいアイデアが既に我々の周りにあると信じてる。それらは既にどこかのarxivや他の場所、人々の心の中に存在してる。
我々は解決策を見つけるやろう。それは数年の問題や。
継続学習の解決策とは
継続学習の解決策はどのようなものなんや?
ワイは、見たことがないものに数個のデータポイントで適応する、その場で学習する能力があれば、既に問題を解決してると思うんや。なぜなら残りは保存する能力だけやから。
そやからあんたは新しいタスクに晒される、見たことがないものや。あんたはそれを非常に迅速に、非常に効率的に、人間ができるのと同じくらい効率的にモデル化する。そしてそのモデルを取って保存する。次回同じようなタスクに遭遇したときに、同じモデルを再利用するか、そのモデルをコア部分、コア抽象化に分解して、新しいモデルに再組み立てできるんや。
そやから継続学習は、あんたが大きなデータベース、抽象化の、再利用可能なプログラムやテンプレートの、新しいタスクのモデルをその場で合成するために使える構成要素のデータベースを持つように見えるやろう。そしてその大きなデータベースは、あんたの異なるエージェント全て、AGIの異なるインスタンス全てにわたってグローバルで共有されるやろう。そしてシステムが見る全ての新しいタスクにわたっても共有される。
そして時間とともにそれはより大きく、より豊かになる。そしてそれが豊かになるにつれて、システムが全く新しいタスクを見るたびに、より抽象的で、より高レベルな構成要素にアクセスできるから、それをずっと効率的に、ずっと迅速にモデル化できるようになる。
ソフトウェア工学を見てみると、今日のソフトウェア工学者は困難な問題でより速く動けるんや。Githubだけでなく、再組み立てできる大量の再利用可能なオープンソースライブラリ、ユーティリティを利用できるからや。もし1970年代のプログラマーやったら、ほぼ全てを自分でやらなあかんから、ずっと生産性が低かったやろう。
そしてワイはAGI、システムレベルで大きく見ると、AGIはソフトウェア工学職業全体のように見えると思うんや。プログラマーのような古いAGIエージェントの束で、抽象化のGithubのようなデータベースとかになるやろう。
超人間的学習能力の本質
興味深い。これは強調する価値がある重要なポイントやと思うんや。AGIについて考えるときはいつでも、人間の代替として考える。あるいは超人間的なものについて考えるときはいつでも、それが持つ超人間的知能を強調する。パズルを解く能力で、人間がARC-AGIで5%取るところを、AIは95%取るかもしれん。
でもあんたが言ってるポイントは、全てのコピーが見る全てから学習するこの能力があるなら、人間よりも早いとか効率的に学習できへんかったとしても、全てのコピーから学習できるけど人間は自分の経験からしか学べへんっていう事実だけで、もう実質的に超人間やねんっていうことや。
そうなんや。現在のLLMsが超人間的知識を持ってるのと同じ方法で、我々のどれよりもずっと多くのコンテンツを見てる。同じ方法で、適応できるこれらのモデルの能力、学習する能力は超人間的になるやろう。なぜなら部屋で一度に一つのタスクから学習する一つのAGIだけやなくて。
数百万のAGIが並行して、実際に互いに相乗効果のあることを学習するんや。そしてモデルのインスタンスのどれか一つが何かを学習するたびに、それが他の全てのモデルと共有される。それが将来の全てのインスタンスが永続的に利用して、新しいタスクの自分のモデルを構築するために活用できる新しい構成要素になるんや。
よし、これは非常にワイにはシンギュラリティのように聞こえるんや。そやから我々にはフランス、有名なAI悲観論者がおって、5年でシンギュラリティが到来するって言うとるわけやな。
シンギュラリティに対する複雑な見解
それは依存する。いやいやいや、ワイはそんなこと言うてへん。本当に依存するんや。ワイはAGIは我々が構築する技術やと信じてるし、それを構築したときには、非常に広範囲の含意があるやろう。レイ・カーツワイルとかの過去の人らがシンギュラリティを描写してきた方法には同意せん傾向がある。
でもあんたのシンギュラリティの定義は何や?
今日のモデルについて考えてるのと同じ方法で、ベンチマークでの生の知能よりも、経済的有用性をもっと見るべきやと思うんや。OpenAIとAnthropicは年間売上約100億ドルを作ってる。そしてコールズやマクドナルドはそれより多く稼いでる。
この不足してるギャップを説明するのは何や?マクドナルドとAGIや。もしAGIを持ってたら、年間100億ドル以上稼ぐべきや。
同じ方法で、シンギュラリティも、単一の個別モデルの能力がどうかよりも、急速に倍増するAI人口によって経済成長の30%以上があるという観点で定義されるべきやと思う。
そやから大部分の人がシンギュラリティを描写する方法は、全てが常に指数関数的に変化し、全てが非常に速く変化して、生物学的人間が十分速く適応する希望がない世界の新しい状態やっていうことや。そしてワイは指数関数的改善に関する物語には一般的に同意せん傾向がある。なぜなら指数関数的改善は現実のいかなるシステムでも見ることはないからや。
通常起こることは、システムは全て部品からできてて、もしある部品、システムのあるコンポーネントがもはやその性能のボトルネックやなくなったら、突然別のコンポーネントが次のボトルネックになって、そんなふうに続くんや。そやからソフトウェアの知能がもはやボトルネックやなければ、他の何かがボトルネックになるやろう。
科学的進歩を見てみよう。データをモデル化し、新しい理論を作り、実験アイデアを思いつくとかする能力。その種の知能がもはやボトルネックやなければ、次のボトルネックはデータを収集し実験を実行する能力になるやろう。
そしてそれがもはやボトルネックやなければ、他の何かになる。そして世界について言えることは、それは主に人間でできてるっていうことや。そして人間はボトルネックまみれや。システムにAGIを導入したら、いくつかのボトルネックは解除するが、主に人々である大きなシステムを見つめることになる。そやからソフトウェア知能を満たしたからといって、指数関数的に速く動くことはないんや。
経済成長率の現実的予測
でも、ボトルネックがあるって言うだけでは、成長率や期間について何も教えてくれへん。例えば、今日の世界経済には多くのボトルネックがある。コスト、疾病、他の多くのことがある。それでも300年間、年2、3%のグローバル経済成長を管理できてる。これは300年間にわたって多くのボトルネックを持ちながらそれができるっていうのは tremendous やねん。
それ以前はより低い成長やったし、これと同じように、ボトルネックがまだ存在することと両立しながら、ずっと多くの成長を持つこともできた。そしてそれが3000%の成長やなくて30%の成長を持つ理由や。でもそれはボトルネックに身振りするんやなくて、その成長数が何であるべきかを見つけるために実際に数を計算する必要があるんや。
通常、このような指数関数的増加を見るとき、それはシステムの入力または出力の増加や。あんたが気にかけることの増加やない。例えば、経済成長を見ると、我々のライフスタイルは指数関数的に改善してるんか?よくわからん。
過去50年を見ても、それが真実やったかどうかわからん。経済は明らかに年数パーセント改善してたのにや。
科学も見ることができる。今日科学をシステムとして見て、その入力、活動してる研究者数や科学に専念してる計算量などを見ると、50年前や100年前よりもシステムに劇的に多くのリソースを投入してる。でも出力、科学的発見の規模と科学的進歩のペースを見ると、科学が100年前よりも今日速く動いてるかどうか確信できへん。
100年前は、例えば物理学や化学で働く人がずっとずっと少なかったのにや。でも彼らの発見の影響はずっと大きかった。その一部は、彼らが低くぶら下がった果実で作業できたからや。既に解決されてない重要な問題で作業する自由がもっとあったんや。そして時間が経つにつれて、同じ規模の影響を与えるのがより困難になる。分野によっては、その分野を設立した最初の論文が、その後の全ての論文よりも多くの影響を持ったこともある。
そやから科学が例えば指数関数的により多くのリソースを消費してるからといって、科学が指数関数的に動いてるという意味やない。
AI人口増加の限界について
マクロ経済についてたくさん質問があったのに、今夜は微視的マクロ経済に神経質になってしまった。
ARC-AGIについて1つだけ質問したいんやが、グレッグにワイを蹴り出される前に。
経済成長に関するAIの利益は、あらゆる分野で時間とともに同じ結果を得るためにより多くの入力が必要になるのに、過去50年、100年前に人口が実際に増加を停止した人口変化があったから、人間文明は大幅に制限されてきたことや。そやから入力からの成長の増加を得ることはできへんが、AI人口は指数関数的に成長し続けることができる。なぜなら入力がより多くの出力を生成できるからや。
それは実際には重要やないかもしれん。例えばワイは、科学は今知能自体によってボトルネックされてないと思うから、無限の知能を持つことは、ワイの意見では無限の結果をもたらすことはないやろう。
ARCでの推論スケーリングの謎
グレッグに蹴り出される前に、もう一つARCについて質問させてくれ。ワイが超興味深いと思ったのは、ARC-AGIの1つ目で、推論スケーリングがあるんやが、推論スケーリングが働き続けるという事実、対数グラフは実際には公正やない。なぜならまだ限界利得をもたらしてる思考の途方もない増加を見えへんからや。明らかに非常に減少してるけど、まだいくらかの利得はあるんや。そしてワイは実際にこれについてかなり混乱してる。
もしO3 highが50%か60%を得るために4300万トークンを取るなら、なぜその4000万番目のトークンがまだそれを賢くしてるんや?思考の1000ページ目で何が起こってるんや?それが限界的により良い答えを与えてるんか?ワイはある時点でプラトーに達すると思ってたんやが、1000ドル分のトークンを使ってもまだ何らかの利益が得られるんや。
ワイは、無制限に実行したら、プラトーを見始めるやろうと思う。いくつかの問題があるという意味で、モデルの探索空間の一部やない ARC空間のサブセットがある。そやからどれだけ深く探索しても、これらの解決策を見つけることはできへん。でもこれらのリターンを見る理由は、解決策のいくつかが探索空間の非常に深いところにあって、それらに到達するために探索を十分長く実行する必要があるからや。
でも最終的に、子供が解けるような簡単なパズルを解くために、テスト時に膨大な量の計算を費やす必要があるシステムは、AGIやとは思わん。それはワイにはブルートフォースのように見える。
知能に関して言うと、テスト時の計算効率は、システムのフィーチャーやない。あったらいいものやない。実際にそれは知能が何かの定義の一部や。知能はより少ないリソースでより多くのことをすることや。リソースを最大限活用することや。それが知能や。データ効率性や。計算効率性や。
例えばチェスを見てみると、最適な手を見つけるために、チェス盤の個々の手全て、そしてその後の全ての手を見る必要があるなら、それは知能のようには見えへん。
知能は、限られた注意力しかないから、いくつかのことを見ることができて、チェスマスターがするように、瞬時に最適な手を見つけることや。


コメント