ベン・ゴーツェル:AGIの意味、オープンソースAI、そしてコンピュート制約について語る

AGI・ASI
この記事は約39分で読めます。

AI研究の先駆者であるベン・ゴーツェルが、20年以上前に自身が生み出した「AGI(汎用人工知能)」という用語の当時と現在における意味の変遷について詳しく解説している。彼は現在の大規模言語モデルがAGIには到達しないと明言しつつ、神経シンボリックAIや進化的プログラミングなど多様なAI技術の大規模化の重要性を強調する。また、オープンソースAI開発の必要性、コンピュートリソースの適切な規模、そしてAGIから人工超知能への移行が予想以上に迅速に進む可能性について論じている。特に初期段階のAGIが多くの仕事を代替する一方で、超知能がまだ万人に豊かさをもたらす段階に至っていない移行期における社会的課題についても警鐘を鳴らしている。

Ben Goertzel: What AGI Means Now, Open Source AI, and Compute Constraints // AI Inside #106
This episode is sponsored by Your360 AI. Get 10% off through January 2026 at with code: INSIDE.Ben Goertzel, founder and...

AGIという用語の誕生と進化

AI Insideポッドキャストへようこそ。このエピソードはYour360.aiの提供でお送りします。2026年1月中にコード「inside」を使用すると10%オフになります。

今回はベン・ゴーツェルをお迎えして、彼が20年前にAGIという用語を生み出した経緯と、当時と現在でその意味がどう変わったのか、AIが多くの仕事を代替できるようになっても社会がまだ適応していない期間に何が起こると考えているのか、そして人間レベルのAIから根本的に超人的なものへの飛躍が驚くほど速く訪れる可能性がある理由について説明していただきます。

それでは今すぐAI Insideで始めましょう。

皆さんこんにちは。AI Insideポッドキャストの新しいエピソードへようこそ。テクノロジーの世界全体に組み込まれているAIを見ていく番組です。私はホストの一人、ジェイソン・ハウエルです。共同ホストのジェフ・ジャービスも参加しています。彼はこの後のインタビューで合流します。

その前に、クリスマスの祝日ですね。お祝いされる方も多いでしょう。多くの人が休暇を取っています。そういうわけで、通常のニュース中心の水曜エピソードの代わりに、ジェフと私は1週間ちょっと前に行った素晴らしいインタビューを共有したいと思いました。AI業界の魅力的な著名人との対談です。おそらく聞いたことがある名前でしょう。

今日はAI研究者で起業家のベン・ゴーツェルをお迎えできることを嬉しく思います。彼はSingularityNetの創設者兼CEOとして最もよく知られており、汎用人工知能のためのOpenCogフレームワークの主要開発者でもあります。ベンは長年AGI研究の声を上げ続けてきた人物で、実際に2000年代初頭に「汎用人工知能」という用語を作り出しました。また、ハンセン・ロボティクスの主任科学者としてロボティクスにおける応用AGI研究を主導し、ロボット「ソフィア」のソフトウェアチームを率いました。掘り下げるべきことがたくさんあります。それではベン・ゴーツェルとの対談に早速入っていきましょう。

ベン・ゴーツェルを番組にお迎えできることを大変嬉しく思います。ベン、お越しいただきありがとうございます。

ええ、こちらこそ嬉しいです。

番組では汎用人工知能、AGIに関連するトピックについて頻繁に話しています。あなたは20年以上前にAGIという用語を生み出したことで話を始められることに慣れているでしょうね。そうですね、ちょっとクールなことです。そして最初にお聞きしたいのは、あなたが数十年前にこの用語を生み出したときのことです。特にここ数年、この言葉は業界にとって本当に呼び物のようなものになっていると感じます。呼び物というより目標地点かもしれませんね。おそらく常に目標地点だったのでしょうが、今多くの人がこの用語を使っています。2025年、もうすぐ2026年になろうとしている今、この用語はあなたが20年前に定義したときと同じ意味を持っているのか興味があります。

ほとんどそうですね。ええ、そう思います。AGIというミームの起源には、私が編集していた本が関係しています。それは学術的な研究論文集で、人間と同じように考え、最終的にはそれ以上に考えることができる本物の思考機械を構築することを扱っていました。

当初、本のタイトルは「Real AI(本物のAI)」にする予定でしたが、それは常に仮のタイトルでした。ただ、それは非常に価値のあることをしているけれど、人間レベルの汎用知能という最終目標を目指しているわけではないAIアプリケーションを軽視しているように思えました。

レイ・カーツワイルが彼の著書で、結局2005年に出版された『シンギュラリティは近い』の中で引いた対比ですが、レイは以前の著書でナローAIとストロングAIを対比させていました。それは奇妙に思えました。なぜなら「狭い」と「強い」は反意語ではないからです。そして「ストロングAI」には認知科学の分野で意識についての意味がありました。

ですから私たちは、チェスをしたり税金の手助けをしたり市場を予測したりといった非常に特定のことを行うナローAI、つまりナローなAIと、人間ができるように幅広い多くのことをやろうとし、常に新しく異なることをやるために方向転換し続けるAIとの違いをどう優雅に表現するかを考えていました。

そして私たちは「汎用人工知能」という言葉を思いつきました。いくつかの議論の後、本の章の共著者の一人で、ペイ・ワンという中国人の男性が、GI、つまりジェネラル・アーティフィシャル・インテリジェンスを提案したと思います。その後、後にGoogleのDeepMindを設立することになるシェーン・レッグが、彼は以前私のために働いていたのですが、そして現在AGI社を運営しているピーター・ヴォスが、私の記憶では、GIではなくAGIにしようと提案しました。

そういうわけで、私たちは本のタイトルを探していて、本を出版しました。本の中には、AGIとは何かを定義する数学的アプローチを説明する章などがありました。その要点は、自分の知識を常に超えて飛躍し、新しいことに対処するために方向転換し、経験を超えて一般化できるシステムだということです。

これを数学的に要約する一つの方法は、すべての計算可能な環境とすべての計算可能な報酬関数にわたって、どれだけ賢くなれるか、ということです。そしてそれには、あなたの人生の履歴や経験にはない、あらゆる種類のものが含まれなければなりません。

ですから、私たちが本のタイトルを「汎用人工知能」とつけたときに念頭に置いていた概念的な意味、そして本の中でAGIとは何かを定義する際に念頭に置いていた数学的な意味、これらは今でも完全に関連性があります。

変わったのは、今では商業的な観点からさまざまな人々がAGIという用語に新しい意味を導入し始めたことです。AGIは自分の履歴やプログラミングを超えて人間と同じように一般化できるものを意味するのではなく、AGIは私の会社が時価総額1兆ドルに達することを意味するとか、AGIは人間の仕事の95%ができることを意味するとか。これらすべてはおそらくAGIに関連していますが、人間やそれ以上の敏捷性で経験を超えて一般化できることと同じではありません。

しかし、研究コミュニティが理解しているAGIの核心的な意味は変わっていないと言えます。ただ、いつもそうですが、マーケティング担当者が何かを手に入れると、他のさまざまなアドホックな意味が蓄積されていきます。それは寿命延長と同じようなものです。誰もが寿命延長が何を意味するか本当に知っていますが、それでも、肌を輝かせるジム・ボブ博士の寿命延長クリームのようなものがあるわけです。

「ジェネラル」という言葉について少し掘り下げてもいいですか。私はグーテンベルクの印刷機について本を書きましたが、それは汎用機械です。それで何ができるか予測できませんでした。それもAIの汎用機械としての意味合いだと思います。

しかし、なぜそれが目標になったのか疑問に思います。あなたはナローAIについて話しましたね。AIはすでに囲碁をしたりタンパク質の折り畳みをしたり、その他のことで人間の能力をはるかに超えています。私が誤解しているのでしょうか。すべてをできる一つの機械を一般化することに魅力があるのでしょうか、それとも私たちが想像できる以上に1000のタスクをはるかにうまくこなせる1000の機械があることに魅力があるのでしょうか。

ええ、非常に明確で明白な魅力があります。しかし、最初に明確にしたいのは、それが目標になったのではないということです。それは元々の目標でした。1950年代後半にAIという名前が考え出されたとき、そしてそれ以前でも、たとえば1940年代にノーバート・ウィーナーの著書『サイバネティクス』が出版されたときにも、目標は人間のような汎用知能のデジタルまたはアナログのエンジニアリング版を作ることでした。それがAI分野の元々の目標だったのです。

ナローAIへの分岐は後に、70年代にもっと起こりました。人々が人間のような思考機械を構築するという元々の目標を達成することがどれほど困難かを理解し始めたときです。

もう一つの重要な点も、AI分野の起源に遡ります。私と同じく数学者だったアーヴィング・グッドは、1965年、私が生まれる1年前に書いています。彼は「知能爆発」の概念を導入し、1965年に「最初の真に知的な機械は、人類が作る必要のある最後の発明になるだろう」と書きました。

ここには自己改善、自己修正、継続的な拡張という概念があります。もし1000の異なる特定のことをする1000の異なるナローAIがあったとしても、では1001番目は誰が作るのでしょうか。次は誰が作るのか、次は誰が作るのか。それぞれの特殊化された機械を作る上で、あなたは人間の発明力によって制約されたままです。

もし異なるアプリケーション用に独自のナローAIを構築できるAGIがあれば、それは将来現れるかもしれない予見できないユースケースに対処するために、自分の心をどうカスタマイズするか、または新しい人工的な心をどう作るかを扱うAGIです。そしてそれは、あなたが作成できるナローAIの固定されたコレクションよりも明らかにはるかに大きな価値があります。

ですから、私が生まれる前や子供だったころに活動していたAI分野の元祖のパイオニアたちは、一般化し未来に飛躍する基本的な能力に注目したのは正しかったと思います。

さて、人間とまったく同じように一般化できることは、ある意味恣意的です。それは人間より速く走れる自動車を作ろうとするようなものです。人間の知能は大いなる計画の中では恣意的なベンチマークです。経済的には重要ですし、明白な理由から私たちにとって重要です。

しかし、アーヴィング・グッドが60年代に正しく見ていたことの一つは、AIが人間レベルの能力で一般化できるようになれば、根本的に超人的な能力で一般化できるようになるまでそれほど長くはかからないだろうということです。

2005年、私がAGIに関する本を出版したのと同じ年にカーツワイルが出版した『シンギュラリティは近い』の中で、カーツワイルは「2029年までに基本的に人間レベルのAGIに到達し、2045年に超人的AGI、超知能、シンギュラリティに到達する」と言いました。

今では、人間レベルのAGIと超知能の間に16年のギャップがあるという考えは、多くの人にとっておそらく長すぎると思われています。なぜなら、今では大規模言語モデルがすでに数学や科学でどれだけ優れているかがわかるからです。LLMがすでにできることに、ある程度のエージェンシーや創造性、事実の基礎づけを加えた人間レベルのAGIがあれば、なぜそれが知能爆発を本当に起こすのに16年もかかるのでしょうか。

ベビーAGIと予測のタイムライン

そういった流れで、あなたは2025年初頭までに「ベビーAGI」と呼ばれるものを予測されていたと思います。とてもかわいいですね。もう年末ですが、この予測についてはどうなっていますか。そしてあなたの他の予測、たとえば2029年というのもありましたよね、それについても教えてください。

それはカーツワイルの予測です。レイ・カーツワイルは2005年の著書『シンギュラリティは近い』で、2029年までに人間レベルのAGIに到達すると予測しました。2005年には、それはかなり突飛に思えた人も多かったのですが、今では主要企業のCEOの中に、いや、それは長すぎる、2027年になると言う人もいます。一方で、AGIまで少なくとも10年はかかると言う人もいて、今では10年かかると言うとAGI悲観論者のレッテルを貼られます。

ですから、大局的に見ると、2005年に書いて2029年を指摘したのはかなり良かったと思いますが、もちろん私たち誰も、これらの最先端技術の正確な開発速度を予測することはできません。なぜなら、それは技術だけでなく、市場やベンチャーコミュニティの雰囲気、政府の助成金などにも依存するからです。

技術と科学と概念的側面を理解していれば、何が可能かの順序を見ることはかなり簡単です。しかし、その順序がどれだけ速く進行するかは、技術と同じくらい人間の世界に依存します。そしてそれはベビーAGIについても確かに当てはまると思います。

私たちは今までにベビーAGIを持つことができたでしょう。世界が資金を提供したいと思わなかっただけです。今、数学オリンピックに勝つAI、いや言い直しますが、今、数学オリンピックに勝つAIがあります。ですから、その点では非常に速く進歩しています。

人工的な赤ちゃんを作ることに関しては、世界があまり資金を提供したいと思っていないことです。ですから、汎用知能のさまざまな側面の開発速度は、他の何よりもお金とミーム学に依存します。

しかし、全体として、AGIへの進歩は非常に劇的だと思います。LLMがAGIだとは思いませんし、より大きなLLMそれ自体がAGIになるとも思いません。しかし、LLMが他の種類のソフトウェアと統合されたときにできることを見ると、その機能はどんどん近づいてきています。それは確かに何かを物語っています。

LLMの限界とAI研究の方向性

少し割り込みますが、Patreonを通じて直接私たちをサポートしてくださる皆さんに感謝します。patreon.com/aiinsideshowです。あなたのサポートのおかげでこの番組ができています。新しいパトロンが何人かいます。トム・キャラハン、そしてもう一人、私のいとこのヴィンス・ウェルキーです。ヴィンス、AI Insideファミリーへようこそ。

patreon.com/aiinsideshowです。サポートしてくださる皆さん、ありがとうございます。あなたたちが文字通りこの番組を前進させています。

また、今日のスポンサーであるYour360 AIも番組を前進させています。約2週間半から3週間前、Your360 AIのCEOであるジャレッド・ゲラルニックをAI InsightのYouTubeチャンネルに招いて、彼の製品を見せてもらいました。非常に魅力的だったので、実際に自分でレビュープロセスを行っています。いくつかのレビューがあり、さらにいくつか待っているところです。私はプロセスの真っ最中です。ジェフは実際に私のフィードバック提供者の一人なので、彼から話を聞くことになります。ロン・リチャーズやトム・メリットなど、認識できる名前の他の友人もいます。とにかく、それについてワクワクしています。

興味深いことがあります。キャリア開発の欠如、これが人々が仕事を辞める第一の理由です。それなのに、私たちのほとんどは実際に行動に移せるほど良いフィードバックを受けたことがありません。それは確かに私にとっても当てはまります。

Your360は、半年前には不可能だったことを実現しています。AIの急速な開発ペースにより、今では完全に可能です。音声AIを使用してあなたと同僚との実際の会話を行います。それぞれ15〜20分程度です。私もやりました。とても簡単でした。具体的なこと、私の勝利や成長分野、その間のすべてを掘り下げます。そして、それをすべて統合し、コーチング会話でステップバイステップで調査結果を案内します。

マネージャーの場合、通常の調査では見えないチーム全体に存在するパターンを浮き彫りにします。DropboxのPMは、これを今まで受けた中で最も役立つ、実行可能なキャリアアドバイスと呼びました。大きな言葉です。そして今のところ、私は完全に理解しています。

your360.aiで本当の明確さを持って新年を始めましょう。コードinsideを使用すると、2026年1月中10%オフになります。your360.ai、コードinsideで2026年1月中10%オフです。AI Insideポッドキャストへのサポートに感謝します。

数分休憩してから、ベン・ゴーツェルとのインタビューに戻ります。

LLMについてですが、あなたに同意します。私は何も知りませんし、十分には知りませんが、ヤン・ルカンがLLMでは到達できないと言っており、あなたも確かに一人ではありません。他の人たちもこれを言っています。しかし、LLMは市場と世界から酸素と資本と研究費を吸い上げてきました。あなたは神経シンボリック研究の必要性について話しています。ヤンはワールドモデルについて話しています。

開発と研究と資金はどこに向かうべきだと思いますか。代わりにではなく、今は追加で。再配分すべきでしょうか。

まず第一に、経済的な観点からこれを分析したわけではありませんが、LLMとその台頭は、競合するAIパラダイムへの資金も、LLMが台頭する前よりも増やしたのではないかと思います。

ですから、はい、LLMはAI研究開発のパイの中で必要以上のシェアを吸い上げています。一方で、彼らの成功はパイを非常にかなり拡大したと思います。ですから、神経シンボリックAIの研究費が、ChatGPTが登場する前の2021年よりも今の方が少ないとは思いません。おそらくもっと多いでしょう。比率的には少ないかもしれませんが、絶対額ではおそらく多いでしょう。

しかし、これは感覚です。その分析はしていません。私自身の仕事については言えます。私の仕事は主にLLM指向ではありません。一方で、主要なLLMの取り組みに比べてひどく資金不足です。一方で、2021年よりもかなり資金が潤沢です。そしてそれはおそらく全般的に当てはまると思います。

とはいえ、ええ、ビジネス界は何かがうまくいったらそれに皆が飛びつく傾向があると思います。それは市場リスクよりも技術リスクを受け入れられないためです。そしてそれはアジアや世界のほとんどの地域で非常に真実です。

米国では、ビジネス界内で技術リスクを引き受ける意欲がもう少しありますが、それでもあまり多くありません。ほとんどすべての投資家は、まったく異なるものを構築することに賭けるよりも、すでにあるものをコピーして異なるマーケティングスピンをかけることに飛びつきたいと思っています。

ですから、LLMは他のAIパラダイムよりも前に、非常に印象的で有用な機能レベルに到達しました。そして現代資本主義の自然な力学によって、それらに狂ったように飛びつくわけです。おそらく合理的ではない程度まで。そしてそれはテクノロジーのあらゆる分野で見られることです。

なぜ内燃機関が車を動かすためのすべての資金を得たのか、政府が介入して、ちょっと待って、電気や水素もあると言うまで。内燃機関がうまくいって、それを中心にインフラができて、誰も奇妙なものにリスクを取りたくないからです。

ええ、お互いのLLMをコピーする人々に十分以上のお金が費やされていると思います。同じ機能のわずかな変化を持つLLMがそれほど多く必要なわけではありません。それが資本主義の仕組みであり、競争の仕組みであることは理解していますが、小規模で実証された非常に有望な他のAIアイデアや概念が山ほどあります。それらをスケールアップすることにももっとお金が入るべきです。

論理的推論があり、ニューラルネットと論理的推論を混ぜる神経シンボリックは、太陽の下で間隔を置く時期に来ていると思います。今朝、AmazonからAWSインフラストラクチャの裏側でどのように神経シンボリックを使っているかについての大きなブログ投稿や記事を見ました。もちろんIBMも長い間取り組んでいます。

しかし、ロジックとニューラルネット以外にも他のものがあります。進化的プログラミング、遺伝的アルゴリズム、遺伝的プログラミングがあります。コンピュータ内で自然選択による進化のプロセスをシミュレートします。ジョン・コーザは遺伝的プログラミングを使って新しい回路設計を設計していました。90年代後半にさかのぼるかもしれません。

創造性のためには、概念のブレンディング、コンピュータ内で新しいアイデアを組み合わせるアルゴリズムがあります。小規模でクールなことをすることが示されている興味深いAI技術の長いリストがあります。しかし、それらをスケールアップして大規模で何ができるか見るためのお金が入っていません。

バックプロパゲーションで訓練された深層ニューラルネットワークを大規模で実行することで何が起こったかを見てきましたよね。小規模でやっていたときを超えた驚くべきことをしました。しかし、それはビジネス界にとっては少し抽象的すぎます。

典型的な投資家がやりたいことは、うまくいった正確なものを取り、それをコピーし、異なるブランドをつけてマーケティングすることです。小規模で何か興味深いことをしたAI技術を取り、それを大規模にスケーリングすることで機能した方法論を言いたくないのです。では、小規模で何か興味深いことをする他のAI技術で、大規模にスケールできるものは何でしょうか。

それは弦理論や自動推論理論に比べれば非常に単純な抽象化の行為です。しかし、投資コミュニティが取るには明らかに大きすぎる抽象化の飛躍です。これは、LLMをコピーしたり、LLMの上にアプリを構築したりする以外のことを喜んでする人にとっては、途方もない機会を生み出します。

なぜなら、AI世界には、スケールアップされるのを待っている興味深い可能性の巨大な範囲があるからです。そして私が過去3年間の多くを費やしてきたことは、より広範なAI技術をスケールアップするためのオープンソースソフトウェアインフラストラクチャを構築することです。これが必要なことだとわかっていたからです。そしてベンチャー資金による企業の主流はそれをやっていないだけです。

AGIへの道のり

LLMがAGIに到達することについて少し触れますが、完全に同意します。LLMは必ずしもAGIにつながらないと私も信じています。しかし興味があります。過去2年間でLLM空間で非常に多くの活動、非常に多くのエネルギーを見てきましたが、あなたの考えに挑戦するようなベンチマーク、能力を見たことがありますか。

おそらくまだそれが起こるとは信じていないと理解していますが、それに対して押し上げているようなもの、期待以上のものはありますか。

全くありません。いいえ。LLMは私が期待した以上の多くの能力を与えてくれたと思います。一方で、それらがAGI能力を持つようになると思わせる方法ではありません。

AI の歴史全体を通じて、どのものがAGIハード、つまり人間レベルのAGIが必要なものであり、どのものが巧妙なトリックでできるものかを予測することは難しかったと思います。この分野はそれが得意ではありませんでした。

70年代には、チェッカーが60年代後半に世界チャンピオンのチェッカープレイヤーがいたのに、チェスや囲碁が単純なトリックに感受性があるとは誰も思っていませんでした。人々はチェスや囲碁はそれらの単純なトリックには難しすぎると思っていました。そしてそれらが屈服したとき、人々は「ああ、そうか、アルファベータプルーニングと高速ハードウェアだけで必要だったんだ」と言いました。

人々は70年代までコンピュータアルゴリズムが人間のトレーダーを上回ることができるとは見ていませんでした。なぜなら、市場の心について持っている直感があると思っていたからです。しかし違いました。比較的単純な統計アルゴリズムがほとんどすべての人間トレーダーを上回ることができることがわかりました。

ですから、私たちは多くの深い思考、創造的な汎用知能でやっていることのうち、どれがコンピュータでやるときに汎用知能を必要とするかを理解するのが得意ではありませんでした。

ですから、もし何かあったとすれば、LLMが曖昧な領域で人間の思考を直感する能力に驚きました。LLMに、たとえば「テヘランの25歳のそれほど宗教的でないイスラム教徒がカイロのこの三角関係の状況についてどう思うか」と聞くことができます。そして、この種またはあの種の人間がこの状況またはあの状況についてどのような倫理的判断を下すかを説明するのがとても上手です。

それにはもっと具現化された思考やニュアンスが必要だと私は推測したでしょう。しかし一方で、後知恵では、オーケー、インターネットには外挿する関連例が山ほどあることがわかります。

LLMがプログラミングや数学で能力を持つことには、それほど驚きません。なぜなら、最終的にそれらは言語的な領域だからです。オンラインには膨大なコードと数学のコーパスがあり、本当に根本的な革新をしていて、既知のものをはるかに超えて飛躍していない限り、オンラインのすべてのコードと数学の例から外挿することは可能であるべきです。

しかし、私にとっての大きな収穫の一つは、オーケー、はい、LLMはトレーニング分布をはるかに超えて飛躍することはできません。一方で、人間の仕事の95%はトレーニング分布をはるかに超えて飛躍する必要はないかもしれません。

ですから、経済で行われているほとんどすべてをするのにAGIは必要ないかもしれません。そしてそれはLLMを見る前には私にとってそれほど明白ではありませんでしたが、今ではかなり明白です。

ビジョン言語アクションモデルを取ってロボットの後ろに置くことができます。LLMをさまざまな特化した統計的およびルールベースのシステムと統合できます。おそらくAGIに到達することなく、人々が給料をもらっている仕事の90%以上ができるでしょう。

しかし、それは本当に、私たちの仕事のほとんどが多くの汎用知能を必要としないことを意味しているだけです。なぜなら、それらは以前に行われたことを模倣することだけを含むからです。

それにもかかわらず、人間の活動の1%か2%かがトレーニングデータを大きく超えて飛躍することを含むことをできなければ、進歩はありませんよね。科学、ビジネス、エンジニアリング、芸術、文化が進歩するという事実は、創造的な汎化の飛躍を歴史を超えて行う人間の活動のその小さな部分のためです。

そしてLLMが決してそれをしないことは明白です。つまり、内部でアーキテクチャされている方法がそうではありません。内部でアーキテクチャされている方法は、見たすべてのデータからの特殊なケースの巨大な巧みに重み付けされたコレクションのようなものです。彼らはあまり抽象化していません。そして根本的な汎化の鍵は根本的な抽象化です。

そしてそれはLLMが内部でやっていることではありません。そしてそれは微調整ではありません。非常に異なるアーキテクチャが必要です。

オープンソースとスケールの問題

スケールとオープンソースについてお聞きしたいです。神のご加護を。あなたはこれが少数の企業によって完全に制御されることを許すことはできないと主張してきました。オープンソースの分散モデルが必要です。あなたはそれを構築してきました。

そしてそれにはオープンソースへの投資が必要になります。それが起こった例を見てきました。ApacheやLinuxが成長しました。それは想像できると思います。これは必要なコンピュートと資本の点で違った香りがします。

あなたが達成したいことをオープンソースで達成するために、少し戻らせてください。数週間前、DeepMindのアダム・ブラウンと、間もなく元Metaになるヤン・ルカンとの間の議論のようなものに参加しました。

Googleの見解、DeepMindの見解は、LLMへのより多くのスケール、より多くのスケール、より多くのスケールで到達できるというものでした。もちろんご存知のように、ヤンは「いや、異なるパラダイムが必要だ」と言っています。

興味があるのは、あなたが達成したいことを達成するために何が必要かということです。A、オープンソースを使用して、B、GoogleやDeepMindが言っているようなスケールが必要になるのでしょうか、それとも実際には、人々が今想像しているよりも少ないスケールで済むのでしょうか。コンピュートとデータセンターに過剰投資しているのでしょうか。

人々があなたの言っていることに注意を払い始め、シフトが起こったときに、これはどのように見えるのでしょうか。

少し複雑です。ここには多くのニュアンスのある半分の真実があり、メディアは一つの極端または別の極端に押し付ける傾向があると思います。

絶対的にスケールは重要です。AIのパイオニアの一人である故マービン・ミンスキーは、正しいアルゴリズムがあれば、IBM 486 PCで人間レベルのAGIを得ることができると思うと私に言ったことがあります。

そしてマービンはそれについて完全に間違っていたと思います。昨年、彼の息子ヘンリー・ミンスキーとこれについて話し合いましたが、父親に対するすべての敬意を持って、ヘンリーがその感情に同意したとは思いません。マービンが今生きていたらどうだったかはわかりません。

ですから、スケールは重要だと思います。メガバイトのRAMで実行するアルゴリズムがあり、同じアルゴリズムをペタバイトのRAMで実行すると、複雑な自己組織化された創発現象が発生し、アルゴリズムが質的に異なることをするようになります。

大規模なトランスフォーマーニューラルネットにおけるフューショット・イン・コンテキスト学習は、LLMの背後に見られる一例です。GPT-2のスケールではそれほど見られませんが、GPT-3.5のスケールで見始めます。GPT、Geminiのスケールではさらに印象的な現象です。

ですから、スケールは重要です。一方で、それが今ビッグテックが言っているほど重要だという意味ではありません。はい、最初の人間レベルのAGIをノートパソコンで実行するつもりはありません。一方で、Googleが必要とするハードウェアの量を10倍過大評価していないという意味でしょうか。彼らはおそらく大幅に過大評価しています。哲学のレベルでは彼らはある意味正しいですが。

デミスとDeepMindの人たちはこのニュアンスを非常に徹底的に理解していると思います。ある程度、彼らはGoogleに同化されましたが、彼らはこれらのトレードオフについて非常に深い理解を持っていると思います。

データセンターへの投資に関しては、一般人が過剰投資していると思っているにもかかわらず、誰もがデータセンターに過小投資していることはかなり明白だと思います。しかし、それはGPT-7を実行するのに1兆ドルのサーバーが必要になるからではありません。

主流が考えるよりも少ないサーバーを使ってAGIを得ることができるとしても、多くの異なることをする多くのAGIが欲しいでしょう。AGIは経済全体を引き継ぐでしょう。

再び、コンピュートリソースのはるかに効率的な使用がありますが、それにもかかわらず、これらの効率的なシステムがAGIに向かって移動するにつれて、ますます多くの有用なことをするようになるため、コンピュートリソースの需要ははるかに高くなります。

そして、Googleの創設者はこれを理解していると思います。DeepMindのデミスとシェーンはこれを理解しています。ザッカーバーグはこれを理解しています。ビッグテックのリーダーの背後には、メディアに投影されるものよりも微妙な理解があると思います。

オープンの観点から、これについて本当に興味があります。ええ、オープンなことには入りませんでした。ええ、それについてのあなたの見解を聞くことを非常に切望しています。

サム・アルトマンは先月、OpenAIがオープンソースに関して歴史の間違った側にいたと言っていたと思います。最近、GPT-4oのOSSができました。オープンウェイトがあります。トレーニングデータはありません。アーキテクチャの詳細はありません。

これがあなたが話しているオープンの意味とどう比較されるか興味があります。今、多くの用語の共有が起こっていると思います。

公平に言うと、オープンソースに関する用語は、AIがそれほど大きくなる前から混乱していました。オープンソースがあり、FOSS(フリーおよびオープンソースソフトウェア)があり、リチャード・ストールマンのLibreソフトウェアがありました。

多くのオープンソース熱狂者は、GPLだけが実際にオープンであり、ApacheやMITライセンスは実際にはオープンではないと信じています。ですから、それは常に複雑でしたが、今ではさらに複雑になっていると思います。

なぜなら、今では、AIシステムの背後にあるソフトウェアコードを開くことが必ずしもそれほど多くのことをしない地点にいるからです。トレーニングデータとトレーニングデータクリーニングパイプラインを開いていなくて、トレーニングデータを寄せ集めた後にオープンコードを実行するのに10億ドルのサーバーが必要な場合、実際には6か月後に次のオープンコードをリリースする前に、そのオープンコアを活用する方法は誰にもありません。

ですから、ソースコードだけでなく、非常に多くのデータと非常に多くのコンピュートを必要とするものがある場合、ソースコードを開くだけでは、オープンソースの精神を必ずしも満たしません。文字通りオープンソースであっても。

ええ。オープンソースの精神的、哲学的、社会的目標を達成するために必要なことは、コードを開くだけ以上のものだと思います。コードを開く必要があります。データが何であったかを説明し、理想的にはそのデータを寄せ集めるオープンな方法を提供する必要があります。そして、人々ができるだけ柔軟な方法でインフラストラクチャ上でコードの独自のフォークを展開できるツールを提供する必要があります。

何かが実行するために膨大な量のコンピュートを必要とする場合、まあ、そうですが、人々がさまざまなコンピュートインフラストラクチャ上で柔軟に実行できるインフラストラクチャを構築できます。サーバーファームに持っている正確な並列分散処理インフラストラクチャを必要としません。

そして、さまざまなコンピュートインフラストラクチャ上で実行できるアルゴリズムを開発しようとしているのか、数十億ドルのモノリシックなサーバーファームが必要なアルゴリズムを開発しようとしているのかという問題があります。

そして、ここには一種の経済的および社会学的なポイントがあると思います。ビッグテックは、大量のデータと大規模なモノリシックサーバーファームを必要とするAI手法を促進するあらゆる理由があります。

なぜなら、AI分野がこの種のビッグデータとビッグコンピュートを必要とする方法に焦点を当てている限り、ビッグテック以外は誰も競争できないからです。ですから、ビッグテックには、より少ないデータまたはより少ないコンピュートを必要とするAI手法、またはより異種のコンピュートインフラストラクチャ上で実行できる手法を開発する大きな動機がありません。

ですから、私たちがすべきことは、できるだけ少ないデータ、できるだけ広く利用可能なデータで実行するように設計されたAI手法を開発し、できるだけ柔軟なさまざまなコンピュートインフラストラクチャ上で実行するように設計されることです。

そしてそれをオープンソースコードと一緒に必要とします。そうすれば、実際に自由でオープンで、AGIの開発へのグローバルな参加を促進するものが得られます。

そしてこれが私自身のAIプロジェクトで開発していることです。もちろん、OpenCog Hyperonプロジェクトは、深層ニューラルネットを超えて思考機械を構築しようとする神経シンボリック進化的AIインフラストラクチャを構築しています。

そして、SingularityNetでは、分散型マルチエージェントプラットフォームを構築し、現在はASI Chainプラットフォームを構築しています。これにより、Hyperonや他のAI手法を異種の分散プロセッサネットワーク上で柔軟に実行できます。

今、善意でコンピュート要件を完全に振り払うことはできません。ですから、AGIの一部の側面は、1つの建物のラック上に多数のマルチGPU、マルチCPUサーバーを持つサーバーファームを必要とするかもしれません。

しかし、携帯電話のメッシュネットワークや分散型の方法でネットワーク化された人々のラップトップの束で実行できるAGIの他の側面が明らかにあります。そして、この根本的に分散型のインフラストラクチャにどれだけプッシュできるか、どのカーネルが本当にサーバーファーム上にある必要があるか、そのサーバーファームのサイズをどれだけ最小化できるかを見るべきです。

皆さん、ちょっとだけ一時停止して、YouTubeチャンネルがあることをお知らせします。YouTubeの私たちのチャンネルでこのインタビューを見ているかもしれません。もしそうなら、必ず登録してください。そうすれば、他のインタビューやニュースエピソードを見逃すことはありません。

もしそうでなく、ポッドキャストでこれを聞いているだけなら、見逃している全体的なビデオコンポーネントがあります。時々本当にクールなものがそこに登場します。ですから、YouTubeに行って、AI Inside Showを検索し、登録して見逃さないようにしてください。

それでは、本当に短い休憩です。それからゴーツェル博士とのインタビューに戻ります。

オープンAIの未来に向けて

あなたのオープンの定義が大好きです。非常に明確だと思います。他に誰を説得する必要がありますか。大企業を心配しているからです。政府の規制を心配していますが、助けが必要です。

Metaには Llamaがあり、オープンっぽいと呼んでいます。ザッカーバーグが今何をするのか確かではありません。他の人たちはオープンっぽいものを持っていますが、もし人々の頭の中に入る能力があったら、誰の考えを変える必要がありますか。あなたのビジョンを可能にするために彼らに何をコミットさせる必要がありますか。

おそらく必要なことは3つあります。

一つは、政府がビッグテックによるAI分野の捕獲を許可する悪影響のある規制を可決しないことが必要です。皮肉なことに、私が全面的に同意しない政治を持つトランプは、これまでのところこの点でかなり有益です。悪影響のある規制の制定を避けることにおいて。

この点で試みを見てきました。カリフォルニアはそれほど昔ではなく、オープンソースAIに対する規制を検討していました。それは基本的に、ビッグテックだけが大規模なナローモデルを開発できるようにするものでした。トランプはそれに反対しており、それは非常に有益だと思います。

ヨーロッパで何が起こるかは明確ではありません。ですから、政府がAIを少数の大企業に引き渡さず、オープンな開発を許可しないことが必要です。それが一つです。

また、開発と研究コミュニティが参加する必要があります。R&D側とソフトウェアハッキング側でAIに興味がある人々が、単にビッグテック企業が与えたこのPythonツールキットは本当に使いやすいと受け入れるだけではいけません。楽しいです。それでたくさんのクールなものを構築できます。彼らのエコシステムに参加するだけです。

R&D コミュニティは、少し生々しくて洗練されていないが、異なる方法で、オープンで分散型の方法でAIをさせるツールを扱う意欲が必要です。そしてLinuxはそこで美しい道を提供します。

Linuxの開発ツールは常にビッグテックの開発ツールよりも少し手間がかかりました。確かに、Microsoft Visual Debuggerは美しいです。GDB GNU Debuggerは驚くほど能力がありますが、それと心を溶け合わせるには少し学習曲線があります。

しかし、これらすべての問題にもかかわらず、堅牢なLinux開発コミュニティがあり、これは多くの素晴らしいことにつながりました。Linuxはインターネットを支配しています。Linuxは世界的にモバイルを支配しています。そしてこれはオープンな基盤の上にあり、Linuxは政治的分裂を横断します。

良くも悪くも、フィンランドのトーバルズがいたところと同様に、北朝鮮、イラン、中国でサービスを動かしています。ですから、そのコミュニティが必要です。

そして最後に、3つ目はお金が必要です。ビッグテックが行っている閉鎖的で中央集権的な方法よりも、オープンで分散型で物事を行うのに必要なお金は少なくて済みます。

なぜなら、さまざまなビジネスモデルから人々に参加してもらうことができるからです。大学を別の方法で活用できます。高コストの技術ハブだけでなく、世界的に働くことができます。

しかし、結局のところ、最初のAGIを実行するのに2000万または3000万のハードウェアだけが必要で、1つの場所の小さなサーバーファームではなく30の異なる場所に分割されていても大丈夫な場合、それでもAGIに必要なハードウェアは数億ドルです。

そしてそれは、はい、ビッグテックが行っているよりも安く、狂気じみて肥大化していないようにできるという私のポイントに帰着します。一方で、それでもたくさんの機械が必要になります。

ですから、資金調達は必要です。私自身のAGI努力は2018年以来、暗号通貨の世界を通じて、AGIXトークンを通じて、そして今はFetchとASIトークンを通じて資金提供されています。

そしてそれは興味深かったです。いくつかの点で気が散りましたが、私のAI努力をオープンネスと分散化を支持するコミュニティと接触させました。暗号世界で見つける他の奇妙な特性もあります。

しかし、暗号圏がオープンで分散型のAI革命のすべての資金がどこで起こるかに十分であるか、そうなるかはわかりません。ですから、そこには不確実性があります。

とにかく、これらの3つのことが揃う必要があります。規制が私たちを止めないことが必要です。コミュニティが必要です。ハードウェアインフラストラクチャのための資金が必要です。それはビッグテックがあなたに思わせようとしているほど大きくはありませんが、それでもかなりのものです。

次世代へのアドバイス

完全に開示すると、私は偽の学者で、偽のAI人間です。ただのジャーナリズムの教授なので、サイドドアから忍び込みました。しかし、Stony Brook大学でテクノロジー、AI、社会に関する新しいプログラムに取り組む特権がありました。

そしてSTEM大学で、本当の天才たちを見るのは魅力的です。もしあなたが若い人だったら、大学の4年生や若い大学院生だったら、ジェンスン・ファンのような人々が「ああ、コンピュータサイエンスを教えるのをやめろ」と言っているのを見ながら、この未来がここにあることを知っている今、若い人にコンピュータかその他のどちらに焦点を当てるべきかアドバイスしますか。次世代にあなたのアドバイスをください。

そして、私の13歳の姪と彼女の友達がこの種の質問を検討しています。彼らは「ええ、大学に着くときに大学はそこにあるのか、大学を出るときにどんな仕事がまだ存在するのか、何を勉強すべきか」と言っています。

個人的なレベルで彼らに与えることができる最善のアドバイスは、まず第一に、少なくともそれがあったので、楽しんで情熱を持っていることをしたほうがいいということです。あなたは満たされ、報われました。

第二に、新しいことを学び、適応し、方向転換することが得意になることです。なぜなら、明らかに世界はそれをあなたに要求するからです。どんな轍にもはまらないでください。その瞬間にどれほど魅力的または有利に見えても。なぜなら、あなたがはまるどんな轍も、あなたが知る前に破壊されランダム化される深刻なリスクの下にあるからです。

そして私は基礎を得ることの強力な支持者でもあります。技術が好きなら数学を学んでください。物理学の法則を学んでください。文学や哲学の古典を読んでください。基礎は依然として自然、数学、人間の経験の基礎になるでしょう。ですから、それは確かに若い人々を忙しくさせるのに十分だと思います。

しかし、今ないのは、オーケー、ビジネス専攻またはコンピュータサイエンス専攻なら私のキャリアは決まっている、というようなことです。その時代は終わりました。

そして、それはまた、オーケー、配管工または電気技師になれば、常にお金を稼げる、というのもでたらめです。なぜなら、配管ボットはそれほど遠くないからです。

しかし、全体として、私が出会うほとんどの若い人々はかなりオープンマインドで、仕事を得て生計を立てる必要がなくなることに安心するでしょう。AGIが成長する前に万人のために豊かさを創造する前に。

これについてもっと手をこまねいているのを見るのは、中年の白人男性のような人々で、「ああ、もし私が自分の権力とお金とお金の立場にもはやいなかったら、どうやって重要だと感じるのか」と言っています。

中年女性として、私はすべてを理解したと思っていました。私は同意します。はい。

本当に私を心配させる問題は、初期段階のAGIが展開されているが、まだ万人に豊かさを与えることができる超知能ではないときのようなものです。

ですから、初期段階のAGIと、コンゴやエチオピアやアフガニスタンで普遍的ベーシックインカムを与える超知能との間の暫定期間のようなものです。

初期段階のAGIがほとんどの仕事を奪うと、先進国の社会福祉システムが稼働すると思います。正確に普遍的ベーシックインカムでなくても、その精神的方向の何かです。

問題は、発展途上国では誰も経済的援助を与えたがらないということです。ですから、発展途上国の中産階級の仕事が奪われたときに何が起こるのでしょうか。

中国の会社のために靴を組み立てるエチオピアの若者がいるアディスアベバ郊外の工場が閉鎖されたときに何が起こるのでしょうか。ロボットが若いアフリカの若者よりも靴を組み立てるのが安いからです。

一度、地球上に豊かさをもたらす超知能を得たら、オーケー、ドローンが来て、みんなの農場に分子ナノアセンブラーを空中投下します。しかし、AIが仕事の90%を奪うことと、超AIがみんなの農場に分子ナノアセンブラーを空中投下することの間の暫定期間で、発展途上国でその暫定期間に何が起こるのかは、みんな自給自足農業に戻るのでしょうか。そうすれば、抗生物質を買ったり、携帯電話に電力を供給したりする方法がありません。

ですから、倫理的ジレンマは、初期段階のAGIと超知能の間の苦しみを最小化するために、超知能が本当に速く来ることを望むでしょう。しかし、超知能が他のものではなく有益に出てくる可能性を最大化するには、初期段階のAGIから超知能への道を急ぎたくありません。

そしてここで物事は本当に本当に興味深くなります。私たちは今、まだ初期段階のAGIを持っていないプレフェーズにいます。しかし、人間レベルのAGIについてのカーツワイルの2029年の予測はおそらくだいたい正しいと思います。2027年かもしれませんし、2031年かもしれません。それが数十年ずれているとは思いません。

しかし、彼も他の誰も、初期段階のAGIの直後のその期間に何が起こるかをよく予測しなかったと思います。そしてそこで、私たちは持っているすべての思いやりとすべての精神的敏捷性を必要とするでしょう。

終わりに

魅力的なことです。一つ確かなことは、地平線上に変化があり、それはおそらくそれほど遠くないということです。

それほど遠くないですが、それでも初期段階のAGI前の数年間は、やるべき興味深いことがたくさんあります。ビジネスをしているなら、1年対他の年でプロトAGI技術によって革命化されるであろう適切なニッチを選ぶことでお金を稼ぐ多くの方法があります。

そして技術者として、とても楽しいです。ロジックベースのシステムがあり、進化的学習があり、概念のブレンディングがあり、さまざまな種類のデータベースとオペレーティングシステムがあります。そして今では、部分的にLLM開発ツールのおかげで、概念から実現までがはるかに速くなっています。

過去半世紀のAIとコンピュータサイエンスの世界からのすべてのアイデアが実際に機能し、実際に大規模で実用的な効果に展開されるのを見ることができる時期です。ですから、これらのことに取り組むのは非常に非常にクールな時期です。

そしてパイオニアとしてあなたとこれについて話すことができることに非常に非常にクールで感謝しています。

ええ、100%。お時間をいただきありがとうございました、ベン・ゴーツェル。これは本当に光栄で楽しかったです。用語を作った人からAGIについてもっと聞く機会を得られて。

ええ。良い質問と共有の機会をありがとうございました。

ゲストのベン・ゴーツェルに再び大きな感謝を。魅力的な会話でした。予約していたとき、これは本当に本当に興味深いものになると思っていました。そして、今誰もが使っている、AI において非常に重要な意味を持つ、AGIという用語を作った人以上に良くなることはありません。ですからベンとチームに感謝します。

もちろん共同ホストのジェフ・ジャービスにも感謝します。jeffjarvis.comに行って、彼のすべての本を見つけ、必ず購入してください。ジェフを喜ばせてください。そうすれば彼は本当に感謝するでしょう。

この特定のショーについて知る必要があるすべてのこと、AI Insideは私たちのサイトで見つけることができます。aside.showです。

最後に、もしこのショーが本当に本当に好きで、より深いレベルで私たちをサポートしたい場合、patreon.com/aiinsideshowです。広告なしのエピソードが得られます。Discordコミュニティへのアクセスが得られます。時々プレゼントがあります。

先週、今週のエピソードでプレゼントするアイテムがいくつかあると言いました。Google Found itの帽子、検索用です。AIモードのTシャツがあります。それは実際にかなりクールです。これを出したとき、本当にこれをプレゼントしたいのかと思いました。でも手遅れです。取り消せません。Google DeepMindのTシャツもあります。

ですから、3つのグッズです。有料と無料の両方のすべてのパトロンを見て、3人の勝者のために完全にオープンです。そして3人を選びました。

今、あなたに正直に言いますが、最初の勝者はたまたま、そして私はこれが完全にランダムだったと誓いますが、たまたま私の甥のクリスチャン・ブレイザーです。ですから、クリスチャン、君、しばらく見ていないけど、この帽子を送るつもりです。ですから、Googleの帽子をかぶるのが好きだといいのですが、はい、どうぞ。

AIモードのTシャツはロバート・フリスキーに行きます。姓の発音はそうだと思います。ロバート、あなたはTシャツを受け取ります。そしてDeepMindのTシャツはトム・ラフリーに行きます。

今年を通してのサポートに本当に感謝します。私はよく言いますが、本当にそう思っています。もう一度言います。あなたの直接的なサポートなしではこのショーをすることができませんでした。それは、このショーの健全性を継続的に育成し構築し、それを実行させる多くの方法の一つです。

ですから、そうしてくれてありがとうございます。いくつかの真新しいGoogleグッズを郵送することは、おそらく私ができる最低限のことですが、何らかの形で還元できることを嬉しく思います。

勝った人たちには、DMするか、クリスチャンならテキストメッセージを送って、これをあなたに送ることができるようにすべての情報を教えます。クリスマス後に起こります。

とにかく、グッズといえば、わあ、ショーの最後にはたくさんありますが、ねえ、ショーの最後にこんなに長くなることはあまりありません。

好きならAI InsideのTシャツを手に入れることができます。エグゼクティブプロデューサーになるだけです。今10人います。Dr. D、Jeffrey Marachini、Radio Asheville 103.7、Dante St. James、Bono Day Rick、Jason Knifer、Jason Brady、Anthony DS、Mark Starcher、そしてKarsten Somatkiです。

ありがとうございます。ありがとうございます。ありがとうございます。このショーをサポートし、私たちがこれをできるようにしてくれて。そして見て聞いてくれた皆さんにも感謝します。

来週、実際には1日早く、火曜日にお会いしましょう。大晦日直前なので、通常のニュースエピソードをジェフと私でやります。AI Insideポッドキャストの別のエピソードで次の火曜日にお会いしましょう。それではまた。

コメント

タイトルとURLをコピーしました