Google DeepMindのDemis HassabisとAnthropicのDario Amodeiという、AI業界を牽引する二大巨頭による貴重な対談である。AGI(汎用人工知能)到達までのタイムライン、AI開発における自己改良ループの可能性、労働市場への影響、地政学的リスク、AI安全性の課題など、AI開発の最前線にいる両氏が率直に意見を交わした。Darioは1〜2年以内にノーベル賞受賞者レベルの能力を持つモデルが実現すると予測し、Demisはより慎重に今後5〜10年を見込む。両者ともAIの驚異的な可能性を認めつつ、技術的リスク、経済的混乱、人間の存在意義といった深刻な課題への対処の必要性を強調している。特に注目すべきは、AIシステムがAIシステムを構築する「ループの閉鎖」が実現するかどうかが、今後の展開を大きく左右するという共通認識である。

AGI到達タイムラインをめぐる予測
皆さんようこそ、そしてライブストリームでご参加いただいている皆さんもようこそ。この対談は、私自身が何ヶ月も楽しみにしていたものです。昨年パリで、DarioとDemis Hassabisの対談を司会する幸運に恵まれました。残念ながらその時最も注目されたのは、お二人が非常に小さなラブシートに押し込まれ、私が巨大なソファに座っていたという事実でした。おそらく私のミスですね。
でもその時、私はこれがビートルズとローリング・ストーンズの対談を司会するようなものだと言いました。そしてお二人はその後、ステージ上で対談をしていません。ですからこれは続編であり、バンドが再び集結する瞬間なのです。嬉しく思います。
お二人に紹介は不要でしょう。私たちの対談のタイトルは「AGI後の時代」ですが、これは少し先走りすぎかもしれません。というのも、まずどれだけ早く、そしてどれだけ容易にそこに到達するかについて話すべきだからです。タイムラインについて少し最新情報をお聞きし、それから結果について話したいと思います。
まずタイムラインについて、Darioさん、あなたは昨年パリで、2026年から27年までに、ノーベル賞受賞者レベルで多くの分野において人間ができることすべてを実行できるモデルが登場すると言いました。今は26年です。そのタイムラインを今でも支持しますか。
いつ何かが起こるかを正確に知ることは常に難しいですが、それがそれほど外れることはないと思っています。つまり、それが起こると想定したメカニズムは、コーディングに優れ、AI研究に優れたモデルを作り、それを使って次世代のモデルを生産し、それをスピードアップしてループを作り、モデル開発の速度を上げるというものでした。
今、コードを書くモデルに関しては、Anthropic内にもうコードは一切書かないと言うエンジニアがいます。モデルにコードを書かせて、それを編集し、周辺のことをするだけです。分かりませんが、モデルがエンドツーエンドでSWEの仕事のほとんど、おそらくすべてをこなすようになるまで、あと6〜12ヶ月かもしれません。
そうなると、そのループがどれだけ早く閉じるかという問題になります。そのループのすべての部分がAIによって加速できるわけではありません。チップがあり、チップの製造があり、モデルのトレーニング時間があります。ですから、多くの不確実性があると思います。これが数年かかる可能性は容易に想像できます。それ以上かかる可能性は、私には想像しにくいです。
でも、もし推測するなら、これは人々が想像するより早く進むと思います。そして、コード、そして徐々に研究が私たちの想像より速く進むという重要な要素が、主要な推進力になるでしょう。その指数関数がどれだけ私たちを加速させるかを予測するのは本当に難しいですが、何か速いことが起こるでしょう。
Demisさん、あなたは昨年もう少し慎重でしたね。10年代末までに人間が持つすべての認知能力を発揮できるシステムが登場する確率は50%だと言いました。明らかにコーディングに関してはDarioが言うように驚くべき進歩がありました。あなたの予測に対する感覚はどうですか。過去1年で何が変わりましたか。
ええ、私は同じようなタイムラインを維持していると思います。そして驚くべき進歩があったと思います。でも、エンジニアリング業務のいくつかの領域、コーディングや数学といった領域は、自動化への道筋が少し見えやすいです。一つには、その出力が検証可能だからです。
自然科学のいくつかの領域は、それよりもはるかに難しいです。構築した化学化合物や物理学に関する予測が正しいかどうか、必ずしもすぐには分かりません。実験的にテストする必要があるかもしれず、それにはすべて時間がかかります。
また、現時点で欠けている能力もあると思います。既存の予想や問題を解決するだけでなく、そもそも質問を考え出すこと、理論や仮説を考え出すことです。それははるかに難しいと思いますし、それが科学的創造性の最高レベルだと思います。そして、私たちがそのようなシステムを持つことになるかどうかは明確ではありません。不可能だとは思いませんが、1つか2つの欠けている要素があるかもしれません。
また、私たちが皆取り組んでいるこの自己改良ループが、実際に人間を介さずに閉じることができるかどうかも、まだ分かりません。ちなみに、そのようなシステムにはリスクもあると思いますが、それについては話すべきですし、必ず話すことになるでしょう。でも、そのようなシステムが機能すれば、物事を加速させる可能性があります。
開発競争の勢力図の変化
リスクについては後ほど取り上げます。でも過去1年のもう一つの変化は、いわば競争の序列の変化だったと思います。1年前のこの時期、DeepSeekの瞬間があったばかりで、そこで起こったことに皆が非常に興奮していました。そして、Google DeepMindがOpenAIに遅れをとっているという感覚がまだありました。
今は状況がかなり異なっていると言えます。彼らはコードレッドを宣言しましたよね。かなり激動の年でした。具体的に何に驚き、今年どれだけうまくいったか、そしてラインナップについてどう考えているか教えてください。
私たちは常に、リーダーボードのトップに戻り、全般的にSOTAタイプのモデルを作れると確信していました。なぜなら、私たちは常に最も深く広範な研究基盤を持っていたと思うからです。それをすべてまとめ上げ、強度と集中力、そしてスタートアップのメンタリティを組織全体に取り戻すことが課題でした。多くの作業が必要でしたし、まだやるべきことはたくさんあります。
でも、Gemini 3でのモデルと、市場シェアを増やしているGemini appでの製品面の両方で、進歩が見え始めていると思います。ですから素晴らしい進歩を遂げていると感じていますが、やるべきことはまだ山ほどあります。Google DeepMindをGoogleのエンジンルームのようなものにしており、私たちのモデルをより迅速に製品サーフェスに出荷することに慣れてきています。
Darioさん、この点について一つ質問があります。あなたは今、並外れた評価額で新しいラウンドを進めている最中ですね。でも、あなたたちは彼らとは異なり、いわば独立系モデルメーカーです。そして、独立系モデルメーカーが収益が入ってくるまで十分長く続けられないのではないかという懸念が高まっていると思います。OpenAIについて非常にオープンに語られていますが、それについてどう考えているか教えてください。それからAGI自体について話しましょう。
私たちの考え方としては、より良いモデルを構築するにつれて、モデルに投入するコンピュートの量と認知能力との間だけでなく、認知能力と生成できる収益の量との間にも、ある種の指数関数的な関係がありました。
ですから、私たちの収益は過去3年間で10倍に成長しました。2023年にゼロから1億ドル、2024年に1億ドルから10億ドル、2025年に10億ドルから100億ドルへと。これらの収益数字が、文字通りこの曲線を続けるかどうかは分かりません。もし続いたら驚異的でしょう。でも、これらの数字は世界最大級の企業の規模からそれほど遠くないところまで来始めています。
常に不確実性はあります。私たちはこれをゼロから立ち上げようとしています。クレイジーなことです。でも、私たちが焦点を当てている分野で最高のモデルを生産できれば、うまくいくと確信しています。
一般的に言えば、GoogleとAnthropicの両方にとって良い年だったと思います。そして、私たちが実際に共通して持っているのは、両社とも研究者によって率いられた会社、あるいは会社の研究部門であり、モデルに焦点を当て、世界の重要な問題の解決に焦点を当てているということです。これらの困難な科学的問題を北極星として持っている。そして、そのような会社が今後成功していくと思いますし、私たちはそれを共有していると思います。
非常に素晴らしいですね。研究者によって率いられていない会社に何が起こるかを尋ねたい誘惑に駆られますが、答えてくれないことは分かっているのでやめておきます。では予測の領域に移りましょう。私たちはAGI後について話すことになっていますが、ループを閉じることについて話しましょう。
モデルがループを閉じて、いわば自己駆動できるようになる可能性についてです。なぜなら、それが勝者総取りのしきい値アプローチにとって本当に核心だからです。それが実現する可能性が高いと今でも信じていますか。それとも、これはもっと通常の技術のようになり、フォロワーや追いつく企業が競争できるようになるのでしょうか。
ええと、通常の技術にはならないと確信しています。つまり、Darioが述べたように、すでに私たちのコーディングや研究のいくつかの側面で役立っている面があります。でも、ループを完全に閉じることは未知数だと思います。可能だとは思いますが、それを行うにはAGI自体が必要かもしれません。
特定のドメイン、つまり答えを非常に迅速に検証することがそれほど簡単ではない、より混沌とした領域では。NP困難な領域もあり、より多くのものを扱い始めるとすぐに… ちなみに、AGIには物理的AI、ロボティクス、これらすべての作業も含まれると思っています。そうなると、ハードウェアがループに入ってきて、自己改良システムがどれだけ速く機能できるかを制限する可能性があります。
でも、コーディングや数学、そういった種類の領域では、それが機能するのは間違いなく見えます。そうなると問題はより理論的なものになります。自然科学を解決するための工学と数学の限界は何かということです。
「機械、愛と優雅さ」の続編について
Darioさん、あなたは昨年だったと思いますが、「Machines of Loving Grace(機械、愛と優雅さ)」を発表しました。これは、展開されるであろう可能性について非常に前向きなエッセイでした。確か国家データセンターの天才について話していましたね。あなたがこれの更新版、新しいエッセイに取り組んでいると聞いています。まだ公開されていませんが、近日公開予定です。1年後の大きな視点がどうなるか、少し予告編をお願いできますか。
はい。私の見解は変わっていません。常に私の見方は、AIは信じられないほど強力になるというものでした。DemisとI、私たちはそれについて同意していると思います。正確にいつかという問題だけです。そして、信じられないほど強力であるがゆえに、「Machines of Loving Grace」で話したようなすべての素晴らしいことを実現するでしょう。
癌の治療に役立つでしょう。熱帯病の根絶に役立つかもしれません。宇宙を理解するのに役立つでしょう。でも、これらの計り知れない重大なリスクがあります。対処できないというわけではありません。私は破滅論者ではありません。でも、それらについて考え、対処する必要があります。
私が「Machines of Loving Grace」を先に書いたのは、なぜ先に書いたのか洗練された理由を述べたいところですが、単にポジティブなエッセイの方が書きやすく、楽しかったからです。ですから、ようやく休暇中に時間を取って、リスクに関するエッセイを書くことができました。
リスクについて書いているときでさえ、私は楽観的な人間なので、これらのリスクについて書きながらも、どうやってこれらのリスクを克服するか、どうやって戦うための戦闘計画を立てるかという形で書きました。そして、私がそれをフレーム化した方法は、カール・セーガンの「コンタクト」の映画版に出てくるシーンです。
彼らが異星人の生命を発見し、異星人に会うための人類の代表者となる人々を面接する国際パネルがあります。彼らが候補者の一人に尋ねる質問の一つは、もし異星人に一つだけ質問できるとしたら何を聞くかというものです。そして、キャラクターの一人が「どうやったんですか。自分たちを破壊せずにこの技術的青年期を乗り越えることができたのはどうやってですか。どうやって乗り越えたんですか」と言います。
20年前だったと思いますが、その映画を見て以来、ずっと心に残っています。そして、それが私が使ったフレームです。つまり、私たちは信じられない能力の扉を叩いているのです。基本的に砂から機械を作る能力です。私たちが火を扱い始めた瞬間から、それは避けられなかったと思います。
でも、それをどう扱うかは避けられないことではありません。ですから、次の数年間、私たちは、高度に自律的で、あらゆる人間よりも賢いシステムをどうやって制御下に置くかを扱うことになると思います。個人がそれらを悪用しないようにするにはどうすればいいか。私はバイオテロのようなことについて懸念を持っています。
国家がそれらを悪用しないようにするにはどうすればいいか。だから私は中国共産党や他の権威主義政府についてとても懸念してきました。経済的影響は何か。労働の置き換えについて多く話してきました。そして、私たちが考えていないことは何か。これは多くの場合、対処するのが最も難しいことかもしれません。
ですから、これらのリスクにどう対処するかを考えています。これらのそれぞれについて、個人として、企業のリーダーとして行う必要があることと、協力して行えることの組み合わせです。そして、政府のような、より広い社会的制度が果たすべき役割があるでしょう。
でも、毎日、AI以外の外の世界でもあらゆる狂ったことが起こっていますが、これは非常に速く起こっており、非常に危機的であるため、私たちはこれをどう乗り越えるかを考えることにほぼすべての努力を捧げるべきだという緊急性を感じています。
労働市場への影響
あなたが休暇を取ること、休暇を取るときにAIのリスクについて考えること、そしてあなたのエッセイが「この技術の技術的青年期を自分たちを破壊せずに乗り越えられるか」という観点でフレーム化されていることのどれに最も驚いているか決められません。頭が少し混乱していますが、楽しみにしています。
あなたはいくつかの領域について言及し、それが残りの会話を導くことができます。まず雇用から始めましょう。実際、あなたはそれについて非常に率直に発言してきました。エントリーレベルのホワイトカラー職の半分が今後1〜5年以内になくなる可能性があると言いましたね。
でも、Demisさんに聞きたいのですが、これまでのところ、労働市場に目に見える影響は実際には見られていません。確かに米国では失業率が上昇していますが、私が見てきた経済研究や私たちが書いてきたすべてのものは、これはパンデミック後の過剰雇用であり、実際にはAI主導ではないことを示唆しています。
むしろ、人々はAI能力を構築するために雇用しています。これは経済学者が常に主張してきたように、労働の塊の誤謬ではなく、実際に新しい雇用が創出されることになると思いますか。これまでの証拠はそれを示唆しているように見えますから。
近い将来においては、そうなると思います。画期的な技術が到来したときの通常の進化です。ですから、一部の雇用は混乱するでしょうが、新しい、おそらくより価値があり、より意味のある雇用が創出されると思います。
今年、ジュニアレベル、エントリーレベルの雇用、インターンシップのようなものに影響を与え始めるのを見ることになると思います。そして、私たち自身でもそれを感じることができます。おそらくその分野での雇用の鈍化のようなものです。でも、ほとんど無料で誰でも利用できる素晴らしい創造的ツールがあるという事実によって、それ以上に補償されると思います。
もし私が今、学部生のクラスに話しかけるとしたら、これらのツールに本当に信じられないほど熟練するようにと言うでしょう。私たちでさえ、それを構築するのに忙しく、今日のモデルや製品が持っている能力の超過分を本当に探求する時間を持つのは難しいほどです。明日のモデルは言うまでもなく。
そして、それは従来のインターンシップよりも優れている可能性があると思います。あなた自身を職業で役立つように飛躍させるという意味で。ですから、おそらく今後5年間で起こることはそういうことだと思います。タイムスケールについては、また少し意見が分かれるかもしれませんが、AGI到達後に何が起こるかは別の問題だと思います。なぜなら、その時点で本当に未知の領域に入ることになるからです。
昨年ホワイトカラーの半分と言ったときよりも時間がかかると思いますか。
ほぼ同じ見解です。実際、あなたやDemisに同意します。私がコメントした時点では、労働市場への影響はありませんでした。その瞬間に労働市場に影響があると言っていたわけではありません。今は、ソフトウェア、コーディングにおいて、その始まりが見え始めているかもしれないと思います。
Anthropic内でさえそれを見ています。より若手側、そしてより中堅側で、実際に必要な人数が増えるのではなく減る時期を見通すことができます。そして、Anthropic内でそれに賢明な方法で対処する方法を考えています。
6ヶ月前の時点での1〜5年という予測を維持します。これを以前言ったこと、つまり、あらゆることで人間よりも優れたAIを1〜2年以内、あるいはもう少し長いかもしれませんが、持つかもしれないということと結びつけると、それらは一致していないように見えます。
その理由は、遅れと置き換えがあるからです。労働市場は適応力があることは知っています。かつて人々の80%が農業をしていましたが、農業が自動化され、彼らは工場労働者になり、それから知識労働者になりました。ですから、ある程度の適応力がここにもあります。労働市場がどのように機能するかについて経済的に洗練されるべきです。
でも私の懸念は、この指数関数が複利で増加し続けると、それほど時間はかからないと思います。繰り返しますが、1年から5年のどこかで、私たちの適応能力を圧倒するでしょう。私は、Demisが言っていることと同じことを言っているのかもしれません。ただ、私たちが持っているタイムラインの違いから切り離しただけです。それは最終的にはコードでループをどれだけ速く閉じるかに帰着すると思います。
政府がこれの規模を理解し、必要な政策対応について考え始めているという確信はどのくらいありますか。
これについて十分な作業が行われているとは全く思いません。このような場所で経済学者に会っても、何が起こるかについて考えている専門的な経済学者、教授がもっといないことに常に驚きます。AGIへの道のりだけでなく、Darioが話していたすべての技術的なことが正しくできたとしても、雇用の置き換えは一つの問題ですが、それの経済について心配しています。
でも、この新しい生産性、この新しい富をより公平に分配する方法があるかもしれません。それを行うための適切な制度があるかどうかは分かりませんが、その時点でそうあるべきです。おそらくポスト希少性の世界にいるかもしれません。
でも、その時点で私を今夜更かしさせるさらに大きな問題があります。意味や目的に関することで、私たちが仕事から得ているものの多くは、経済的なものだけではありません。それが一つの問題です。でも、奇妙なことに、人間の状態や人類全体に何が起こるかよりも、それを解決する方が簡単かもしれません。
そして、私たちはそこでも新しい答えを思いつくと楽観的です。今日、私たちはエクストリームスポーツから芸術まで、必ずしも経済的利益に直接関係しない多くのことをしています。ですから、意味を見つけ出すでしょうし、おそらくそれらの活動のさらに洗練されたバージョンがあるでしょう。さらに、私たちは星を探検することになると思います。ですから、目的という意味では、それらすべても考慮に入れることになります。
でも、私のタイムラインでさえ5〜10年先ですが、それはそれほど長い時間ではありません。これが来る前に、今から考える価値があると思います。
地政学的リスクと米中競争
AIに対する大衆の反発のリスクはどのくらい大きいと思いますか。あなた方の視点からすると、政府が愚かなことをするようなことになるリスクです。なぜなら、1990年代のグローバリゼーションの時代を振り返ると、確かに雇用の置き換えがありました。政府は十分なことをしませんでした。大衆の反発は、私たちが今いるような状況になるほどでした。
あなた方がやっていることや会社に対して、政治的な場で反感が高まるリスクがあると思いますか。
間違いなくリスクはあると思います。そして、それはある程度合理的だと思います。雇用や生計のようなことに対する恐れや懸念があります。私が思うに、いくつかのことがあります。今後数年間は地政学的に非常に複雑になると思いますが、ここにはさまざまな要因があります。
私たちがやりたい、そして、AlphaFoldや科学的な仕事、同形体という私たちのスピンアウト企業を通じてやろうとしているのは、すべての病気を解決し、病気を治療し、新しいエネルギー源を考え出すことです。社会として、私たちがそれを望むことは明らかだと思います。
おそらく、業界がやっていることのバランスは、そのような活動に対して十分なバランスが取れていないと思います。Alpha Foldのような、世界における明白な善を助けるような例をもっと多く持つべきだと思います。Darioも私に同意すると思いますが、ただそれについて話すだけでなく、それを実証すべきです。そして実際、業界と私たち主要プレイヤー全員がそれをもっと示すことは義務だと思います。
でも、それには他の意図しない混乱も伴うでしょう。そして、もう一つの問題は地政学的競争です。明らかに企業間の競争がありますが、主に米国と中国の間でもあります。ですから、これに関する国際的な協力や理解がない限り、それは良いことだと思います。実際、展開のための最低限の安全基準のようなものについては。
それは絶対に必要だと思います。Darioもそれに同意すると思います。この技術は国境を越えるものです。すべての人に影響を与えます。すべての人類に影響を与えます。ちなみに、コンタクトは私のお気に入りの映画の一つでもあります。Darioさん、あなたもそうだとは知りませんでした。でも、そのようなことを解決する必要があります。
そして、もし調整ができれば、現在予測しているよりも、私のタイムラインでさえも少し遅いペースの方が良いかもしれません。そうすれば、社会がこれを正しく理解できます。でも、それにはある程度の調整が必要です。
あなたのタイムラインの方が好ましいです。
そう、それは譲歩すべきだと思います。でも、Darioさん、ここで話を移しましょう。なぜなら、パリで最後に話して以来の一つのことは、地政学的環境が、より複雑に、狂気に、あるいはどんな表現を使いたいかは別として、悪化したことです。
第二に、米国は今、中国に対して非常に異なるアプローチを取っています。できる限り速く進むが、中国にチップを販売するという、一種の制限なしのアプローチです。ですから、米国に対する異なる態度があります。そして、今、米国とヨーロッパの間の地政学的に非常に奇妙な関係があります。
そういった中で、CERNのような組織があればいいという話を聞きますが、私たちがいる現実世界からは100万年離れています。ですから、現実世界では、地政学的リスクは増大しましたか。そして、もしあれば、それについて何をすべきだと思いますか。そして、政権はあなたが提案していることの逆をやっているように見えますが。
ええ、私たちは一つの会社に過ぎず、どんなに狂気じみていても存在する環境の中で、できる限りのことをしようとしているだけです。でも、少なくとも私の政策提言は変わっていません。チップを販売しないことは、私たちがこれに対処する時間を確保するためにできる最大のことの一つです。
以前言ったように、私たちには地政学的な敵対者が同じような技術を同じようなペースで構築しているのです。彼らが減速し、私たちが減速するという強制力のある合意を結ぶことは非常に難しいのです。ですから、もしチップを販売しないだけで済むなら、これは米国と中国の間の競争の問題ではありません。これは私とDemisの間の競争の問題であり、私たちが解決できると非常に確信しています。
チップを販売する必要があるという政権の論理についてどう思いますか。私の理解では、米国のサプライチェーンに彼らを組み込む必要があるからチップを販売する必要があるというものです。
それはタイムスケールだけの問題ではなく、技術の重要性の問題だと思います。もしこれが通信か何かであれば、米国のスタックを普及させ、世界中にチップを構築したい、世界の異なる地域のランダムな国々がHuaweiのチップではなくNvidiaのチップを持つデータセンターを構築するようにしたいというこれらすべてのことです。
これをもっと、北朝鮮に核兵器を販売するかどうかの決定のように考えています。それがBoeingに利益をもたらすからといって。ケースがBoeingによって作られたから米国が勝っているというような。素晴らしい。そのアナロジーは、私がこのトレードオフをどう見ているかを明確にするはずです。意味をなさないと思います。
そして、私たちは中国や他のプレイヤーに対して、この一つの手段よりもはるかに効果的でない、もっと攻撃的なことをたくさんやってきました。
AIの欺瞞能力とリスク
もう一つ、私にとって、そしてうまくいけば1、2問質問する時間があればと思います。破滅論者が心配するもう一つの潜在的リスクの領域は、一種の全能で悪意のあるAIです。お二人とも破滅論的アプローチにはやや懐疑的だったと思いますが、過去1年間で、これらのモデルが欺瞞や二枚舌の能力を示しているのを見てきました。
そのリスクについて1年前とは違う考え方をしていますか。そして、私たちがもう少し懸念を置くべきモデルの進化の仕方について何かありますか。
ええ、Anthropicの始まりから、私たちはこのリスクについて考えてきました。最初の研究は非常に理論的でした。私たちは機械論的解釈可能性というアイデアを先駆けました。これはモデルの内部を見て、その脳の内部を見て、なぜそれがすることをするのかを理解しようとするものです。
神経科学のバックグラウンドを持つ私たち両方が、脳を理解しようとする人間の神経科学者のように。そして、時間が経つにつれて、モデルの悪い行動が現れたときにそれをますます文書化し、今は機械論的解釈可能性でそれらに対処しようとしています。
ですから、私は常にこれらのリスクについて懸念してきました。Demisと何度も話しました。彼もこれらのリスクについて懸念してきたと思います。私は間違いなく、そしてDemisも自分で話すと思いますが、破滅論には懐疑的でした。破滅論とは、私たちは破滅する、何もできない、またはこれが最も可能性の高い結果だというものです。
これはリスクだと思います。これは、私たちが皆協力すれば対処できるリスクです。私たちが構築しているこれらの創造物を適切に制御し、方向付けるために、科学を通じて学ぶことができます。でも、もし私たちがそれらを貧弱に構築し、すべてが競争し、ガードレールがないほど速く進むなら、何かがうまくいかないリスクがあると思います。
過去1年間で、技術の科学の上昇の可能性についてより自信を持つようになったか、それとも私たちが議論してきたリスクについてより心配しているか、少し広い質問の文脈でそれに答える機会を与えます。
私はこれに20年以上取り組んできたので、私たちはすでに知っていました。私がAIに全キャリアを費やしてきた理由は、基本的に科学のための究極のツールを解決することの上昇面です。私たちの周りの普遍的なものを理解することです。私は子供の頃からそれに夢中でした。そして、AIを構築することは、正しい方法で行えば、そのための究極のツールであるべきです。
リスクについても、少なくともDeepMindの開始時から、15年前から考えてきました。上昇面を得ると、それは二重目的技術であり、悪意のある行為者によって有害な目的のために転用される可能性があることを予見していました。ですから、ずっと考える必要がありました。
でも、私は人間の創意工夫を強く信じています。しかし、問題は、時間とフォーカス、そしてすべての最高の頭脳がそれについて協力してこれらの問題を解決することです。もしそれがあれば、私たちは技術的リスクの問題を解決すると確信しています。
おそらく私たちはそれを持っていないでしょう。そうすると、リスクが導入されます。なぜなら、断片化され、異なるプロジェクトがあり、人々が互いに競争することになるからです。そうすると、私たちが生産するこれらのシステムが技術的に安全であることを確実にするのがはるかに難しくなります。でも、時間があれば、スペースがあれば、それは非常に扱いやすい問題だと感じています。
フェルミのパラドックスとAIの未来
一つ質問を確実にしたいと思います。紳士の皆さん、非常に短くお願いします。文字通り2分しかありませんから。
ありがとうございます。こんにちは。
はい。いいえ、話してください。
どうもありがとうございます。私はStarCloudの共同創設者のPhilipです。宇宙にデータセンターを構築しています。少し哲学的な質問をしたいと思いました。私にとって破滅論の最も強力な議論は、フェルミのパラドックスです。銀河に知的生命を見ないという考えです。お二人の考えをお聞きしたいです。
ええ、私はそれについてたくさん考えました。それが理由であるはずがありません。なぜなら、私たちは…
皆さんに分かるように、アイデアは、まあ、それがなぜ起こるのかは明確ではありませんよね。ですから、フェルミのパラドックスがあり、異星人がいない理由は、彼らが自分たちの技術によって淘汰されるからという場合、私たちは銀河のどこかの部分からこちらに向かってくるペーパークリップを見ているはずです。
そして、明らかに見ていません。ダイソン球も何も見えません。それらがAIなのか、自然なのか、生物学的なものなのかにかかわらず、構造物は見えません。ですから、私にとって、フェルミのパラドックスには別の答えがあるはずです。私は自分自身の理論を持っていますが、次の1分の範囲外です。
でも、私はただ、私たちはグレートフィルターを通過したと感じています。おそらく多細胞生命だったと推測するなら。生物学がそれを進化させるのは信じられないほど難しかったのです。ですから、私たちは…次に何が起こるかという快適さはありません。
次に何が起こるかを書くのは人類としての私たちだと思います。
これは素晴らしい議論になる可能性がありますが、次の36セッションの範囲外です。でも、来年また会うときに、うまくいけば三人で会いたいと思いますが、何が変わっているでしょうか。15秒ずつお願いします。
最大の注目点は、AIシステムがAIシステムを構築するという問題です。それがどうなるか。どちらの方向に進むか。それによって、あと数年かかるのか、それとも驚異と対処しなければならない大きな緊急事態が目の前にあるのかが決まるでしょう。
AIシステムがAIシステムを構築すること。
それについては同意します。ですから、密接に連絡を取り合っています。でも、それ以外にも、ワールドモデル、継続的学習のような研究されている他の興味深いアイデアがあると思います。これらは、自己改良がそれ自体で成果を提供しない場合に解決する必要があるものだと思います。そうすれば、これらの他のものが機能する必要があります。
そして、ロボティクスのようなものがブレイクアウトの瞬間を迎えるかもしれません。
でも、今おっしゃったことに基づくと、私たち全員が、実際にあなた方や他のすべての人にとってもう少し時間がかかることを望むべきかもしれません。そうすれば、私たちに時間を与えてくれるでしょう。
それを望みます。世界にとってはその方が良いと思います。
まあ、あなた方はそれについて何かできるでしょう。お二人とも本当にありがとうございました。


コメント