AGI実現後の世界

AGI・ASI
この記事は約24分で読めます。


AnthropicのCEOダリオ・アモデイとGoogle DeepMindのCEOデミス・ハサビスが、AGI実現後の世界について議論した貴重な対談である。両氏はAGI到達までの時間軸について若干の見解の相違を示しつつも、1〜5年以内という比較的近い将来にその転換点が訪れることで一致している。特にAIがコーディングやAI研究自体を自動化する「自己改善ループ」の実現可能性が焦点となっており、これが実現すれば開発速度が劇的に加速すると予測される。一方で、労働市場への影響、特にホワイトカラー職の半数が1〜5年で消失する可能性や、悪意あるAIのリスク、米中間の地政学的競争といった深刻な課題も提起されている。両リーダーは技術的楽観主義を保ちつつも、人類が「技術的青年期を自滅せずに乗り越える」ための真剣な取り組みの必要性を強調している。

The Day After AGI
A credible pathway to artificial general intelligence (AGI) is increasingly coming into view as advances in scaling, mul...

AGI実現時期をめぐる予測

ようこそ皆さん、そしてライブストリームでご参加の皆さんもようこそ。この対談を私は何ヶ月も楽しみにしていました。昨年パリで、ダリオ・アモデイとデミス・ハサビスの対談を司会する幸運に恵まれました。残念ながらその時最も注目されたのは、お二人が非常に小さなラブシートに押し込まれ、私が巨大なソファに座っていたことでした。おそらく私のミスだったと思います。でもその時、私にとってこれはビートルズとローリング・ストーンズの対談を司会するようなものだと言いました。そしてお二人はそれ以来、ステージ上で対談していません。

ですから今日は続編です。バンドが再結集するわけですね。嬉しく思います。お二人に紹介は不要でしょう。私たちの対談のタイトルは「AGI実現後の世界」ですが、これは少し先走りすぎかもしれません。まずどれだけ早く、そして容易にそこに到達できるかについて話すべきでしょう。その上で結果について話したいと思います。

まず時間軸についてですが、ダリオさん、あなたは昨年パリで、多くの分野でノーベル賞受賞者レベルの人間ができることすべてを実行できるモデルを2026年から27年までに持つだろうと言いました。今は2026年です。その時間軸にまだ同意しますか。

そうですね、何かが起こる正確な時期を知るのは常に難しいですが、それがそれほど外れることはないと思っています。つまり、それが起こると想像したメカニズムは、コーディングが得意でAI研究が得意なモデルを作り、それを使って次世代のモデルを生み出し、それをスピードアップさせてループを作り、モデル開発の速度を上げるというものでした。

現在、コードを書くモデルに関して言えば、Anthropic内のエンジニアの中には、もう自分でコードを書くことはない、モデルにコードを書かせて、それを編集し、周辺の作業をするだけだと言う人もいます。おそらく6ヶ月から12ヶ月後には、モデルがエンジニアのやることのほとんど、おそらくすべてをエンドツーエンドで行うようになるでしょう。そうなると、そのループがどれだけ早く閉じるかという問題になります。ただし、そのループのすべての部分がAIによって高速化できるわけではありません。チップがあり、チップの製造があり、モデルのトレーニング時間があります。

ですから、多くの不確実性があります。これが数年かかる可能性があることは容易に想像できます。しかし、それ以上かかる可能性を想像するのは非常に困難です。もし推測するなら、これは人々が想像するよりも速く進むと思います。コーディングや研究が想像以上に速く進むという重要な要素が、主要な推進力になるでしょう。その指数関数がどれだけ私たちをスピードアップさせるかを予測するのは本当に難しいですが、何か速いことが起こるでしょう。

DeepMindの慎重な見方とモデル開発の進展

デミスさん、あなたは昨年もう少し慎重でした。10年の終わりまでに人間ができるすべての認知能力を示すシステムができる確率は50%だと言いましたね。明らかにコーディングでは、ダリオさんが言うように驚くべき進歩がありました。あなたの予測に変わりはありませんか。この1年で何が変わりましたか。

そうですね、私は同じような時間軸でいると思います。驚くべき進歩があったと思いますが、エンジニアリング作業の一部の領域、コーディングや数学などは、自動化の方法を見出すのが少し容易です。部分的にはその出力が検証可能だからです。自然科学の一部の領域ははるかに困難です。構築した化合物や物理学に関する予測が正しいかどうかは必ずしもすぐにはわかりません。実験的にテストする必要があり、それにはすべて時間がかかります。

また、現時点ではいくつかの能力が欠けていると思います。既存の予想や既存の問題を解決するだけでなく、最初に質問を考え出すこと、理論や仮説を考え出すことです。それははるかに難しいと思いますし、それが最高レベルの科学的創造性だと思います。私たちがそのようなシステムを持つかどうかは明確ではありません。不可能だとは思いませんが、1つか2つの欠けている要素があるかもしれません。私たち全員が取り組んでいる自己改善ループが、人間をループに入れずに実際に閉じることができるかどうかはまだわかりません。

ところで、そのような種類のシステムにはリスクもあると思います。それについては議論すべきですし、きっと議論するでしょうが、そのような種類のシステムが機能すれば物事をスピードアップできるかもしれません。

リスクについては後ほど触れますが、この1年のもう1つの変化は、いわばレースの序列の変化だったと思います。1年前のこの時期、ちょうどDeep Seekの瞬間があり、誰もがそこで起こったことに非常に興奮していました。そして、Google DeepMindはOpenAIに遅れをとっているという感覚がまだありました。今ではかなり異なる状況だと思います。彼らはコードレッドを宣言しましたよね。かなりの1年でした。

具体的に何に驚いたか、今年どれだけうまくいったか、そしてラインナップについてどう思うか話してください。

そうですね、私は常に、リーダーボードのトップに戻り、あらゆる面でモデルの上位に立つことに非常に自信を持っていました。最も深く広範な研究基盤を常に持っていたと思うからです。それをすべてまとめ、組織全体に集中力と焦点、そしてスタートアップのメンタリティを取り戻すことが課題でした。多くの作業がありましたし、まだやるべきことはたくさんあります。しかし、Gemini 3を使ったモデル面と、市場シェアを拡大しているGeminiアプリを使った製品面の両方で進歩が見え始めていると思います。

素晴らしい進歩を遂げていると感じていますが、まだやるべきことは山ほどあります。Google DeepMindをGoogleのエンジンルームとして活用し、モデルを製品に迅速に出荷することに慣れてきています。

独立系モデルメーカーの将来性

ダリオさん、この点について1つ質問があります。あなたは並外れた評価額で新しいラウンドを進めていますね。しかしデミスさんと違って、いわば独立系モデルメーカーです。収益が入ってくるまで独立系モデルメーカーが十分長く続けられないのではないかという懸念が高まっています。OpenAIについて非常にオープンに語られていますが、それについてどう考えているか話してください。それからAGI自体について話しましょう。

そうですね、私たちがそれについてどう考えているかというと、より優れたモデルを構築するにつれて、モデルに投入するコンピューティング量とその認知能力との間だけでなく、その認知能力と生み出せる収益との間にも、一種の指数関数的な関係が生まれてきました。

私たちの収益はこの3年間で10倍に成長しました。2023年にゼロから1億ドル、2024年に1億ドルから10億ドル、2025年に10億ドルから100億ドルになりました。これらの収益数字が文字通り続くかどうかはわかりません。もしそうなったら狂気の沙汰です。しかしこれらの数字は、世界最大規模の企業のスケールからそれほど遠くないところまで来始めています。

常に不確実性があります。私たちはこれをゼロから立ち上げようとしています。狂気じみたことですが、私たちが焦点を当てている分野で最高のモデルを生み出すことができれば、物事はうまくいくと確信しています。GoogleとAnthropicの両方にとって良い年だったと言えると思います。私たちに共通しているのは、どちらもモデルに焦点を当て、世界の重要な問題の解決に焦点を当てる研究者によって率いられている、あるいは会社の研究部門であるということです。北極星として困難な科学的問題を持っているということです。そして、そのような種類の企業が今後成功していくと思います。私たちはそれを共有していると思います。

非常にありがとうございます。研究者によって率いられていない企業に何が起こるかを尋ねたい誘惑に駆られますが、答えないことはわかっているので控えます。では予測の領域に移りましょう。私たちはAGI実現後について話すことになっていますが、ループを閉じることについて話しましょう。

自己改善ループの実現可能性

モデルがループを閉じて、いわば自己動力化できる可能性についてです。これが本当に勝者総取りの閾値アプローチの核心だからです。それが実現すると今でも信じていますか。それともこれは、後発者がキャッチアップして競争できる、より通常の技術になるのでしょうか。

そうですね、通常の技術になるとは決して思いません。つまり、ダリオさんが言及したように、すでに私たちのコーディングや研究の一部の側面を助けている面があります。しかし、ループを完全に閉じることは未知数だと思います。つまり、可能だと思います。一部のドメインでそれを実現するにはAGI自体が必要かもしれません。これらのドメインには混乱があり、答えを非常に迅速に検証することがそれほど簡単ではない場合があります。NP困難なドメインがあるので、より多くのことを得始めるとすぐに、ところで私はAGIには物理的AI、ロボティクス、これらすべてのようなものも含めています。

そうすると、ループにハードウェアがあり、それが自己改善システムがどれだけ速く機能できるかを制限するかもしれません。しかし、コーディングや数学、これらの種類の領域では、それが機能することは間違いなく見えます。そうすると問題はより理論的なものになります。自然科学を解決するための工学と数学の限界は何かということです。

ダリオさん、あなたは昨年、確か昨年だったと思いますが、「Machines of Loving Grace」を発表しました。展開される可能性について非常に前向きなエッセイでした。確か「データセンターの天才」のようなことを話していましたね。これを更新中だと聞いています。新しいエッセイを書いているそうですね。まだ公開されていませんが、出てくる予定です。1年後のあなたの大きな見解のスニークプレビューをしていただけますか。

リスクと機会のバランス

そうですね、私の見解は変わっていません。AIは信じられないほど強力になるというのが常に私の見方でした。デミスさんと私はそれについて同意していると思います。正確にいつかという問題だけです。それが信じられないほど強力であるため、Machines of Loving Graceで話したようなすべての素晴らしいことを実現するでしょう。がんの治療に役立つでしょう。熱帯病の根絶に役立つかもしれません。宇宙の理解に役立つでしょう。

しかし、計り知れない重大なリスクがあります。それに対処できないわけではありません。私は悲観論者ではありませんが、それについて考え、対処する必要があります。

私は最初にMachines of Loving Graceを書きました。最初にそれを書いた洗練された理由をお伝えしたいのですが、単にポジティブなエッセイの方が書きやすく、楽しかったからです。休暇中に時間を取って、ついにリスクについてのエッセイを書くことができました。

リスクについて書くときでさえ、私は楽観的な人間なので、これらのリスクについて書きながらも、どうやってこれらのリスクを克服するか、どうやって戦うための戦闘計画を持つかという方法で書きました。私がそれをフレーム化した方法は、カール・セーガンの「コンタクト」の映画版に出てくるシーンで、彼らが異星人の生命を発見し、この国際パネルが異星人に会う人類の代表になる人々にインタビューするというものでした。

彼らが候補者の1人に尋ねた質問の1つは、異星人に何か1つ質問できるとしたら何かというものでした。登場人物の1人が言います。「私は尋ねるでしょう。どうやってやったのですか。自分自身を破壊せずにこの技術的青年期を乗り越えることができたのはどうやってですか。どうやって乗り越えたのですか」と。20年前にその映画を見て以来、ずっと心に残っています。それが私が使ったフレームです。

私たちは信じられない能力のドアをノックしています。基本的に砂から機械を作る能力です。私たちが火を使い始めた瞬間から、それは避けられなかったと思います。しかし、私たちがそれをどう扱うかは避けられないことではありません。今後数年間、私たちは、人間よりも賢く高度に自律的なこれらのシステムをどう管理下に置くかに対処することになると思います。個人がそれらを悪用しないようにするにはどうすればよいでしょうか。バイオテロのようなことについて懸念しています。

国家がそれらを悪用しないようにするにはどうすればよいでしょうか。だから私は中国共産党や他の権威主義政府について非常に懸念してきました。経済的影響は何でしょうか。労働力の置き換えについて多く話してきました。そして、私たちが考えていないことは何でしょうか。それは多くの場合、対処するのが最も難しいかもしれません。

ですから、これらのリスクにどう対処するかを考えています。これらのそれぞれについて、私たち個人が企業のリーダーとして行う必要があること、一緒に協力してできることの組み合わせです。そして、これらすべてに対処するには、政府のようなより広範な社会的機関の役割が必要になるでしょう。

しかし、毎日この緊迫感を感じています。AI以外の外の世界では、あらゆる種類の狂気じみたことが起こっています。しかし、これは非常に速く起こっており、これほどの危機なので、これを乗り越える方法を考えることにほぼすべての努力を捧げるべきだというのが私の見解です。

労働市場への影響と予測

私はあなたがa休暇を取る、b休暇を取るときにAIのリスクについて考える、cあなたのエッセイが「この技術の技術的青年期を自分自身を破壊せずに乗り越えられるか」という観点でフレーム化されていることのどれに最も驚いているか決めかねます。

私の頭は少し混乱していますが、読むのが待ちきれません。しかし、あなたは私たちの会話の残りを導くことができるいくつかの領域について言及しました。雇用から始めましょう。あなたは実際にそれについて非常に率直に語ってきましたし、エントリーレベルのホワイトカラーの仕事の半分が今後1〜5年以内になくなる可能性があると言ったと思います。

しかし、デミスさんに聞きます。これまでのところ、労働市場に目に見える影響は実際には見られていません。確かに、米国では失業率が上昇していますが、私が見た、そして私たちが書いてきたすべての経済研究は、これはパンデミック後の過剰雇用であり、AI主導ではないことを示唆しています。

どちらかといえば、人々はAI能力を構築するために雇用しています。これは経済学者が常に主張してきたように、労働の塊の誤謬ではなく、実際には新しい雇用が創出されるのでしょうか。これまでの証拠はそう示唆しているように見えるからです。

そうですね、近い将来、それが起こることだと思います。画期的な技術が登場したときの通常の進化です。一部の仕事は混乱するでしょうが、新しい、おそらくより価値があり、より意味のある仕事が創出されると思います。今年、ジュニアレベル、エントリーレベルの仕事、インターンシップのようなものに影響を与える兆候が見られ始めると思います。

それについて何らかの証拠があると思います。私たち自身でも感じることができます。おそらくその採用の鈍化のようなものですが、ほぼ無料で誰でも利用できる素晴らしいクリエイティブツールがあるという事実によって、それ以上に補償されると思います。もし私が今、学部生のクラスに話すとしたら、これらのツールに信じられないほど習熟するように伝えるでしょう。私たちでさえ構築に忙しすぎて、今日のモデルや製品、ましてや明日のものが持つ能力のオーバーハングを本当に探求する時間を持つのが難しいほどです。

それは従来のインターンシップよりも優れている可能性があり、職業で役立つために自分自身を飛躍させることができると思います。おそらく今後5年間で起こることだと思います。時間軸については多少異なるかもしれませんが、AGI到達後に何が起こるかは別の問題です。なぜなら、その時点で私たちは本当に未知の領域にいると思うからです。

昨年、ホワイトカラーの仕事の半分について言ったときよりも時間がかかると思いますか。

ほぼ同じ見解です。私は実際に、あなたやデミスさんと同意見で、私がコメントした時点では労働市場に影響はありませんでした。その瞬間に労働市場に影響があるとは言っていませんでした。

今では、ソフトウェアやコーディングでその兆候が見え始めているかもしれません。Anthropic内でさえそれを見ています。ジュニアレベルで、そして中堅レベルで、実際にはより少ない人数が必要になる時期を見通すことができます。Anthropic内でそれに賢明な方法で対処する方法を考えています。

6ヶ月前の時点で1〜5年というのは、私はそれに固執します。これを以前言ったこと、つまり人間よりも優れたAIをすべてにおいて、おそらく1〜2年後、あるいはもう少し後に持つかもしれないということと結びつけると、それらは一致していないように見えます。

その理由は、遅れと置き換えがあるからです。労働市場は適応可能であることは知っています。かつて人々の80%が農業をしていて、農業が自動化され、彼らは工場労働者になり、その後知識労働者になったように。ですから、ここにもある程度の適応性があります。労働市場がどのように機能するかについて経済的に洗練されているべきです。

しかし、私の懸念は、この指数関数が複利で増え続けるにつれて、それほど時間はかからないと思います。繰り返しますが、1年から5年の間のどこかで、私たちの適応能力を圧倒するでしょう。デミスさんが言っていることと同じことを言っているだけかもしれません。時間軸についての違いを除いて、それは最終的にコーディングのループをどれだけ速く閉じるか、そしてどれだけ重要かに帰着すると思います。

政府の対応と社会的影響

政府がこのスケールを理解し、必要な政策対応について考え始めていることにどれだけ自信がありますか。

このことについて十分な作業が行われているとは思いません。このようなところで会う経済学者でさえ、AGIへの道筋だけでなく、それについてもっと考えている専門的な経済学者、教授がいないことに常に驚いています。

技術的なことをすべて正しく行い、ダリオさんが話している雇用の置き換えは1つの問題ですが、その経済について心配していますが、この新しい生産性、この新しい富をより公平に分配する方法があるかもしれません。それを行う適切な制度があるかどうかはわかりませんが、その時点でそうなるべきです。ポストスカーシティの世界にいるかもしれません。

しかし、それよりもさらに大きな問題があります。それは意味や目的に関係しており、経済的なものだけでなく、私たちが仕事から得るものの多くに関係しています。それは1つの問題ですが、奇妙なことに、それは人間の条件と人類全体に何が起こるかよりも解決しやすいかもしれません。私たちはそこでも新しい答えを見つけると楽観的に思っています。

今日、私たちは必ずしも経済的利益に直接関係しない、エクストリームスポーツから芸術まで多くのことをしています。ですから、意味を見つけるでしょうし、おそらくそれらの活動のさらに洗練されたバージョンがあるでしょう。さらに、私たちは星を探検するでしょう。ですから、目的という点でも考慮すべきことがすべてあるでしょう。

しかし、私のタイムラインの5〜10年先でも、今から考える価値が本当にあると思います。それが来る前にそれほど多くの時間はありません。

あなたの視点から見て、政府が愚かなことをするような、AIに対する大衆の反発のリスクはどれくらい大きいと思いますか。1990年代のグローバリゼーションの時代を振り返ると、確かに雇用の置き換えがあり、政府は十分なことをせず、大衆の反発は今のような状況に至ったからです。あなたがしていることや企業に対する反感が国民の間で高まるリスクがあると思いますか。

間違いなくリスクがあると思います。雇用や生計のようなものについての恐怖や心配があるのはある程度合理的だと思います。

次の数年間は地政学的に非常に複雑になると思いますが、ここにはさまざまな要因もあります。私たちは、AlphaFoldや科学研究、スピンアウト企業のIsomorphicを使って、すべての病気を解決し、病気を治し、新しいエネルギー源を考え出したいと考えています。社会としてそれを望むことは明らかだと思います。

おそらく業界が行っていることのバランスは、そのようなタイプの活動に向けて十分にバランスが取れていないと思います。AlphaFoldのような、世界における明白な善を助けるような例がもっとたくさんあるべきだと思います。ダリオさんも私に同意すると思いますが、それをもっと示し、実証する責任が業界と主要なプレーヤーである私たち全員にあると思います。話すだけでなく、実証するのです。

しかし、それにはこれらの他の意図的でない混乱が伴うでしょう。しかし、もう1つの問題は地政学的競争だと思います。明らかに企業間の競争がありますが、主に米国と中国の間にもあります。展開のための最低限の安全基準のようなものについて、国際的な協力や理解がない限り、ダリオさんもそれに同意すると思いますが、それは本当に必要だと思います。

この技術は国境を越えるでしょう。すべての人に影響を与えるでしょう。すべての人類に影響を与えるでしょう。実際、コンタクトは私のお気に入りの映画の1つでもあります。あなたのものでもあることを知りませんでした、ダリオさん。しかし、そのようなことを解決する必要があると思います。

そして、もし私たちができるなら、今予測しているよりも少しゆっくりとしたペース、私のタイムラインでさえも、社会がこれを正しく行えるようにするために良いかもしれません。しかし、それにはある程度の調整が必要でしょう。

私はあなたのタイムラインの方が好きです。

はい、認めます。

地政学的リスクと半導体輸出規制

しかしダリオさん、この点について話しましょう。昨年パリで話して以来、地政学的環境は、より複雑に、狂気じみて、どんな表現を使っても構いませんが、変化しています。第二に、米国は今、中国に対して非常に異なるアプローチを取っています。できるだけ速く進むが、中国にチップを販売するという、何の遠慮もないアプローチです。それだけです。

米国に対する異なる態度があります。米国とヨーロッパの間には今、地政学的に非常に奇妙な関係があります。それに対して、CERNのような組織があればいいと話しているのを聞きますが、現実世界から100万年離れています。では実際の世界では、地政学的リスクは増大していますか。それについて何かすべきことがあると思いますか。そして政権はあなたが提案していることの反対をしているように見えますが。

そうですね、私たちはただできる限りのことをしようとしています。私たちはたった1つの企業であり、どんなに狂気じみていても、存在する環境の中で運営しようとしています。しかし、少なくとも私の政策提言は変わっていません。チップを販売しないことは、これを処理するための時間を確保するために私たちができる最大のことの1つです。

以前言ったように、1〜2年で人間よりも優れたAIができるかもしれません。もう少しかかるかもしれません。これらは一致していないように見えます。私が正しくてデミスさんのタイムラインまで遅らせることができないのはなぜでしょうか。

できない理由は、地政学的な敵対者が同じペースで同じ技術を構築しているからです。彼らが減速し、私たちが減速するという強制力のある合意を持つことは非常に難しいのです。もし単にチップを販売しなければ、これは米国と中国の競争の問題ではありません。これは私とデミスさんの間の競争の問題であり、それは解決できると非常に確信しています。

政権のロジックをどう思いますか。私が理解している限りでは、米国のサプライチェーンに彼らを組み込む必要があるからチップを売る必要があるというものです。

それはタイムスケールだけでなく、技術の重要性の問題だと思います。これが通信かそのようなものだったら、米国のスタックを普及させ、世界中のこれらのランダムな国々が華為のチップではなくNvidiaのチップを持つデータセンターを構築するようにしたいということについてのこれらすべてのことは、私はこれをもっと、北朝鮮に核兵器を売るかどうかの決定のように考えています。

ボーイングに利益をもたらすからです。これらのケースはボーイングによって作られたと言うことができます。米国が勝っているようなものです。これは素晴らしいです。そのアナロジーは、私がこのトレードオフをどう見ているかを明確にするはずです。意味をなさないと思います。そして、私たちは中国や他のプレイヤーに対してはるかに攻撃的なことをたくさんやってきましたが、この1つの措置よりもはるかに効果が低いと思います。

AIの安全性とドゥーマー論

私からもう1つの領域を取り上げてから、1つか2つ質問の時間があることを願っています。悲観論者が心配するもう1つの潜在的リスクの領域は、全能で悪意のあるAIの一種です。お二人ともドゥーマーのアプローチにはやや懐疑的だったと思いますが、昨年、これらのモデルが欺瞞や二枚舌の能力を示していることが見られました。

今、そのリスクについて1年前とは異なる考えを持っていますか。モデルが進化している方法について、もう少し懸念を持つべき何かがありますか。

そうですね、Anthropicの始まりから、このリスクについて考えてきました。私たちの最初の研究は非常に理論的でしたよね。私たちは機械論的解釈可能性というアイデアを開拓しました。これはモデルの内部を見て、人間の神経科学者が実際に私たち両方が背景を持つ分野ですが、脳を理解しようとするように、なぜモデルがすることをするのかを理解しようとするものです。

時間が経つにつれて、モデルの悪い振る舞いが現れたときにそれをますます文書化し、機械論的解釈可能性でそれらに対処しようと取り組んでいます。ですから、私は常にこれらのリスクについて懸念してきました。デミスさんとも何度も話しました。彼もこれらのリスクについて懸念してきたと思います。

私は間違いなくドゥーマリズム、つまり私たちは運命づけられている、何もできない、あるいはこれが最も可能性の高い結果であるということには懐疑的でした。私もそうだと思います、デミスさんにも話してもらいますが。これはリスクです。私たち全員が協力すれば対処できるリスクです。科学を通して、私たちが構築しているこれらの創造物を適切に制御し、方向づける方法を学ぶことができます。

しかし、もし私たちがそれらを不十分に構築し、すべての人が競争していて、ガードレールがないほど速く進むなら、何かがうまくいかないリスクがあると思います。

では、より広い質問の文脈でそれに答える機会を差し上げます。この1年間で、あなたが多く話してきた技術、科学、すべての領域の上昇可能性についてより自信を持つようになりましたか。それとも、私たちが議論してきたリスクについてより心配していますか。

そうですね、私は20年以上これに取り組んできました。ですから、私たちはすでに知っていました。私がAIにキャリア全体を費やしてきた理由は、基本的に科学と私たちの周りの宇宙を理解するための究極のツールを解決するという上昇面です。私は子供の頃からそれに夢中でした。AIを構築することは、正しい方法で行えば、そのための究極のツールであるべきです。

リスクについても、少なくともDeepMindの開始時、15年前から考えてきました。上昇面を得られれば、それは二重目的の技術なので、悪意のある行為者によって有害な目的のために転用される可能性があることをある程度予見していました。ですから、ずっとそれについて考える必要がありました。

しかし、私は人間の創意工夫を強く信じています。しかし、問題は時間と焦点を持ち、最高の頭脳がすべて協力してこれらの問題を解決することです。もしそれがあれば、技術的リスクの問題を解決すると確信しています。それがないかもしれず、そうすれば、断片化されるため、リスクが導入されるでしょう。異なるプロジェクトがあり、人々がお互いに競争するでしょう。そうすると、私たちが生産するこれらのシステムが技術的に安全であることを確認するのがはるかに困難になります。

しかし、時間があればそれは非常に扱いやすい問題だと感じています。

フェルミのパラドックスと将来の展望

質問を1つ確実にしたいと思います。皆さん、非常に短くお願いします。文字通り2分しかないので。ありがとうございます。こんにちは。

はい、どうぞ。

ありがとうございます。フィリップです。宇宙にデータセンターを構築するStar Cloudの共同創設者です。少し哲学的な核心的な質問をしたいと思います。私にとってドゥーマリズムの最も強力な論拠はフェルミのパラドックス、つまり私たちの銀河に知的生命を見ないという考えです。お二人の考えをお聞きしたいと思います。

そうですね、私はそれについて多く考えてきました。それが理由であるはずがありません。なぜなら、すべてのAIを見るべきだからです。皆さんのために説明すると、アイデアは、フェルミのパラドックスがあって、異星人がいないのは彼らが自分たちの技術によって排除されるからだというのは、なぜそれが起こるのかがやや不明確です。銀河のある部分からペーパークリップが私たちに向かってくるのが見えるはずですし、明らかに見えません。ダイソン球のような構造も何も見えません。AIであろうと生物学的なものであろうと。

ですから、フェルミのパラドックスには別の答えがなければならないと思います。私はそれについて独自の理論を持っていますが、次の1分には範囲外です。しかし、私たちは大いなるフィルターを通過したと感じています。もし推測しなければならないとしたら、おそらく多細胞生命、生物学が進化するのが信じられないほど困難だったのでしょう。

ですから、私たちは、次に何が起こるかの安らぎの上にいるわけではありません。次に何が起こるかを書くのは人類としての私たちだと思います。

これは素晴らしい議論になり得ますが、次の36秒の範囲外です。しかし、15秒ずつ以内で、来年また3人で会うとき、そうなることを願っていますし、そうなりたいと思っていますが、何が変わっているでしょうか。

そうですね、見るべき最大のことは、AIシステムがAIシステムを構築するという問題がどうなるか、それがどちらの方向に進むかです。それによって、そこに到達するまでにさらに数年かかるのか、それとも目の前に驚異と対処しなければならない大きな緊急事態があるのかが決まります。

AIシステムがAIシステムを構築する。

それに同意します。私たちはそれについて密接に連絡を取り合っています。しかし、それ以外にも、ワールドモデル、継続学習のような、研究されている他の興味深いアイデアがあると思います。自己改善が単独で成果を提供しない場合、これらの他のものを機能させる必要があると思います。そして、ロボティクスのようなものがその突破口の瞬間を迎えるかもしれません。

しかし、今言ったことに基づいて、皆がもう少し時間がかかることを願うべきかもしれません。実際、あなたや他のすべての人にとって、収益が入ってくるまで私たちに時間を与えるために。

それが好ましいと思います。それが世界にとってより良いと思います。

しかし、あなた方はそれについて何かできるでしょう。ありがとうございました。とても素晴らしかったです。

コメント

タイトルとURLをコピーしました