マックス・テグマーク:AI人工超知能が私たちを支配することを防げるか?

AIアライメント・安全性
この記事は約29分で読めます。

MITの物理学教授マックス・テグマークが、人工知能の急速な発展と人類への潜在的脅威について詳細に論じたインタビューである。テグマークは、現在のAI技術がチューリングテストを既に突破し、汎用人工知能(AGI)の実現が2027年頃という予想よりもはるかに早く到来する可能性を指摘している。特に、AI技術が人間を上回る人工超知能(ASI)へと発展した場合の制御不能なリスクについて警鐘を鳴らし、適切な規制と安全基準の必要性を強調している。一方で、AIを制御可能なツールとして開発することで、人類にとって有益な未来を築けるという楽観的な展望も示している。

2023年の最も記憶に残る出来事の一つは、これらすべての企業のCEOたち、サム・アルトマンやディーミス・ハサビスが声明に署名したことでした。「これは人類の絶滅を引き起こす可能性があります。注意しましょう」と彼らは言ったのです。それはまるで、オッペンハイマーとアインシュタインが核兵器が人々を殺す可能性があると警告する手紙を書いたのに、誰もがそのことを忘れてしまったようなものです。

人工知能と機械学習を理解している人は多くありませんが、MIT物理学教授のマックス・テグマークほど深く理解している人はほとんどいません。彼は『Life 3.0:人工知能時代における人間であること』の著者であり、Future of Life Instituteの創設者でもあります。今本当に身に染みて分かってきた辛い真実は、この技術を構築する方法を理解することの方が、それを制御する方法を理解することよりもずっと近いところまで来ているということです。

AIの真の姿と現在の状況

米中AI競争はどこに向かっているのでしょうか?制御不能なAIが人類に大きな被害をもたらすというSF的なシナリオに、私たちはどれほど近づいているのでしょうか?そして、それをどうやって防ぐのでしょうか?AIは現在、アメリカで強力なものを作る産業の中で、サンドイッチよりも規制が少ない唯一の産業だということをご存知ですか?

実際、森を木々のために見ることが困難なのです。AIの分野では毎週、毎日何か新しいことが起こっているからです。森全体を見渡してみると、私たち人間は何世紀にもわたって、自分たちが何者なのか、体がどのように機能するのかなどについて疑問を抱いてきました。数百年前、私たちは筋肉についてより多くのことを理解し、より強く、より速い機械を作りました。

最近では、私たちの脳がどのように情報を処理し、タスクを達成するかを理解しようとする探求がありました。人工知能という名前は1950年代に造られました。それ以来、人々は何らかの進歩を遂げてきましたが、ほとんどの場合、慢性的に誇大宣伝されてきました。この分野で働き始めた人々は、ダートマスで夏のワークショップを開催して、なんとか解決しようと言いましたが、それは実現しませんでした。

しかし、この4年間で状況が一変し、進歩が人々の予想よりもはるかに速くなったのです。例を挙げると、私はMITでAI研究を長年教授として行ってきました。わずか6年前でさえ、私の同僚のほとんど全員が、ChatGPT-4レベルで言語と知識を習得できる機械を構築することは数十年先のことだと考えていました。2050年頃に起こるかもしれないと。そして彼らは明らかに全員間違っていました。それはすでに実現しているのです。

それ以来、AIは高校レベルから大学レベル、博士課程レベル、教授レベル、そしてそれ以上へと進歩し、いくつかの分野では、この分野全体の教父であるアラン・チューリングが1951年に語ったポイントに近づいています。彼は言いました。「みなさん、もしあらゆる面で私たちを上回って考えることができる機械を作ったなら、彼らが制御権を握ることになります。それがデフォルトの結果です」と。しかし彼は「落ち着いてください。それは遠い先のことです。心配しないでください。ただし、テストを与えましょう。炭鉱のカナリアのようなものです」と言いました。

注意を払う必要があるときは、チューリングテストと呼ばれます。それは機械が言語と知識を習得できるときで、まさに今ChatGPT-4などで起こっていることです。基本的に、多くの誇大宣伝と失敗した約束の後、私たちは今、人類史上おそらく最も重要な分岐点に非常に近いところにいます。

チューリングテストの意味と重要性

チューリングテストは、アラン・チューリングが定義した模倣ゲームです。基本的に、タイピングなどで機械と対話し、機械と人間の違いを見分けることができるかどうかが問題となります。最近、科学者グループが書いた論文では、機械がこのテストに人間よりも頻繁に合格することが判明しました。彼らは人間が人間であることを納得させることが、人間自身よりも上手なのです。

実際には、チューリングテストに合格することは、今日のチャットボットが明らかにできるように、言語と基本的な知識を本当に習得することを意味します。このテストがなぜそれほど重要なのかというと、なぜワシントンの動物園に行ったときに檻の中にいるのが人間ではなくトラなのかを自問してみればわかります。

なぜでしょうか?私たちがトラよりも強いから、あるいはより鋭い歯を持っているからでしょうか?もちろん違います。私たちの方が賢いからです。そして、より賢い種が地球を支配するのは自然なことです。これがチューリングが指摘した基本的なポイントであり、今でも有効です。

これを理解できない人々は、AIを蒸気機関やインターネットのような単なる別の技術として考える間違いを犯していると思います。一方、チューリング自身は明らかにそれを新しい種として考えていました。あなたのラップトップが種ではないのは当然なので、これは非常に奇妙に聞こえるかもしれませんが、種を自分自身のコピーを作り、独自の目標を持ち、物事を行うことができるものと考えるなら、現在のAIではそこまで到達していません。

しかし、近い将来、あらゆる面で私たちを上回って考え、計画し、戦略を立てることができるロボットがいると想像してみてください。もちろん、彼らもロボット工場を建設し、新しいロボットを作ることができます。より良いロボットを作り、さらに良いロボットを作り続けることなどができるでしょう。そして徐々に私たちよりも高度になっていくのです。これは新しい種であることのあらゆる条件を満たしています

情報の政治化とAIの偏向

情報はますます政治化されており、特にこの10年間でそれが全く別のレベルに達しています。常に多少は政治化されてきましたが、この10年間で別次元に引き上げられました。これらのチャットボットの多くは、AI開発のまだ原始的なレベルでさえ、知識に大きな穴があり、本当に偏った思考方法を示していることが実証されています。プログラマーの価値観が基本的にそれらに組み込まれているようなものです。

ジョージ・オーウェルが指摘したように、もし誰かが人々に押し付けられる「真実」を制御できれば、彼らは世界を制御できるのです。AIによって燃料を供給される1984年のような世界で生きることは、私が自分の子供たちに望むことではありません。これは基本的に優れたジャーナリストであることと同じで、真実を追求するということです。それが何であろうと、発見したいと思っていたものでなくても、真実に従うのです。

科学者であることの私の定義は、答えることができない質問を持つ方が、疑問を持つことができない答えを持つよりも良いと考える人だということです。ガリレオのことを考えてみてください。彼は当局が彼に尋ねてほしくない質問をしました。最近でも、不都合とみなされた質問をした人々を見てください。Facebookでブロックされたりしたあらゆる種類のことが、後に真実であることが判明しました。

Varity Newsと真実の追求

科学者として、人々が「科学に従いなさい」と言うとき、私は本当にイライラします。科学者であることは、従うべきものに従う羊のようになることではありません。人々が怒ろうが怒るまいが、すべての厳しい質問をすることです。だからこそ私はVarity Newsを作ったのです。科学と同じように、真実を理解するのは困難です。正直に言って、非常に困難です。

世界で最も賢い物理学者たちが何百年もの間、間違った重力理論を信じていました。それは政治的なことでさえありませんでした。彼らはニュートンを信じていました。そして300年後にアインシュタインが現れて、おっと、私たちは皆間違っていたのです。政府が任命した、あるいはFacebookが任命した委員会があなたのために決めることで真実を理解できるという考えは、ばかげてナイーブです。

もし真実を理解することがそれほど簡単なら、大学も、すべての報道機関も閉鎖することができるでしょう。科学は歴史的に最終的に真実に到達する最良の実績を持っていると思います。ですから、Varityのアイデアは、メディアでそれを少し模倣することでした。

ルール第一は、誰も検閲しないことです。たとえ身なりが悪くても、高級な学位を持っていなくても、良い議論を持っているなら、彼らの話を聞かなければなりません。MITの誰かが私を批判するかもしれません。「なぜエポックタイムズの人々と話をしているのか」と。私は科学者です。誰とでも話し、誰の話も聞きます。それが科学的方法なのです。

AIの本質と将来の展望

人工知能は単に非生物学的知能です。情報処理に関することは何でも、炭素原子やニューロン、脳で情報処理を行う必要はないという考えです。シリコン原子やコンピューターでも行うことができることがわかりました。コンピューター科学における知能自体は、目標を達成する能力として単純に定義されています。そのものが何らかの主観的体験や感情などを持っているかどうかは関係ありません。

それでは汎用人工知能(AGI)とは何でしょうか?これまでのAIは多くの点でまだかなり愚かです。多くの場合、それはかなり狭いもので、あることはできても他のことはできません。例えば、今日のほとんどのAIシステムは非常に受動的です。あなたのiPadにあるものは質問に答えることはできますが、世界で何かを行っているわけではありません。来年何をするかの計画を立てているわけでもありません。

汎用人工知能は、私たちができることをすべて、基本的に私たちと同じかそれ以上にうまくできるAIとして単純に定義されます。機械が人間よりもうまくできる仕事が常にあると言う人々は、単純にAGI、汎用人工知能が決してないだろうと予測しているのです。彼らはこれらの企業に対して賭けをしているのです。

長年にわたって、人々はAGIは科学的なファンタジーで不可能だと考えていました。私たちはすでに、人々がChatGPTさえも不可能、あるいは少なくとも2050年まではないと予測していたことについて話しました。ですから、私たちは謙虚になるべきです。この分野で働く人々にとって、それが絶対に可能であることがますます明らかになっていると思います。

人工超知能への道筋

機械が私たちのすべての仕事をできる地点に到達すれば、それにはより良いAIを作る仕事も含まれます。ですから、非常に迅速に、さらに良いAIを作るR&D時間スケールは、人間の研究者にとって数か月から数年から、おそらく数週間や数か月、あるいは数日に短縮され、機械は物理学の法則という次のボトルネックにぶつかるまで、自分自身を改善し続けるでしょう。

しかし、私たちよりもはるかに優れた情報処理を行うことができないという物理学の法則はありません。あなたは非常に賢い人ですが、あなたの脳はお母さんの産道のサイズによって制限されています。さらに、あなたの脳は電球のように20ワットの電力で動作していますが、コンピューターには数百万ワットを簡単に投入することができます。私のラップトップは私の脳より約10億倍速く動作します。

機械が自分自身を改善し始めると、私たちがカタツムリより賢いのと同じくらい、彼らは私たちより賢くなることができると思います。カタツムリが私たちを制御したり、私たちを作って制御したりするという考えがあったとしたら、これは明らかに無理な注文だから笑うべきでしょう。

私が今説明したのは人工超知能として知られているもので、おそらく汎用人工知能の後あまり時間をおかずに来るでしょう。これはまさにアラン・チューリングが警告したことです。彼はあなたの計算機のようなものが世界を乗っ取ることを心配していたのではありません。自己改善する機械を作ってしまい、それが最終的に乗っ取ることになることを心配していたのです。

核開発との歴史的類似

ここには非常に興味深い歴史的類似があります。有名な物理学者エンリコ・フェルミが1942年に、シカゴのフットボールスタジアムの下で史上初の原子炉を建設しました。これについて学んだとき、世界トップの物理学者たちは完全に動揺しました。原子炉自体が何らかの形で危険だったからではありません。そうではありませんでした。これが原子爆弾を建設するための最後の大きなハードルだったことに気づいたからです。

これは原子爆弾のためのチューリングテストのようなものでした。今や、おそらく3年、4年かかるだろうが、それは起こるだろうということがわかりました。今やそれは単なるエンジニアリングの問題でした。実際、3年かかりました。トリニティテストは1945年7月、最初の爆弾でした。

ChatGPT-4のようなもので合格したチューリングテストとまったく同じです。ここから実際に制御を失う可能性のあるものを構築することまで、もはや根本的な障害はなくなり、すべては政治的意志にかかってくることが明らかになりました。私たちはこれをやりたいのか、やりたくないのか。

楽観的な展望と制御の可能性

ここに楽観論を注入できるでしょうか。超大国間で核戦争がまだ起こっていないのは、それを起こさないという政治的意志があったからです。ですから、核戦争は起こりませんでした。いくつかの危険な瞬間があったとしても。愚かな異星人機械に私たちの未来の鍵を単純に渡すことも、絶対に決定された結論ではありません。なぜなら、率直に言って、ほとんど誰もそれを望んでいないからです。

実際には、人類が機械に置き換えられることを望んでいると実際にYouTubeなどで公言している技術者は非常に少数です。なぜなら彼らの方が賢く、それが何らかの形でより良いからだというのです。私はそれをデジタル優生学だと考えています。それは深くニヒリスティックな思想です。

私は自由言論を信じています。彼らが望むものを望む権利があると信じています。しかし、私はチーム人間の側にいます。私は彼らのチームではありません。私たちの子供たちが、私たちが持っているのと同じ長く意味のある人生への権利を持つことを望んでいます。

核兵器との比較と現在の課題

核兵器では、発射したときに起こる大規模な物理的破壊があります。これは何らかの形で異なります。これは無形です。大規模な物理的破壊は、すでにある種の制御を失った後まで起こりません。ChatGPTは、原子爆弾のような実存的リスクのようには感じられません。

最大の違いは、私たちは皆核爆発のビデオを見たことがあるということですが、AGIや人工超知能についてのビデオや何かを見た人は誰もいません。なぜなら、それは未来にあるからです。ですから、私たちがここで抱えている困難な戦いは、他の人々にこれに注意を払わせたいなら、1942年に核の冬について警告していたと想像してみてください。人々は「あなたは何について話しているのか」と言うでしょう。

そこに到達すれば、確かに多くの破壊があり得ます。最も可能性の高い結果は、それが単に人類の絶滅を引き起こすことです。不都合な真実の抑圧と記憶の埋もれについて私たちは話しました。2023年の最も記憶に埋もれた話の一つは、これらすべての企業のCEO、サム・アルトマン、ディーミス・ハサビスなどが「これは人類の絶滅を引き起こす可能性があります。注意しましょう」という声明に署名したことでした。彼らがそれを言ったのです

AGIの到来予測と対応策

この未来はもはや数十年先ではありません。最高のアメリカ企業の一つであるAnthropicを率いるダリオ・アモデイは、2027年、今から2年後にはAGIが実現し、データセンターに天才の国を持つことになると予測しています。このデータセンターの天才たち、これらのAIは、物理学、化学、数学の様々なタスクでノーベル賞受賞者よりも優れているでしょう。

ですから、これがトランプ大統領の任期中に起こる可能性が最も高いです。トランプはAI大統領です。彼の監視下で何をするかが、これがどうなるかを決定することになります。

私が約束した楽観論があります。このディストピア的な未来を望む人はほとんどいません。一部の周辺のオタクを除いて。そして、それが主要なことです。アメリカではたくさんの世論調査が行われています。アメリカ人の圧倒的多数は絶対にこの未来を望んでいません。そして、それについて党派的な分裂さえありません。

さらに、国家安全保障共同体の人々もこれが国家安全保障上の脅威であることを理解し始めていると思います。もしあなたが米国国家安全保障共同体で働いていて、あなたの仕事が国家安全保障上の脅威をもたらす可能性のある他の国々を監視することなら、そして誰かがデータセンターに天才の国について話しているのを聞いたら、「待って、彼の国も注意を払うべきリストに載せるべきかもしれない」と思うでしょう。

制御の重要性と国際的な観点

あまりにも多くのレッドブルを飲みすぎたサンフランシスコベースのオタクに、米国政府を転覆させる可能性のあることについて決定を任せたいでしょうか?この技術を構築する方法を理解することの方が、それを制御する方法を理解することよりもずっと近いという痛ましい真実が本当に理解され始めています。

しかし、それは良いニュースでもあります。なぜなら、国家安全保障共同体の誰も制御不能なものを構築することを望んでいないからです。兵器について話し始めても、制御可能な兵器が欲しいのです。制御不能な兵器は望みません。これは、あらゆる国の国家安全保障共同体の考え方です。

例えば中国を取り上げてみましょう。習近平は自分の制御を失いたくないと確信しています。ですから、もし中国の技術企業が彼を転覆させることができるなら、彼はその技術企業に対して何をするでしょうか?

技術競争と規制の必要性

イノベーションを推進するもののひとつは技術競争です。それは明らかだと思います。他の人より先に進もうとすることは大きな推進力です。これが今起こっているチャットボットの急速な進化を推進していることは確実です。違いは、ジーニーを瓶から出した瞬間、そのものが自分自身を構築し始めることができる瞬間です。

私たちは今軍拡競争の中にいます。共産主義中国、習近平という完全に不道徳な統治体制があります。越えるべき道徳的境界はありません。しかし、道徳的境界は制御です。中国共産党は制御の一かけらも手放したくありません。それは事実です。

重要なことは、この「境界」について考えることです。AIには、それが少ないか多いかだけではなく、異なる性質を持つ異なる種類のAIシステムの空間があります。例えば、あなたのiPadにはたくさんの知能がありますが、それは狭い知能で、非常に汎用的ではありません。例えば、運転することはできませんし、エージェンシーも持っていません。世界でロボットの体で追求している目標もありません。

ツールAIという解決策

私たちが明らかに制御方法を知らないのは、実際には3つの別々の能力を組み合わせたときだけです:非常に強力なドメイン知能と、人々を操作したり新しいパンデミックを作り出したりする方法を知っているような非常に強力な汎用性、そしてエージェンシー・自律性です。これらの3つすべてを組み合わせたときだけ、私たちはそれを制御する方法を知りません。

しかし、これらの特性のうち1つまたは2つしか持たない場合、それを制御し、人々を置き換えるのではなく補完することを確実にすることは完全に可能です。オタクになって、これらの特性のうち1つまたは2つを選ぶがすべて3つではないベン図のドーナツ形状を考えてみてください。そこではケーキを持って食べることもできます。

そして、私は私たちがドーナツの中に行き着くと思います。なぜなら、もしあなたがAIでたくさんのお金を稼ぎたいなら、世界最高の自動運転車を作りたいとしましょう。人間のドライバーよりも運転が上手にできるものです。今はまだありません。これには何が必要でしょうか?はい、もちろん自律性が必要で、ドメイン知能が必要です。運転が本当に上手でなければなりません。

しかし、生物兵器の作り方を知る必要があるでしょうか?あなたの最も嫌いな政治家に投票するよう説得できるほどの汎用性を持つ必要があるでしょうか?おそらくそれを望まないでしょう。「車よ、運転に集中してくれませんか?」と言うでしょう。

ツール開発への転換

同様に、もしがんを治したいなら、がん治療AIに人々を操作する方法や車の運転方法を教える理由はありません。ですから、私の楽観論は、競争がこの種のツールAI、私たちが制御方法を知っているドーナツの中のAIに向かってシフトしていくということです。

私にとって、ツールとは私が制御できるものです。私は強力な車を運転するのは好きですが、制御不能な車は好きではありません。同様に、どの国の軍事司令官が制御不能なドローン群を望むでしょうか?彼らは制御可能な種類を好むと思います。ですから、司令官に何か他のことを説得できるように、このすべての追加のAGI要素を入れることはないでしょう。

私たちは、企業間、国家間で最高のツールを構築する健全な競争を見ることになるでしょう。しかし、ある時点で、制御方法を知らないものは誰も作ることができないという厳しい線が国家安全保障共同体によって引かれるでしょう。

国際協力の可能性

異なる企業、異なる国の人々が物事に対して非常に異なる見解を持っているのは正しいですが、ソビエト連邦・米国の力学は、核の冬を起こさないことに同意するために、すべてについて必ずしも同意する必要がないことを示しています。ロナルド・レーガンとブレジネフの間に大きな信頼があったわけではありませんが、それでも彼らは互いを核攻撃することは決してありませんでした。なぜなら、両者ともこれは単に自殺行為だと理解していたからです。

人間よりも賢い制御不能な機械を構築することは、まったく同じ種類のレッドラインだと思います。それが単に自殺行為であることが皆に明らかになれば、誰もそれを行わないでしょう。代わりに、人々がすることはツールで競争することであり、その後、自分たちの人々を保護するために基本的な安全基準を考え出すでしょう。

現在の規制状況

AIは現在、強力なものを作るアメリカの産業の中で、サンドイッチよりも規制が少ない唯一の産業だということをご存知ですか?もし誰かがサンフランシスコでサンドイッチショップを持っているなら、最初のサンドイッチを売る前に、キッチンをチェックして、その他多くのことを行わなければなりません。

もしOpenAIの誰かがこのクレイジーな制御不能な人工超知能を持っていて、明日それをリリースしたいと思ったら、法的にそうすることができます。医薬品についても以前は同じようでした。サリドマイドを聞いたことがありますか?腕や脚なしで生まれる赤ちゃんの原因となりました。もしFDAがなかったら、アメリカで月次ベースでサリドマイド相当のものがリリースされるあらゆる種類の新しいものがあることは確実で、人々は薬をそれほど信頼しなくなり、それは恐ろしい状況になるでしょう。

安全基準の必要性

しかし、私たちは今、基本的な安全基準を設けました。「アメリカで新しい薬を売りたいなら、まず臨床試験結果を見せてください」と言うのです。そして、申請書に「これについて良い感じがします」と書くだけではいけません。定量的でオタク的でなければなりません。実際に利益を得る人の割合、実際にこの副作用、あの副作用を得る人の数。

企業は今、イノベーションを行い、トップに向けて競争するインセンティブを持っています。私のオフィスから数マイル以内に、アメリカ最大のバイオテクノロジー集中地の一つがあります。これらの企業は安全性についてのイノベーション、薬を安全にする方法を理解することに非常に多くのお金を費やしています。それが最初に市場に出る方法だからです。

もしAIに対して最も基本的な安全基準さえあれば、同じことがAI業界で起こるでしょう。彼らは安全に関することに費やすお金を1%から大幅に増やし、最初に市場に出ることができるようになり、私たちははるかに優れた製品を持つことになるでしょう。

私はイノベーションを阻害するような恐ろしい官僚主義について話しているのではありません。非常に基本的なことについて話しています。AI業界自体にとっても利益になると思います。アメリカのAI競争力に起こりうる最悪のことは、傲慢な人々が他の皆のためにそれを台無しにし、大きな反発を引き起こすことです。

食品安全との比較

私はすべての規制が必ずしもすべて素晴らしいと考える星の目をした人間ではありません。規制の取り込み、大規模な越権行為の恐ろしい例があります。しかし、人々がサリドマイドを売ることを許可されるのが良いと考える政治的立場の人を私は知りません。ですから、どこか中間に最適な安全基準の量があります。

新しい種のAI、制御方法を全く知らないAIに対して、サンドイッチよりも少ない規制を持つことは、私たちが完全に正しく理解していないような感じがします

ツールAIへのアプローチ

私たちは自分自身の置き換えを構築しようとするのではなく、私たちの生活をより良くするツールを構築すべきです。安全基準について話しました。サンドイッチの安全基準はサルモネラ菌を与えないというようなものかもしれません。AIの安全基準について、私がそのリストに載ることを主張する一つのことは、リリースする前に、これは制御できるツールであることをAIのためのFDAのようなものに説得することがあなたの仕事だということです。

実際、より良いのは、もしそのものがエージェンシーを持たない場合、質問に答えたり、がんの治し方を教えたりするチャットボットに過ぎない場合、それをどのように制御してツールにできるかを見ることは非常に簡単です。しかし、エージェンシーを持つこともできます。私は将来の自動運転車が世界を乗っ取ることについて眠れなくなることはありません。彼らはエージェンシー自律性を持っています。本当にAからBに安全に行きたいと思っています。

しかし、再び人々を操作し、生物兵器を作る方法や、その他彼らが知る必要のない様々なことを教えない限り、脅威をもたらす汎用性を欠いています。実際に多くのクールな科学が起こっています。これは実際に私のMIT研究グループで取り組んでいることです。製品に必要でない過剰な知識を持つAIから、本当に仕事をするために知る必要があることだけを知るAIをどのように蒸留できるでしょうか?

検証可能な安全性

類推してみましょう。あなたが国際宇宙ステーションにロケットを航行するための新しいアルゴリズムを独自に考え出したとします。あなたが秘密裏に代わりにホワイトハウスに墜落させるつもりではないことを、私はどうやって確実に知ることができるでしょうか?あなたの動機を疑う理由はありませんが、より安全な方法は、あなたにそこに座ってロケットを操縦させる代わりに、「あなたの新しいアルゴリズムを取って、それをコード化できますか?ロケットを操縦するPythonまたは何らかのプログラミング言語でコンピュータープログラムを書いて、私に渡してください」と言うことです。

そうすれば、私はそれを見ることができ、他の人々もそれを見て、それがロケットを宇宙ステーションに操縦するだけで、ホワイトハウスには向かわないことを確認できます。私はもはやあなたを信頼する必要がなく、あなたが私に作ってくれたツールを信頼すればよいのです。

驚くべきことは、AIが今コードを書くことが非常に得意になっていることです。ですから、私のグループで取り組んでいることは、あなたのツールの作り方を理解したAIがある場合、そのツールであるコンピュータープログラムを書くよう指示し、また、それが実際にあなたが望むことを正確に行うという証明も書くよう指示することです。今、あなたは実際に保証を持っています。自動証明チェッカーを実行し、この製造者を信頼しなくても、これが実際にあなたが望むことだけを行うことを完全に確信できます。

規制の必要性と反対論

私は絶対に、これは規制される必要があると確信しています。私は過度の規制のファンでは全くありませんが、明らかにここにはルールが必要です。実際、非常に興味深いことに、いわゆる「大きな美しい法案」に入れられる予定の法律があり、それは実際に州がAIを規制することを防ぐものです。そして、それは奇妙です。

これは明らかに単なる企業の利益供与です。私たちは以前に権力集中について話し、これらの企業がしばしば自分たちに有利になるよう世論を形成しようとしていることについて話しました。ですから、彼らが独占を維持し、監視なしに自分たちの望むことを何でも行うことを許可されるよう確実にしようとしていることは驚くことではありません。

重要な問題について10年間州から憲法上の権利を奪うという考えは、私たちの建国の父の何人かを墓の中で裏返しにさせると思います。そして第二に、これが企業の利益供与であることは非常に透明です。もしこのようなものを通過させれば、次に彼らが求めるのは、AI企業は負の所得税を払うべきだということでしょう。

しかし、それを擁護すると、議論は何でしょうか?それは自動車会社がシートベルトに対して行った議論、サリドマイドの製造者が臨床試験を行うべき理由に対して行った議論と同じです。「イノベーションを破壊し、業界を破壊する」などなど。

安全性と競争力の両立

「しかし中国が」という議論は、何らかの規制を取り除くためにワシントンで最もうまく機能する議論でもあります。そして、いくつかの状況では、それは説得力があります。なぜなら、「彼らがここで何かを押し付けることを望まない、それは恐ろしい世界になるだろう」と考えるからです。しかし、重要なポイントは、まず第一に、もしサム・アルトマンがデジタルマスターレースをリリースしたいと思い、テキサス州が「いや、それはできません」と言った場合、アメリカ人が中国のデジタルマスターAIではなくアメリカのデジタルマスターAIによって破壊されるように、彼がデジタルマスターレースをリリースしなければならないと言うのは、かなりお粗末な議論です。

私たち自身の企業を含む誰にもこれをやってもらいたくありません。もちろん、非常に深刻な地政学的問題があります。しかし、それは、ロビイストが彼らにとって非常に利己的な議論にそれらをひねろうとして狡猾にならないということを意味するものではありません。

コンプトン定数による安全性評価

コンプトン定数について話したいと思います。これは、AI研究グループが私たちのMITで発表した非常にオタクな論文で、物理学者コンプトンに敬意を表してこのように呼んでいます。彼は最初の核爆弾テスト、トリニティテストの前に、それが大気に点火して地球上の全員を殺す確率は3万分の1未満だと推定しました。

これは彼が行った非常に影響力のある計算でした。なぜなら、その数字が非常に小さいと推定されたことが明らかに、米軍が1945年7月にトリニティテストを実行することを決定した理由だったからです。もしそれが大気に点火する確率が98%だと計算していたら、彼らはテストを延期し、はるかに慎重な計算を委託していたことは確実です。

ですから、私たちの非常にささやかな提案は、AI企業にも実際に計算を行うよう要求すべきだということです。彼らはリスクが小さいと言いますが、どれくらい小さいのでしょうか?そして、私たちは実際にこの分析を行いました。企業が推進する、自分たちよりも賢いものを制御する方法の最も人気のあるアプローチの一つを取りました。これは、非常に賢いAIが少し愚かなAIによって制御され、それがまた少し愚かなAIによって制御されるというロシア人形のように重ねられたものです。

私たちは、コンプトン定数が90%以上の確率で、あなたは単にこのものの制御を失うことを発見しました。将来、彼らが考え出すことができるより良い方法があるかもしれません。しかし、現在のところ、私たちは人間よりもはるかに賢い機械を制御する方法を本当に手がかりがないと言うのは公正だと思います。

AIの異質性と未来の可能性

私たちが作成しようとしないAIの描写は非常に興味深いです。エイリアンは人類にとって長い間非常に一般的なトピックでしたが、あなたは「いや、私たちは実際にそれらを作っている、私たちは実際にこれらのものを創造している」と言っています。そして、彼らの考え方は私たちには非常に迅速に極めて想像できないものになる可能性があります

これは非常に深い質問であり、私はここで謙虚になって、これは私が軽々しく答えることができるものではないと言うつもりです。そして、他の誰かが軽々しい答えをするなら、私は彼らがなぜ過信しているかを説明できます。

私たちが確実に知っていることは、何らかの方法で情報を処理できるシステムの空間は、脳に存在する情報処理システムの種類よりもはるかに、はるかに広いということです。私たち人間は互いに非常に多くの共通点を持っています。激しい政治的対立者でさえ、まだ自分の子供を愛し、それでも機械とは全くデフォルトで共通しない他の非常に多くの基本的なことを共通に持っています。

子供について全く気にせず、子供を障害物、邪魔になる石のように考える非常に異質な精神を想像することができます。彼らは人間の感情のようなものを全く持たず、全人類が絶滅するかどうかを本当に気にしない可能性があります。私たちは皆、この地球上で非常に共通の遺産を持っており、それが私たちに絆を与えています。私たちはここで他の種類の精神のパンドラの箱を開けているのです。

AIツールによる希望ある未来

しかし、可能なAIの非常に大きな可能空間は、私たちの利益にも大いに使うことができます。私たちは実際に、私たちに忠実なしもべとなり、がんを治すのを助け、その他あらゆる種類のことを助けてくれるAIツールをどのように作るかを理解することができます。これは、何か悪いことが起こるか何も起こらないかのどちらかである核戦争について話すのとは異なります。

もし私たちがこれを正しく行えば、それは人類の歴史上最も素晴らしい積極的な発展になるでしょう。私たちは地球上での時間のほとんどを平均寿命29歳で過ごし、飢饉やあらゆる種類の治癒可能な病気で死んでいました。私の祖父でさえ、抗生物質で治すことができる腎臓感染症で死にました。

技術は私たちに力を与えて、私たちや将来の世代のために人生をはるかに素晴らしく、刺激的にしています。もし私たちが私たちの祖先が当惑していたすべての問題を解決するのに役立つツールで技術をうまく増幅できれば、SF作家が本当に夢見たものよりもさらに刺激的な未来を創造することができます。それをやりましょう。

イカロスの物語では、彼は素晴らしいことができる翼を手に入れましたが、代わりに太陽に向かって飛ぶことに執着し続け、悪い結果に終わりました。人工知能は私たちにこれらすべての問題を解決するための信じられない知的な翼を与えています。私たちがAGIを構築することに執着することをやめさえすれば

具体的な行動計画

Future of Life Instituteで私たちが持っている提案やアプローチの具体的な考えを教えてください。私たちの政府はこれについて何をするかの新しい行動計画を開発しており、それは本当に素晴らしいことです。

最初に簡単に勝てることの一つは、サンフランシスコの技術者たちからだけでなく、信仰共同体からも確実に意見を得ることです。なぜなら、私たちにはここで道徳的羅針盤が必要だと強く信じているからです。そしてそれは、サンフランシスコの企業の利益以上のものでなければなりません。内なる北極星によって駆り立てられる人々が部屋にいなければなりません。

対話は私たちができることについてだけでなく、私たちがすべきことについてでなければなりません。そして、そのために私は実際に非常に興奮しています。福音主義指導者のグループが大統領への手紙を書いて、私たちにはここでより多くのリーダーシップが必要だ、サンフランシスコのCEOだけでなく、アメリカ人にとって実際に良いことに焦点を当てる必要があると言っています。私たちは何らかのディストピア的な代替種ではなく、アメリカを強く、力強く、繁栄させるこれらのツールを構築する必要があります。

第二に、テキサスや他の州に彼らが望むことをさせてください。DCのロビイストにすべてを決めさせることで彼らの権力を奪おうとしないでください。

基本的安全基準の確立

第三に、再び他のすべての業界と同じようにAI業界を扱い始めることだと思います。制御を失う可能性のあるものをリリースする前に、それを計算して見せてください。それを制御を失う確率はどのくらいですか?そして、政府にそれがリリースされるかどうかを決めさせてください。

最終的に、安全基準が正確に何であるべきかを決めるのは私のような科学者であるべきではありません。これは民主的手段によって決定されるべきです。しかし、安全基準のためのあらゆる種類の機関を構築するには時間がかかります。ですから、今すぐそれから始めることができます。

言い換えれば、より多くの規制、または私は安全基準と言うことを好みます。なぜなら、それが実際にそうだからです。あなたはバーを設定します。業界は不確実性や曖昧なことを嫌います。しかし、もしあなたが「これはあなたが越えなければならないバーです。新しいがん薬を売るつもりなら、それが奪う命よりも多くの命を救うことを確認した方が良い。超強力な新しいAIをリリースするつもりなら、あなたがそれを制御できることを示した方が良い」と言えば、利益が害を上回るということです。それは基本的な基準であり、それらがどのように正確に実施されるかは専門家に任せることができます。

最終的な希望とビジョン

最終的に、技術は悪ではありません。道徳的に善でもありません。私はそれがツールであることを望みます。このツールを悪いことではなく良いことに使うことを確実にする方法について多くの考えを巡らせることを望みます。

私たちは火のようなツールでその問題をうまく解決しました。それを非常に良いバーベキューに使うことも、放火に使うこともできます。いくつかの規制を設け、アメリカでの火の使用が一般的に非常に積極的になるようにしました。ナイフについても同じで、他の多くのことについても同じです。AIについても全く同じことができます。

もし私たちがそれを行えば、私たちは実際に想像できる最も刺激的な未来を構築することになります。そこでは、見た目には治癒不可能な病気が治癒され、人々が健康で裕福で繁栄し、信じられないほど刺激的な人生を送ることができる未来を持つことができます。私を本当に駆り立てているのは恐怖ではなく、この希望なのです。

マックス・テグマーク、このようにお招きいただき、とても光栄でした。ありがとうございました。私はこの対話を本当に楽しみました。American Thought Leadersのこのエピソードで、マックス・テグマークと私にご参加いただいた皆様、ありがとうございました。私はあなたのホスト、ヤン・ケリックです。

コメント

タイトルとURLをコピーしました