我々は来るべきものに対して準備ができていない――AI専門家による身の毛もよだつ警告

AIアライメント・安全性
この記事は約15分で読めます。

AI研究の先駆者であるスチュアート・ラッセル教授が、人類が制御できない超知能AIの出現という差し迫った脅威について警鐘を鳴らしている。彼は「ゴリラ問題」という概念を用いて、人類よりも知的な存在が現れたときに直面する実存的危機を説明する。OpenAIやAnthropicなどの主要AI企業のCEOたちは、AGI開発が人類絶滅のリスクを25〜30%伴うと認識しながらも開発を加速させており、ラッセル教授はこれを「全人類を巻き込んだロシアンルーレット」と表現する。さらに、仮にAIが完全に安全に開発されたとしても、すべての労働をAIが代替する世界において人間の目的や意義が失われるという根本的な問題が残る。各国政府はAIを軍拡競争として捉え、規制よりも開発競争を優先している現状において、ラッセル教授は原子力発電所並みの厳格な安全基準の導入を提唱している。

We’re Not Ready For What’s Coming — AI Expert’s Chilling Warning
📸 Check out Claid AI — the all-in-one AI photo studio built for creators and e-commerce!As a #ClaidPartner, I’ve got a s...

スチュアート・ラッセル教授が語る人類の実存的危機

彼らは何をしているのでしょうか。彼らは地球上のすべての人間を巻き込んで、私たちの許可なくロシアンルーレットをしているのです。彼らは私たちの家に入り込み、子どもたちの頭に銃を突きつけ、引き金を引いて、こう言っているのです。「まあ、おそらく全員が死ぬかもしれません。おっと。でも、おそらく私たちは信じられないほど金持ちになるでしょう」と。

こちらはスチュアート・ラッセル教授です。人工知能の先駆者の一人であり、約50年にわたってこの分野で活動してきました。実際に、世界中の大学で使用されているAIの教科書を共著しています。現在は、カリフォルニア大学バークレー校でコンピュータサイエンスを教えており、人間互換AI研究センターのディレクターを務めています。彼の主な焦点は、AIがより強力になるにつれて、人類がAIの制御を失わないようにすることです。

そして、スティーブン・バートレットとのこのエピソードで、彼は私たちがその地点に誰もが認めたがらないよりもはるかに近づいている可能性がある理由を説明しています。そして、深刻なまでに準備不足であることも。では、見ていきましょう。

さて、この最初のクリップは、本当に動画全体のトーンを決定づけるものです。彼らはラッセル教授が「ゴリラ問題」と呼ぶものについて話しています。本質的には、私たちよりも知的な何か、つまり超知能AIが現れたときに何が起こるかということです。ご覧ください。

あなたがこのゴリラ問題について話しているのを聞いたことがあります。人間との関係でAIを理解する方法として、ゴリラ問題とは何でしょうか。

ゴリラ問題とは、ゴリラが人間に関して直面している問題です。つまり、数百万年前に人類の系統が進化においてゴリラの系統から分岐したと想像できます。そして今、ゴリラたちは人類の系統を見て、「ああ、あれは良いアイデアだったのか?」と言っているわけです。そして彼らには、自分たちが存在し続けるかどうかについて何の発言権もありません。

なぜなら私たちには…

私たちは彼らよりもはるかに賢いからです。もし私たちが選択すれば、数週間で彼らを絶滅させることができます。そして、彼らにはそれについて何もできることはありません。それがゴリラ問題です。つまり、ある種がはるかに能力の高い別の種が存在するときに直面する問題なのです。

つまり、これは知能が実際に地球を支配する最も重要な単一の要因であることを示しているのですね。

はい。知能とは、世界において自分が望むものを実現する能力です。

そして私たちは、私たちよりも知的な何かを作る過程にあるわけですね。

その通りです。

つまり、私たちがゴリラになる可能性があるということですね。

その通りです。

AIスケーリングの危険性と未来への警鐘

つまり、論理的にも経験的にも考えてみると、私たちよりも賢いシステムを構築することは、おそらくうまくいかないでしょう。特に、それが私たちの環境で行動し、操作する能力を持っている場合は。これが、ラッセル教授がモデルをどんどん大きくスケーリングし、可能な限り知的で強力にするというこのアプローチで、私たちが間違った道を進んでいる可能性があると信じている理由です。

そして、非常に強力なAIといえば、今日のスポンサーであるClay AIについて少しお話しします。Clay AIは、クリエイター、ビジネス、そして何時間も編集に費やすことなく、ビジュアルをクリーンでプロフェッショナルに見せたいほぼすべての人のために作られた、オールインワンのAIフォトスタジオです。私はサムネイル用に画像をアップスケールするために使っています。例えば、このぼやけたサム・アルトマンの写真を、実際に使えるものに変換するといった具合です。テキストを追加することもできます。

しかし、最も強力な使用例の一つはeコマースです。この無線AirPods Maxを例に使いましょう。では、オンラインストアを運営していて、素晴らしい商品写真が必要だとしましょう。通常であれば、スタジオを借りて、フォトグラファーを雇い、場合によってはモデルも雇う必要がありますが、それはすぐに高額になります。代わりに、シンプルな写真をアップロードするだけです。たとえそれが最高でなくても、Clayを使ってクリーンアップし、アップスケールし、必要に応じて乱雑さを取り除き、Shopify、Etsy、Amazon、Instagram、必要なものすべてのために自動的にフォーマットします。

しかし、ここからがさらにクールなところです。AIフォトシュート機能です。数秒でスタジオ品質の背景を持つ完全に新しいショットを生成できます。ホームスタジオの雰囲気、デスクのセットアップ、飛行機、雰囲気やオーディエンスに合うものなら何でも。説明するだけで、それが実現するのを見ることができます。そして、衣類やアクセサリーなどの商品を販売している場合、Clay AIはAIファッションモデルを使用してモデルショットを生成することもできます。

フォトグラファーもスタジオも必要ありません。つまり、もしあなたのビジュアルを本当に何をしているか分かっているように見せたいなら、下のリンクからClay AIをチェックしてください。そして、チェックアウト時にコードAI Copiumを使用して割引を受けてください。今日のビデオをスポンサーしてくれたClay AIに大きな感謝を。そして今、すぐに本題に戻りましょう。

トップAI研究者たちが認める絶滅リスク

しかし、ここで心配なのは、彼だけがこう言っているわけではないということです。多くのトップAI CEOや研究者たちも、絶滅の本当の可能性を見ていると認めています。それでも、彼らは前進を続けているのです。

あなたはAGIの予測日付のリストを読み上げましたが、私が言及した人々も注目してください。ダリオ・アモデイは絶滅の可能性を25%と言い、イーロン・マスクは絶滅の可能性を30%と言い、サム・アルトマンは基本的にAGIが人類の存在に対する最大のリスクだと言っています。

では、彼らは何をしているのでしょうか。彼らは地球上のすべての人間を巻き込んで、私たちの許可なくロシアンルーレットをしているのです。彼らは私たちの家に入り込み、子どもたちの頭に銃を突きつけ、引き金を引いて、こう言っているのです。「まあ、おそらく全員が死ぬかもしれません。おっと。でも、おそらく私たちは信じられないほど金持ちになるでしょう」と。それが彼らのしていることです。彼らは私たちに尋ねましたか。いいえ。なぜ政府は彼らにこれをさせているのでしょうか。

なぜなら、彼らは政府の前に500億ドルの小切手をちらつかせるからです。

だから、表面下で困惑しているというのは控えめな表現だと思います。

では、正確な表現は何でしょうか。

憤慨しています。そして私は、この歴史の道筋から別のものへと転換させるために、私の人生を捧げています。

つまり、このテクノロジーを構築している人々が、人類を一掃する本当の可能性があると公然と言っておきながら、とにかくより速く進み続けているとき、それはおそらく私たち全員を少し不安にさせるはずです。

なぜなら、文字通り人類の存在が賭けられているのであれば、なぜ私たちはただ最善を期待しているような気がするのでしょうか。そしてラッセルが言ったように、誰も一般市民にこの計画で大丈夫かと尋ねていません。私たちはただ、完全に準備不足のまま、この乗り物に引きずられているだけなのです。

完璧な未来がもたらす実存的な問題

そして重要なのは、文字通り何も間違ったことが起こらなかったとしても、私たちがこれらの超知能システムを制御し、すべての労働を自動化し、すべての病気を治す新しい科学的発見をし、基本的に全員に豊かさがあるという、この完璧な未来でさえ、社会を壊す可能性があるということです。つまり、もしAIが私たちよりもすべてをうまくできるなら、私たちには一体何が残されているのでしょうか。

とにかく、すべてがうまくいった場合の質問に戻りましょう。もし私たちがAGIを作り、それを安全にする方法を見つけ、これらすべての経済的奇跡を達成したら、あなたは問題に直面します。

そして、これは新しい問題ではありません。ジョン・メイナード・ケインズは、20世紀初頭の有名な経済学者でしたが、1930年に論文を書きました。これは大恐慌の真っ只中でした。それは「私たちの孫の経済問題について」と呼ばれています。彼は、ある時点で科学が十分な富をもたらし、もう誰も働く必要がなくなると予測しています。

そして、人間は真の永遠の問題に直面することになります。経済的インセンティブ、経済的制約が取り除かれたときに、賢く、そしてよく生きる方法。正確な言葉は覚えていませんが。私たちはその質問への答えを持っていません。

つまり、AIシステムは私たちが現在仕事と呼んでいるほぼすべてのことをしているわけです。あなたが憧れるかもしれないことすべて、例えば外科医になりたいとすると、ロボットが外科医になる方法を学ぶのに7秒かかります。それは人間よりも優れています。

イーロンは先週、ヒューマノイドロボットはこれまで生きてきたどの外科医よりも10倍優れているだろうと言いました。

おそらくそうでしょう。そして、彼らはまた、1ミリメートルサイズの手を持つことになるでしょう。だから彼らは内部に入って、人間にはできないあらゆる種類のことをすることができます。

そして、私たちはこの質問に真剣に取り組む必要があると思います。AIがあなたが望むあらゆる形態の人間の仕事を行える世界で、あなたの子どもたちに生きてほしいと思う世界はどのような世界でしょうか。その世界はどのように見えますか。目的地を教えてください。そうすれば、そこに到達するための移行計画を開発できます。

そして私はAI研究者、経済学者、SF作家、未来学者に尋ねてきました。誰もその世界を説明することができませんでした。それが不可能だと言っているわけではありません。私が知る限り、私が数百人に複数のワークショップで尋ねてきただけです。それはSFには存在しません。

ユートピアについて書くのは非常に難しいことで有名です。プロットを作るのは非常に難しいのです。ユートピアでは何も悪いことが起こりません。だから、プロットを作るのは難しいのです。だから通常、ユートピアから始めて、それからすべてが崩壊し、それがプロットを得る方法なのです。

これは本当に私に響いた部分です。なぜなら、表面的にはその未来は素晴らしく聞こえるからです。仕事なし、ストレスなし、病気なし、やりたいことをやる無限の時間。

しかし、すべてが私たちに手渡されるとき、人間は通常それをうまく処理しません。私たちは以前それを見てきました。宝くじの当選者、信託基金の子供たち、突然日常を失った退職者でさえ。ある意味で、人間は苦労するように作られています。私たちは挑戦を克服し、貢献し、重要であることを配線されています。だから、もしAIが私たちよりもすべてをうまくでき、私たちが自分たちの世界で観客のようなものになるなら、私たちは誰なのでしょうか。私たちは本当に豊かさを望んでいるのでしょうか。

それが目的を失うことを意味するなら。しかしまた、それは私たちが常に知ってきた人間のバージョンに過ぎません。希少性、競争、そしてコントラストによって形作られたもの。だから、苦労する必要なく、何も克服する必要なく人間であることは可能でしょうか。それは私たちをより良くするのでしょうか、それともまったく別の何かにするのでしょうか。

これは私を夜眠れなくさせる種類のことです。なぜなら、AIが主にポジティブな方向に世界を変革するか、主にネガティブな方向に変革するかにかかわらず、人間であることのすべてが根本的に変わろうとしているようだからです。

グローバルAI軍拡競争と経済的支配

とにかく、私たちのような人々、ラッセル教授のような人々、そして願わくば実際にこのテクノロジーを構築している人々の一部が、恐ろしいことを考えているとはいえ、これらの種類の影響について考えている間。

政府は、まあ、彼らの優先事項はしばしば非常に異なっています。彼らはAIを次のグローバル軍拡競争として見ています。AGIを最初に手に入れた者が勝ちます。彼らがルールを設定します。彼らは経済、軍事、世界秩序全体を支配します。そして彼らは間違っていません。

もしイギリスが、この新しい技術の波に参加しないなら、それは多くの仕事を奪うことになりそうです。車は自動運転になります。Waymoは、ロンドンに来ると発表したばかりです。これは無人運転車であり、運転は世界で最大の職業です。だから、そこには即座の混乱があります。そして、お金はどこに流れるのでしょうか。まあ、それはWaymoを所有している者に流れます。それはGoogleとシリコンバレーの企業です。

WaymoはAlphabetが100%所有していると思います。そうです、つまりこれは、私が数ヶ月前にインドにいて政府大臣と話していたときのことです。彼らは2月に次のグローバルAIサミットを開催しているからです。そして彼らの最初の見方は、AIは素晴らしい、私たちはインド経済の成長をターボチャージするためにそれを使うつもりだ、というものでした。

例えば、AGIを持っているとき、すべての製造、農業、すべてのホワイトカラーの仕事ができるAGI制御のロボットを持っているとき、インド人によって生産されていたかもしれない商品やサービスは、代わりにはるかに低価格でアメリカが制御するAGIシステムによって生産されます。

消費者は、インド人によって生産された高価な製品と、アメリカのロボットによって生産された安価な製品の選択を与えられたとき、おそらくアメリカのロボットによって生産された安価な製品を選ぶでしょう。

そして、北朝鮮を除く世界中のすべての国が、潜在的にアメリカのAI企業のある種の属国になるでしょう。

アメリカのAI企業の属国というのは、まさに私がイギリス経済について、そして実際にアメリカ以外のあらゆる経済について懸念していることです。中国も言えると思いますが、なぜならそれらがAIを最も真剣に受け止めている2つの国だからです。

そうですね。

そして私は、私たちの経済がどうなるのか分かりません。イギリス経済がそのような世界でどうなるのか分からないのです。それは観光ですか。分かりません。バッキンガム宮殿を見るためにここに来るのでしょうか。

国について考えることはできますが、アメリカでさえ同じ問題があります。

少なくとも彼らはそこから利益を得ることができるでしょう。

だから、人口のごく一部がAI企業を運営するかもしれませんが、ますます多くのそれらの企業さえも人間の従業員をAIシステムに置き換えるでしょう。

なるほど。

つまり、それはアメリカが勝つのか、それとも極めて少数のアメリカ人が勝ち、アメリカおよび世界中の他のすべての人がその小さなグループの属国になるのか、ということです。

AIリスクへの規制的アプローチ

繰り返しますが、これらは私たちが非常に近い将来に直面する可能性のある実存的な問題です。私たちはこの短いビデオの中ですでにそれらのいくつかについて話してきました。それでも、私たちにはまだ非常に多くの未回答の質問があります。そして、これがまさにラッセル教授のポイントです。私たちは基本的にこれがどこで終わるのか分からないのに、なぜこんなに速く加速しているのでしょうか。

そして最後に、彼は少なくともリスクを遅らせる方法を提案しています。これをご覧ください。

そして、あなたは何が起こることを望んでいますか。解決策は何ですか。

私が考えるのは、効果的な規制を持つべきだということです。それに反対するのは難しいですよね。では、効果的とはどういう意味でしょうか。それは、規制に従えば、リスクが許容レベルまで低減されるということです。

例えば、原子力発電所を運営したい人々に、私たちは求めます。私たちは、私たちが受け入れる意思のあるリスクは、発電所がメルトダウンする年間100万分の1の確率だと決めました。それより高ければ、それだけの価値はないのです。だから、それ以下でなければなりません。場合によっては、年間1000万分の1の確率まで下げることができます。

では、人類の絶滅について、私たちはどのような確率で受け入れる意思があると思いますか。

私ですか。

ええ。0.00001。

ええ。たくさんのゼロです。

そうですね。

原子力メルトダウンは100万分の1です。

絶滅ははるかに悪いです。

ああ、はい。

だから…

1000億分の1。1兆分の1。

ええ。だから、10億分の1と言えば、10億年あたり1回の絶滅が予想されます。背景があります。人々がこれらのリスクレベルを算出する方法の1つは、背景も見ることです。

絶滅する他の方法には、巨大な小惑星が地球に衝突することが含まれ、それらの確率をおおよそ計算できます。過去に何回絶滅レベルのイベントが起こったかを見ることができ、5億年に1回のイベントかもしれません。

だから、その範囲のどこかです。最高の原子力発電所である1000万分の1と、巨大な小惑星からの背景リスクである5億分の1または10億分の1の間のどこかです。では、年間1億分の1の確率に落ち着くとしましょう。さて、CEOによるとそれは何でしょうか。25%です。

だから、彼らは数百万倍もずれています。つまり、彼らはAIシステムを数百万倍安全にする必要があるのです。

結論:慎重さと加速のバランス

つまり、ここが重要だと思います。もし私たちがAGIが良い方向にも悪い方向にもすべてを変える可能性があると本当に考えるなら、おそらくそれは「速く動いて物を壊す」以上のものに値するでしょう。

そして、このビデオを見て、これはただの破滅論的な話だと思う人がいることは分かっています。これはただのクリックベイトの恐怖の煽りだと。

しかし、こう考えてみてください。原子炉が爆発しないことを確認するエンジニアを、あなたは破滅論者と呼びますか。特に、そのエンジニアが原子炉が爆発する可能性が25%あることを発見し、修正されるまでそれをシャットダウンしたいと思っている場合。つまり、私たちは今まさにその同じ状況にいるのではないでしょうか。多くのAI安全性の専門家が警鐘を鳴らしているのに、実質的に規制がなく、ただフルスロットルで加速しているという。

だから、分かりません。破滅論者か加速主義者かよりも、はるかにニュアンスがあると思います。そして、それが私がこのチャンネルで両方の側面とその間のすべてを探求しようとしている理由です。

AIをカバーしてきたこれだけの時間の後でも、まだ非常に多くの未回答の質問があり、新しいものが絶えず出てきています。しかし、私はあなたの視点を聞きたいです。

このすべてについてどう思いますか。私たちは正しい道を進んでいるのでしょうか、それとも何かを変える必要があるのでしょうか。とにかく、これを皆さんと共有したかったのです。お気軽にいいねを押して、新規の方は購読ボタンを押してください。そしていつものように、次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました