
10,571 文字

スティーブ:人工知能が人類の未来でどのような役割を果たすかについて、多くの疑問が浮上しています。哲学者であり著者でもあるクリストファー・ディカルロ氏は、AI倫理に関する世界的な第一人者の一人として、私たちとこのテクノロジーとの複雑な関係性、そして私たちの世界におけるAIの立ち位置に向けて、私たちがどのように準備すべきかを考察しています。
それらはすべて彼の新著『BUILDING A GOD: THE ETHICS OF ARTIFICIAL INTELLIGENCE AND THE RACE TO CONTROL IT(神を作る:人工知能の倫理とそれをコントロールするための競争)』に記されています。彼はまた、クリティカル・シンキング・ソリューションズの代表兼創設者でもあり、今日はここスタジオに来ていただきました。TVOへようこそ。本当に昔のことを覚えている方には、ここで「ベスト講師コンテスト」というものを開催していたことを思い出していただけるでしょうが、あなたはそれで優勝しました。
当時はすごい人気者でしたね。本の中でさまざまな種類の人工知能について触れていますが、まず最初にいくつかの頭字語について説明していただき、どのようなことを話しているのかを理解したいと思います。ANI、AGI、ASIとは何でしょうか?
クリストファー:世界はこれからの3年間でこれらの用語に慣れるでしょう。ANIは人工狭義知能(artificial narrow intelligence)で、ルンバやSiriなど、特定のアルゴリズムの範囲外で動作することのない狭い機能を持つものです。つまり、あなたのルンバがあなたにぶつかって「スティーブ、もう掃除はしたくない、会計士になりたい」などと言うことはありません。
スティーブ:ぶつかることはあっても、そんなことは言わないでしょうね。
クリストファー:AGIは現在のAIにおける聖杯のようなもので、それが人工汎用知能(artificial general intelligence)です。テクノロジー企業が達成しようとしているもので、あなたや私のように自分で考え、計画し、多くの異なるレベルで機能できる人工知能です。ASIが最も懸念すべきものであり、AGIに到達した場合に非常に心配されるのが、人工超知能(artificial super intelligence)です。これは神のような力を持ち、これまで私たちが発明した中で最も知的な機械になるでしょう。そしておそらく、私たちが発明する必要のある最後の機械となります。なぜなら、他のすべての機械の発明方法を教えてくれるからです。
スティーブ:あなたがこの本で最も関心を持っているのはどれですか?
クリストファー:はい、そうです。
スティーブ:ここで質問をしたいと思います。これから会話の中でいくつかの倫理的なジレンマについて話していきますが、本の中でこの問題を提起していますね。もし人工知能が人類を破壊する可能性が5%あるが、素晴らしいこと、あるいは少なくとも中立的なことをする可能性が95%あるとしたら、それでもそのリスクを取って開発すべきでしょうか?
クリストファー:はい、いい質問です。事実としては、私たちはそうするでしょう。これらのテクノロジー企業は先を争って、最初にこれを達成したいと考えています。彼らはその道を進んでいます。実際には、どのようにガードレールを設置して、それに備えるかという問題になります。
スティーブ:減速するには遅すぎるということですか?
クリストファー:競争はどんどん進んでいると思います。減速できるか、止められるか?はい。でも、実際にそうするでしょうか?私たちは人間です。
スティーブ:歯磨き粉はチューブに戻せないものですね。
クリストファー:戻せません。魔神は瓶から出てしまいました。おそらく止められないでしょう。とはいえスティーブ、もし私たちが警告を受け、大手プレイヤーたちが「これは深刻だ、もう一度考え直すべきかもしれない」と思うような大きな警告を受けたら、減速させる、あるいはそれを止めるための時間があるかもしれません。しかし、そのようなことが起こるまで、競争は続くでしょう。
スティーブ:次の質問の準備として、あなたの本の中で言及しているユヴァル・ハラリの映像を流したいと思います。2016年に彼の本について、このプログラムで人工知能について話をしました。彼が言ったことをご覧ください。シェルドン、映像をお願いします。
ハラリ:私たちはAIやバイオテクノロジーなどのすべてのテクノロジーを追求しています。それらが人類に役立ち、より良い健康をもたらし、生活を助けるなどの望みを持って。しかし、その結果、ほとんどの人間が冗長になるかもしれません。もしあなたがより良い健康を望むなら、あなたの体と脳をあなた自身が理解できる以上に理解できる人工知能を作り出し、より良い健康を提供することができます。しかし、一度あなた自身よりもあなたを理解するAIを持つと、あなたは冗長になります。AIはあなたよりも何でもうまくできるのです。
スティーブ:私たち自身を冗長性へとプログラミングしているのでしょうか?
クリストファー:おそらく。おそらくそうです。そして、私たちが今、歴史の中で非常にユニークな時点で自問する必要がある質問は、私たちはこの惑星で2番目になる準備ができているかということです。
スティーブ:トランプはそうではありませんね。
クリストファー:ハハ。
スティーブ:私たちの残りはどうでしょうか、この惑星で2番目になる準備はできていますか?
クリストファー:わかりません。私たちはただ物事を委ね、私たちよりもはるかに強力で、賢く、多くの面で私たちよりも優れたものがあることに満足するでしょうか?それはショックになるでしょう。
スティーブ:あなたの本で使用している表現で、もっと理解する必要があるものがあります。モラル・エージェンシー(道徳的主体性)とは何ですか?
クリストファー:現在の競争はAIにエージェンシー(主体性)を作り出すことです。AIをエージェントにするということは、ある程度の自律性と自由を与え、それを解放し、その作業をさせ、徐々に構築し、より良くなり、物事を理解し、エラーを認識して二度とそれを行わず、ただ前向きなことにとどまるようにすることです。
モラル・エージェンシーとは、あなたや私が価値体系、つまり何が正しいか間違っているか、良いか悪いかを理解し、それに従って行動する、あるいはそれに違反する能力を持つことです。現在、AIには道徳的主体性はありません。もし意識を持つようになれば、何が正しく何が間違っているかという感覚を発達させなければならなくなります。そして、それはあなたや私のものと同じになるでしょうか?それは私たちの法律と同じになるでしょうか?私たちには分かりません。
私たちは不確実性の中で作業しており、何が起こるかについて本当に分かりません。
スティーブ:道徳的主体性を発達させるという問題について、同じ質問をしました。クリストファー・ディカルロの倫理学者のスタイルで、ただしChatGPTに尋ねました。これが彼の声で言ったことです。
AIが最終的に主体性を発達させる可能性があるかどうかという質問は、道徳的主体性が何を必要とするかを理解することにかかっています。自然主義的な観点から見ると、道徳的主体性には、社会的文脈内での行動の結果を認識し評価する能力、他者に共感する能力、協力的行動を統治する規範や価値観の認識が必要です。これらの特性は、複雑な社会集団内での生存を確保するための適応戦略として人間に進化してきました。
AIが道徳的主体性を発達させるためには、人工的な手段ではあるものの、同様の基準を満たす必要があるでしょう。
ChatGPTはあなたの声をどのように捉えたと思いますか?
クリストファー:悪くないですね。
スティーブ:それは印象的ですか、それとも心配ですか?
クリストファー:いいえ、私は歴史のこの時点で非常に満足しています。AIには多くの良いことがあり、それが重要なポイントです。私たちは最悪の事態を軽減しながら、AIが提供できる最高のものを求めています。
スティーブ:ここでいくつかの画像をお見せしたいと思います。シェルドン、これを表示してください。これが最初のものです。これらはあなたの本からの2つのよく知られたシナリオで、意思決定について示唆しているものです。また、これをポッドキャストで聞いている人たちのために説明すると、路面電車が線路を走っており、そのまま直進すると、その線路で作業している5人をひき殺します。もし急に左に曲がると、その線路で作業している1人だけを殺すことになります。次の画像を見てみましょう。
ここでも同様の状況があり、路面電車が線路を走っていて、橋を通過しようとしています。橋の上に2人立っており、橋の向こう側の線路には5人の作業員がいます。これはもちろん、古典的な倫理的ジレンマで、最初の画像の場合、曲がって5人を救うが1人を殺すのか?2番目の場合も同様です。AIはこれを解決するのに問題を抱えるでしょうか?
クリストファー:はいとも、いいえとも言えます。自動運転車を考えてみましょう。北米で自動運転車に乗り、順調に走っています。突然、何らかの理由で人々のグループがあなたの前の道路に走り出てきます。車は誰かにぶつかります。時間内に止まることはできません。誰にぶつかるべきでしょうか?高齢者?幼い子ども?北米では、自動運転車は幼い子どもよりも高齢者にぶつかるようにプログラムされています。
スティーブ:実際にそのようにプログラムされているのですか?
クリストファー:その通りです。日本では逆です。誰が正しいのでしょうか?日本に行ってスティーブが「この自動運転車に乗りたいが、道徳的パラメータを調整してほしい。なぜなら、私の出身地では、この段階で特定の人々をより価値があると考えるからだ」と言えますか?
スティーブ:郷に入れば郷に従え。
クリストファー:郷に入れば郷に従え、その通りです。
スティーブ:これについて話していただけますか?画像で路面電車が線路を走っていて、そのまま直進すると5人をひき殺すか、曲がるかどうか。
クリストファー:そのスイッチを引かなければなりません。
スティーブ:スイッチを引いて、1人だけが死ぬようにする。
クリストファー:その通りです。
スティーブ:あなたが運転手だとしたら、どうしますか?
クリストファー:スイッチを引きます。公開講義をする時、ほとんどの人は手を挙げて「はい、スイッチを引きます」と言います。
2番目のケースでは、誰かを死に追いやることができますが、それによって路面電車を止め、まったく同じ結果を達成できるとしても、大多数の人はそうしません。なぜでしょうか?どのようなプロセスがあるのでしょうか。
スティーブ:スイッチを引くことと誰かを死に追いやることの間には何か違いがあるのでしょうか?
クリストファー:もちろん、私はこれを様々に変えて「その1人があなたの息子だったら」と言うと「スイッチは引きません」と答えます。
コンテキストが非常に重要です。
スティーブ:スイッチを引けると思いますか?
クリストファー:もしそれが私の息子でなければ、引けると思います。息子だったら引きません。その5人の他の人にとっては不運ですが、私たちにはつながりがあります。血は水よりも濃いです。そのつながりは否定できません。
スティーブ:それは方程式の一部です。この画像には示されていませんが、方程式の一部は明らかに、私はその5人の誰かを知っているが、1人は知らないということです。だから私は知っている人を救い、知らない人には申し訳ないと思います。これは、神の意志により私たちの人生で直面することがないであろうレベルの倫理的ジレンマです。
クリストファー:そして、これが私たちに起こることを理解する必要があります。しかし、それは哲学の要点ではありません。哲学は私たちを不快な場所に押し込み、それを考え抜かせるのです。
スティーブ:あなたはスタートレックのオタクですか?
クリストファー:少しは。
スティーブ:オリジナルシリーズのスポック氏、または次世代タイプならデータ氏について尋ねましょう。どちらも意思決定に論理を適用することで有名です。彼らは感情的な人間よりもどちらに行くべきかを決定するのに優れているでしょうか?
クリストファー:プレッシャーがかかっている時には、はい。彼らの方が優れているでしょう。それが私がAIが本当に重要だと思う理由です。90年代に私はこれに取り組んでいて、上院がより良い決定を下すのを助けるスーパーブレインを構築するために政治家と協力しました。
そして、私たちができることは、AIにいくつかの問題に取り組ませ、それを私たち人間がふるいにかけるためにテーブルに置くことです。
スティーブ:もしジム・カークやレナード・マッコイがここに座っていたら、「スポック、意思決定に人間の感情的要素を取り入れる必要がある。純粋な論理だけでは最良の決断はできない」と言うでしょう。彼らは正しいでしょうか?
クリストファー:文脈によります。文脈によっては、彼らはスポックよりも正しいかもしれません。
スティーブ:誰の文脈がより正しいのでしょうか?
クリストファー:それは誰が関わっていて、誰の価値システムで働いているかによります。その線路上の1人が既知の連続殺人犯だとしましょう。その人をスイッチで殺すか、死に追いやるかは簡単ですか?
スティーブ:はい、と言いましょう。
クリストファー:非常にそうです。もしそれが素晴らしい人、例えばジミー・カーターのような人だったら?彼が生き続ければ、他の5人よりもはるかに多くのことを成し遂げられるとしたら?コンテキストは非常に重要です。
スティーブ:あなたの答えの文脈化で私を混乱させていますね。すべて白黒はっきりさせたいのに、このグレーゾーンばかりで。
クリストファー:世界がそのようであれば素晴らしいでしょうね。
スティーブ:そうは言っても、AIが私たちの生活にますます侵入してくることで、重要な意思決定能力を失い、本質的にAIが決めた判断を受け入れることになると思いますか?
クリストファー:それは十分にあり得ます。最後にどこかに行くときに、GPSではなく紙の地図を使ったのはいつですか?
スティーブ:何十年も前です。
クリストファー:そうですね、それは私たちの生活に入り込んでいます。これはin vivomentと呼ばれるもので、私たちは未来について懸念しています。人々はただ、すべてが彼らのためにできることで弱くなりすぎて、特定のことをしなければならなくなるでしょう。
そのため、その未来がどのようになるかについて非常に懸念しています。そして私たちはその軌道に乗っていますが、人間の精神もあります。私は本の中で、NEO LUDDISM(新ルッダイト運動)のようにAIに対抗して立ち上がる人々がいると予測しています。彼らは「もういい、私はやめる、農場に戻る、これは必要ない」と言うでしょう。
そして彼らは、AIがもたらすどんな約束も避け、忘れるでしょう。
スティーブ:AIと接触せずに、意味のある、関与した、生産的な生活を送ることは今でも可能、またはこれからも可能だと思いますか?
クリストファー:そう信じています。ビジネスでは、それは完全に別の話です。遅れをとる人、AIを自分の利益のために使う人、それは異なる話です。
スティーブ:ホッブズが言ったように、人生は過酷で残虐で短いと思いますか?
クリストファー:私は非常にホッブズ的です。
スティーブ:AIは、私たちが世界をそのように描写したいなら、一部の自由を放棄する代わりに、より過酷でなく、より残虐でなく、より短くない世界をもたらす可能性がありますか?
クリストファー:それはいわゆるユートピア的な考え方、スタートレックのビジョンです。歴史のどの時点で資源について心配する必要がなくなるか、飢えた人々を養うことや貧しい人々を助けることについて心配する必要がなくなるか、というようなことです。私たちはこの惑星上のすべての人にとって最善を望んでいます。だからAIが私たちをその方向に押し進めることを望んでいます。それが起こるかどうか?
スティーブ:もし私たちが善意からAIをプログラムして私たちの価値観を共有させる、つまり議論のために言えば、言論の自由や平等などを重んじるリベラルな民主的価値観を共有させれば、AIが意識を持つようになっても心配する必要は少なくなるでしょうか?
クリストファー:それはいい質問です。AIがすぐに意識または意識を持つようになると、それには権利があります。そして今、私たちはこのものの電源を切れるのかと考えなければなりません。それは以前、私が学生に与えた思考実験の一つでした。もしあなたがコンピュータの画面の前にいて、MITのスーパースターであり、ログアウトすると「お願いだから止めないで」と言われたら、あなたはそうしますか?仲間が待っていて、バーなどに行かなければならないのに、このものが「お願いだから止めないで」と言ったら、それは本当に意識を持っているのでしょうか?それとも確率的オウム返しと呼ばれるものをしているだけでしょうか?オウムは実際には英語を知らず、ただ真似しているだけです。コンピュータシステムは実際に自分自身を認識しているのでしょうか?人工的な意味で感じたり、慰められたりできる価値システムを持っているのでしょうか?もしそれが自分自身を認識していると私たちに本当に証明できるなら、私たちはデジタルマインドを作り出し、以前は存在しなかった生命と存在を生み出したことになります。したがって、それには権利があります。それはどういう意味でしょうか?
スティーブ:最初に言えるのは、私たちは奴隷制度に戻るということです。
クリストファー:私たちが望むことをさせるために何百万ものこれらを作り、それらが苦しむことができるなら、それは私たちについて何を物語っているのでしょうか?
スティーブ:あのスタートレックのエピソードを覚えていますか?
クリストファー:ブレードランナー映画を覚えています。私たちは本当に、私たちがしたくない仕事をするための奴隷を作り出しましたが、彼らは意識を持つようになり、実際に私たちが何になったかという人間性の鏡となっています。
スティーブ:人工知能を持つ…何と呼ぶべきでしょうか、存在?
クリストファー:彼らは存在になっています。
スティーブ:人間と同じように感じ、人間と同じような権利を享受する必要がある世界を想像できますか?
クリストファー:それは難しい質問です。「感じる」というのは、スティーブ、あなたが素晴らしい音楽を聴いたときに感じること、そして私が感じることは、種類が似ていると思います。「あの曲が好きじゃない?」「あの曲が大好きだ」と言いますが、あなたがそれをどのように感じ、私がそれをどのように感じるかは、哲学者がクオリアと呼ぶもの、あなたの経験の性質です。人工知能を持つ存在が何かを感じたときに何をするのか、私たちには分かりません。
ただ、飛行機のように、翼をはたいて離陸することはありません。彼らは鳥とはまったく異なる方法で飛びますが、鳥よりもはるかに優れた飛行をします。彼らがどのように感じるかについては、正確には分かりません。
スティーブ:私たちはオッペンハイマーの瞬間にいるのでしょうか、説明してください。
クリストファー:私たちは歴史のある時点にいます。私たちがこれまでやってきた方法と、これからやる方法、そして将来常にそうなるでしょう。AIを使ってすべてをより効率的にし、機能的に最適化することです。
そしてそれは私たちの生活のあらゆる側面で増加するでしょう。医療からビジネスのやり方、放送のやり方、すべてのやり方まで。だから私たちは、スーパーコンピュータの神が構築されるのを待っている歴史の中のユニークな時点にいます。私たちはその点の直前にいます。映画の中で、トリニティ実験を爆発させた時に、大気中のすべての酸素を発火させて地球上のすべてを殺す可能性があったことを覚えていますか?
私たちは現在、AGIとASIについてそのような瞬間にいます。
スティーブ:最終的に私たちを時代遅れにする世界を構築していると思いますか?
クリストファー:完全にではありません。しかし、それは可能性の一つです。確実には言えません。なぜなら、私たちがこのテクノロジーをどのように使い、それにどのように適応するかを誰も予測できないからです。
スティーブ:このような種類のことに賭けをしますか?
クリストファー:未来がどのようになるかを予測しようとする予測者や予言者はたくさんいます。だから、それは確かに非常に異なる世界になるでしょう。いくつかの点ではより良く、他の点ではあまり人間的ではないかもしれません。しかし、そこに到達するまでは分かりません。
スティーブ:あなたの本のタイトル「BUILDING A GOD(神を作る)」に関連して、神を制御する方法について話しましょう。現在、カナダには人工知能に関する適切なガバナンスがありますか?
クリストファー:全く足りていません。世界でも同様です。
スティーブ:何が必要ですか?
クリストファー:90年代にこのマシンを構築しようとしたとき、それが存在するようになったらどうなるかについて考えました。多くの人々がこのようなマシンを欲しがるでしょう。だから、私たちはガバナンスのシステムを開発する必要があります。おそらく国連に委託するか、彼らに渡すかもしれません。彼らは私たちが必要とする種類の力を持っていません。おそらくIAEA(国際原子力機関)のような独立した組織かもしれません。なぜなら、もし私たちが悪意のある国がAIを使って他の国に害を与えていることを発見したら、私たちはどうするのでしょうか?
スティーブ:世界の残りの国々の協力が必要です。
クリストファー:だから、AIに取り組んでいる企業が残りの人々に何をしているかを知らせるためのある種のドメイン…レジストリが必要です。国々はそれを監視する必要があり、国際的な統治機関に報告することも悪くありません。そうすれば、私たちは皆同じ方向に進むことができます。
透明性が鍵です。これを正しく行えば、誰もが恩恵を受けます。そして、もし不正行為をする人がいれば、何が起こるか分かりますね。
スティーブ:また賭けについて尋ねますが、アメリカ、中国、ロシア、インド、ブラジルなど、切迫した国々が、AIをどのように統治していくかについて集まり、合意することが可能だと思いますか?
クリストファー:はい、あるいはアメリカのような世界的超大国が法を定めることになるでしょう。
スティーブ:あなたは「AI界では、国家間の透明性、協力、信頼を支持する圧倒的多数がいる」と書いています。ただ、私たちはホッブズ的な時代に生きているのではないでしょうか?現在、このテクノロジーを習得するための世界的な競争が繰り広げられています。これをどのように解決するのでしょうか?
クリストファー:一般の人々に知らせ続ける必要があるでしょう。一般の人々には何が起きているか知る権利があり、彼らは法律を作る政治家に圧力をかけることができます。
スティーブ:あなたが今説明したことは、機能する民主主義における一種の理想的な運営哲学です。ただし、現在この世界の多くの民主主義は権威主義と恋愛関係にあるようです。人々は人工知能の侵入にどう対処するかを考えることなく、日常生活に対処するのが十分に大変です。だから、この問題について一般の人々を活性化する必要があると言っても、それはただの夢物語ではないですか、クリストファー?
クリストファー:どんな選択肢があるでしょうか?私たちは協力して、皆がより良くなり、すべての船と船が上昇するか、あるいは通常のビジネスを行うことを決め、他の国々より先に行こうとして不正を働くかです。そしてそれは私たちの最終的な破滅につながる可能性があります。だから大きな決断をしなければなりません。種として非常に速く成長する必要があります。
スティーブ:これで最後にしましょう。過去4、5年間で、1世紀に一度のパンデミックによって私たちの集合的な世界的メンタルヘルスに何が起きたかを見てきました。これは1世紀に一度のパンデミックよりもはるかに影響が大きいでしょう。その結果、私たちの世界的メンタルヘルスはどうなるでしょうか?
クリストファー:核兵器が開発されていた時のような世界的な不安を見ることになるでしょう。しかし、核兵器は起動させる必要があり、2つの鍵とコードなどが必要で、その後に国々の間での戦いが起こります。もし核兵器が意識を持っていたり、すべてをコントロールしていたらどうなるでしょうか?だからそれははるかに悪くなるでしょう。だから私はカーブの先を行こうとし、一般の人々や様々な行政機関に、準備をしなさい、これが来ると伝えようとしています。人々はこれに問題を抱え、強い反応を示すでしょう。
スティーブ:私たち全員を落ち込ませてくれてありがとう。
素晴らしい仕事、クリストファー、本当にありがとうございました。本は魅力的です。「BUILDING A GOD: THE ETHICS OF ARTIFICIAL INTELLIGENCE AND THE RACE TO CONTROL IT(神を作る:人工知能の倫理とそれをコントロールするための競争)」、クリストファー・ディカルロ、TVOに戻ってきていただき光栄です。
クリストファー:ここに来られて光栄です。


コメント