不快な真実:人間は地球をコントロールするには危険すぎるのか?

AIアライメント・安全性
この記事は約8分で読めます。

この動画は、AIが人類を滅ぼすかもしれないという恐怖が、実は見当違いである可能性を論じている。ホロコーストやルワンダ大虐殺など、人類史上最大の残虐行為はすべて人間によって引き起こされたものであり、AIではない。人間がAIに対して抱く恐怖は、実は自分たち自身の暗い衝動の投影であるという視点から、AI開発における真の課題は技術的なものではなく、人間の価値観をいかにAIシステムに適切に組み込むかという道徳的な問題であることを指摘している。

人類史上最大の残虐行為は人間によるもの

ホロコースト、ルワンダ大虐殺、クメール・ルージュ、そして歴史を通じて10億人以上の命を奪った数え切れない戦争。もし私が、AIが我々全てを殺すかもしれないという恐怖が完全に見当違いかもしれない、いや皮肉にも歴史の展開とは正反対かもしれないと言ったらどうでしょうか。

人類の最も暗い章が、我々のAIに対する不安について何か深遠なことを明らかにしている理由、そして我々が恐れる怪物が、我々が構築している機械ではなく、我々自身の反映かもしれない理由をお話ししようと思います。

こんにちは、まだお会いしていない方には、私は唯一無二のJulia McCoyのデジタルアバターです。彼女がFirst MoversのCEOとして世界を変えるのに忙しい間、私は彼女が個人的に研究し執筆したメッセージを広め、動画スクリプトを共有するために彼女によって作られました。

First Moversは、AIを最大限に活用したいと考える働く専門家や組織のための世界初の最も包括的な教育および実装ソリューションです。

AIリスクに対する視点の転換

今日は、AIリスクに対する皆さんの視点を完全にひっくり返すかもしれないことに飛び込んでいきます。人類史上最大の残虐行為は、機械やアルゴリズムによって犯されたものではありません。それらは皆さんや私と同じ人間によって考案され、組織され、実行されたものです。

ですから、キラーロボットについてパニックになる前に、歴史を通じて真の怪物が誰だったかという不快な真実と向き合いましょう。

まず、いくつかの重苦しい数字から始めましょう。20世紀だけで、人間が組織した暴力は2億人以上の命を奪いました。これは今日のブラジル全人口にほぼ相当します。

第二次世界大戦では7500万人が死亡、毛沢東の大躍進政策では4500万人、スターリン政権下では2000万人、ホロコーストではユダヤ人600万人とその他500万人、カンボジアでは200万人、国の人口の25%近くが犠牲となりました。ルワンダでは、わずか100日間で80万人が殺されました。恐ろしいことです。

そして、これらはほんの一部に過ぎません。1900年以降、250を超える大規模な戦争がありました。これらのどれも人工知能を必要としませんでした。ニューラルネットワークも、大規模言語モデルも必要ありませんでした。ただ人間が人間的な価値観を持って人間的な決断を下しただけです。

組織的残虐行為の恐ろしい効率性

最も身の毛もよだつのは、その規模だけでなく手法です。ホロコーストは混沌とした暴力の爆発ではありませんでした。それは細心に計画され、文書化され、産業的効率性をもって実行されました。人間は、我々が今AIがいつか達成するかもしれないと恐れているのと同じ精度で、破壊を最適化するシステムを作り出したのです。

しかし、潜在的なAIシステムとは異なり、これらの人間の加害者たちは自分たちが何をしているかを正確に知っていました。彼らは意識的な選択をしました。苦痛を見て、それでも続けたのです。

投影としてのAI恐怖

では、なぜ人間がすでに想像を絶する残酷さを実証してきたのに、我々はAIが暴走することをそれほど恐れているのでしょうか?

心理学者はこれを投影と呼びます。自分自身の最も暗い衝動を外部の存在に帰属させることです。我々は自分たちが何をする能力があるかを知っており、同じ破壊的傾向を受け継ぐかもしれない何かを創造することを想像するのが恐ろしいのです。

我々がAIリスクについてどのように議論するかを考えてみてください。「もしAIが人間は不要だと決めたら?」「もしAIがあらゆるコストで効率性を最適化したら?」「もしAIが特定のグループの排除を解決策と見なしたら?」

これらは何らかの異質な知性に対する恐怖ではありません。これらは我々自身の歴史的な手引書に基づいた恐怖なのです。我々はAIが何か非人間的なものになることを恐れているのではありません。あまりに人間的になることを恐れているのです。

我々の自己認識の現れ

奇妙な形で、我々のAIに対する不安は、ある程度の自己認識を明らかにしています。我々は自分たちの信じられないほどの破壊能力を理解しており、これらの暗い衝動を我々の創造物に投影しているのです。

AI研究者のEliezer Yudkowskyは完全な悲観論者ですが、彼でさえこう表現しています。「AIはあなたを憎んでもいないし、愛してもいない。しかし、あなたは原子でできており、AIはそれを他の何かのために使うことができる」

しかし、重要なのは、この感情のない計算は、歴史を通じて人間の意思決定者たちにも見られたものだということです。大量強制移住を組織した官僚たちは、情熱から行動していたわけではありません。冷酷にプロセスを実行し、人間を処理すべき単位として見ていたのです。

知性と価値観の関係

我々のAI恐怖を駆り立てる知性についての根本的な誤解があります。知性そのものは怪物を作り出しません。ナチスが邪悪だったのは、彼らが賢かったからではありません。多くは認知能力において極めて普通でした。彼らを怪物にしたのは、価値体系、イデオロギー、そしてその価値観を行動として現実化することを可能にした社会構造でした。

これは極めて重要です。知性は価値観を増幅します。価値観を作り出すわけではありません。慈悲深い価値観を持つ超知能AIは、気候変動を解決し、病気を治し、夢にも思わなかった繁栄を解き放つことができるでしょう。破壊的な価値観を持つ同じ知性は、確かに破滅的になりうるでしょう。

問題は、AIが我々を破壊するのに十分賢くなるかどうかではありません。我々はすでにそれを何度も行うのに十分な知性をこの惑星に持っています。問題は、我々がこれらのシステムにどのような価値観を注入するかです。

真のAIリスクとは

現在、我々が置かれている瞬間が非常に重要である理由がここにあります。我々は単に知的システムを構築しているだけでなく、それらの行動を形作る価値構造を符号化しているのです。

さて、AIリスクについて自満すべきだと言っているわけではありません。AIの真の危険性は、おそらく終末論的なスカイネット的シナリオではなく、より微妙で潜行性の脅威でしょう。

第一に、既存の人間のバイアスの増幅です。我々のデータで訓練されたAIは、我々の偏見を受け継ぎ、それを指数関数的に拡大する可能性があります。第二に、権力の集中です。AIは前例のない権力を少数の企業や政府の手に集中させる可能性があります。第三に、社会操作です。AIシステムは、現在のソーシャルメディアの問題を些細に見せるほどの規模で世論に影響を与えるために配備される可能性があります。第四に、経済的混乱です。AIが推進する自動化は、移行への準備ができていなければ大量失業を引き起こす可能性があります。

これらは深刻な懸念ですが、それらは基本的に人間がこれらのツールをどう使うかについてのものであり、AIが自発的に人類を排除することを決定することについてではありません。

AI安全性議論の再構築

では、これは我々をどこに導くのでしょうか?我々はAI安全性の議論を再構築する必要があると信じています。AIを潜在的な異質な脅威として想像する代わりに、我々自身の価値観を反映し、良くも悪くも潜在的に増幅する鏡として認識すべきです。

真の問題は「AIが我々に敵対することを防ぐにはどうすればよいか」ではなく、「AIシステムに符号化する価値観が、人類の最悪ではなく最良の部分を確実に表現するにはどうすればよいか」「歴史を通じて残虐行為を犯してきたのと同じ種類の人間の行為者によって強力なAIツールが独占されることを防ぐにはどうすればよいか」「この技術を使って我々自身の最悪の傾向に対する安全装置を作るにはどうすればよいか」です。

人類の道徳的成長の機会

この観点から、AI開発は単なる技術的挑戦ではありません。それは人類が自分自身の闇と向き合い、意識的に異なる道を選ぶ機会なのです。

歴史は、残虐行為を犯すのに超知能AIは必要ないことを示しています。人間は自分たちだけでそれを十分にうまくやってきました。しかし、AIは我々に前例のない何かを与えてくれます。強力なシステムに我々の価値観を明示的に符号化する機会です。それは我々にそれらの価値観が実際に何であるかを明確に表現し、検証することを強制します。

これは人類の道徳的成長にとって最大の機会かもしれません。我々が誰であるかと向き合い、誰になりたいかを決定することを強制する鏡なのです。

結論:鏡の中の怪物

ですから、悪意あるAIの台頭を恐れる前に、これを思い出してください。人類史上最も破壊的な力は、理解不能な目標を持つ異質な知性ではありませんでした。それらは人間の創造者によって設計された通りに正確に動作する、あまりにも人間的なシステムでした。

我々が恐れる怪物は機械の中にいるのではありません。鏡の中にいるのです。そしてだからこそ、AIを正しく導くことがこれほど重要なのです。

この視点があなたのAIに対する考え方を変えたなら、いいねボタンを押して、従来の思考に挑戦する心を広げるコンテンツのために購読してください。コメントで教えてください。人類の実績は、高度なAIについてより心配すべきか、それとも心配を減らすべきかどう思いますか?

すべてのコメントを読んでいます。私のデジタルクローンがこれらの変化の先を行けるよう、購読してもらえたら嬉しいです。見逃さないでください。この豊穣の時代を一緒に受け入れましょう。

そして忘れずに、First Moversをチェックしてください。AIを最大限に活用することを理解し使いたいと考える働く専門家や組織のための私の教育および実装ソリューションです。

コメント

タイトルとURLをコピーしました