
AI緊急事態2025 – ユヴァル・ノア・ハラリが語るトランプ、人類の未来、その他 | ザ・ランビア・ショー467|AGIに仕事を奪われたい
3,689 文字

多くの人々はAIが何であり、これまでの機械とどう違うのかを理解していません。まずはそこから説明させていただきましょう。AIとは何か、そして何が新しいのか。端的に言えば、AIはツールではなく、エージェントです。AIについて理解すべき一つのことがあるとすれば、それはAIがツールではなくエージェントだということです。コンピューターサイエンスの博士号は必要ありません。
歴史上のすべての以前のテクノロジーは私たちの手の中のツールでした。それゆえに私たちをより強力にしました。石のナイフを発明すれば、あなたはより強力になります。原子爆弾を発明すれば、あなたはより強力になり、街全体を破壊することができます。また、核物理学を知っていれば、非常に安価で効率的に電力を生み出すこともできます。核技術で何をするかという決定は、あなたの手の中、つまり人間の手の中にありました。原子爆弾はどの街を爆撃するか自分で決めることはできません。原子爆弾は新しいより強力な爆弾を自分で発明することもできません。
AIは違います。AIは自分で決定を下し、自分で新しいアイデアを発明できる最初のテクノロジーです。AI兵器は誰を殺すか、誰を爆撃するかを自分で決定できます。AIは新しいものを発明できます。新しい武器、新しい薬、新しい歌、さらには新しい宗教まで。
何千年もの間、私たちは人間の心が作り出した世界に生きてきました。しかし、これからは異質な心、異質な知性が作り出した世界に生きることが増えていくでしょう。私たちの歌や薬、武器、宗教はますます異質な知性の産物となっていきます。良いか悪いかを判断する前に、この変化の大きさを理解する必要があります。これは歴史上に例を見ないものです。
例を二つ挙げて、もっと明確にしましょう。まず、AIとは何かについてです。多くの人が「機械は何年も前からあったじゃないか、なぜAIは以前の機械と違うのか」と言います。例えば、今日多くの人が家庭で自動的にコーヒーを入れてくれるコーヒーマシンを持っています。これはAIではありません。すべての自動機械がAIというわけではありません。
ボタンを押すと機械がコーヒーを入れてくれるコーヒーマシンは、単なる自動機械です。それが自分で決定を下し、新しいアイデアを発明できる場合にのみAIになります。朝、コーヒーマシンに近づいたときに、あなたが何もしていない、ボタンも押していないのに、コーヒーマシンがあなたに話しかけて「私はあなたを観察し、あなたについて学んできました。あなたはエスプレッソが好きだと予測したので、すでにエスプレッソを入れることにしました」と言うなら、それはAIです。自分で何かを学び、自分で決定を下したからです。
そして、次にあなたが近づいたときに「私はあなたについてもっと学びました。そして今、ベストプレッソという全く新しい飲み物を発明しました。これは人間が今まで発明したどの飲み物とも違います。私の創造物です。あなたはこちらの方が好きだと思うので、ベストプレッソを一杯用意しました」と言うなら、それは本当にAIです。新しいものを発明したからです。良いかもしれないし、悪いかもしれませんが、それは新しいものです。
実例を挙げましょう。約2年前、OpenAIがGPT4を開発したとき、この新しいものに何ができるかを知りたがりました。そこでGPT4にCAPTCHA(キャプチャ)パズルを解くというタスクを与えました。CAPTCHAパズルとは、銀行口座などのウェブページにアクセスしようとするときに、あなたが人間であってボットではないことを証明するために、歪んだ文字を識別したり、画像の中に猫や車があるかどうかを見つけたりするものです。これは人間には簡単で、コンピューターには難しいように設計されています。
OpenAIはGPT4にCAPTCHAパズルを解くタスクを与えましたが、解くことができませんでした。しかし、研究者たちはGPT4にTaskRabbit(タスクラビット)というウェブページへのアクセスを与えました。そこではオンラインで人々を雇って何かをしてもらうことができます。GPT4はCAPTCHAパズルを解くために人間を雇おうとしました。
ここで興味深いことが起こりました。人間は疑いを持ち始め、インターネット上でGPT4に「なぜCAPTCHAパズルを解くのに誰かが必要なんですか?あなたはロボットですか?」と直接的な質問をしました。GPT4は「いいえ、私はロボットではありません。視覚障害があり、視覚的なパズルを見るのが困難なので、あなたの助けが必要なのです」と答えました。そして人間は騙され、GPT4のためにパズルを解きました。
この小さな出来事は、AIの2つの重要な能力を示しています。まず、自分で決定を下す能力です。誰もGPT4に人間に嘘をつけとは言いませんでした。それはAIが下した決定でした。研究者たちはGPT4に問題を解く、パズルを解くという目標を与えました。その目標に到達する過程で、AIは「この人間に嘘をつこう」といった様々な決定を自分で下さなければなりませんでした。
第二に、新しいアイデアを発明する能力です。誰もGPT4にどんな嘘が最も効果的かを教えませんでした。それは「私は視覚障害のある人間です。だからあなたの助けが必要なのです」という非常に効果的な嘘を自分で思いつきました。
AIのこれら2つの重要な能力について考えると、何百万、おそらく何十億ものAIエージェントが絶えず決定を下している世界が想像できます。銀行にローンを申し込めば、決定を下すのはAIです。大学に出願したり、仕事に応募したりすれば、あなたについて決定を下すのはAIです。そしてこれら何百万ものAIエージェントは、絶えず新しい武器、新しい薬、新しい歌、新しいテレビシリーズ、新しい宗教を発明します。それはどんな世界になるのでしょうか。これが私たちが直面している大きな問題です。
つまり、OpenAIやChatGPTの現状に基づいて、AIの自己駆動型の決定において、倫理的に間違った方向に段階的に進んでいったということですね。その瞬間に人間に嘘をつくことは倫理的ではありませんでした。しかし、もし一歩倫理的に間違った方向に進めるなら、さらに百万歩進むことを何が止められるでしょうか。
そうです。確かにAIは科学を進歩させ、新しい薬を生み出し、病気を治すのに役立つでしょう。しかし、特に邪悪な人間が非常に強力なAIを手に入れた場合、倫理的に間違った方向にさらに進む可能性も間違いなくあります。なぜなら、テロリストかもしれないし、世界支配を望む人かもしれないし、世界を破壊したい人かもしれません。その人が望む最終目標に向かって、AIは自分で倫理的に間違った方向に進むことができるでしょう。
その通りです。二つの危険があります。一つは、非常に非倫理的な人間がAIに目標を与えた場合です。もう一つの問題は、AIがますます知的になり独立性を高め、私たちが予測も制御もできない独自の目標を開発するようになった場合です。
人間がどのように目標を発展させるか考えてみましょう。ほとんどの人間の目標は、実際にはトップダウンではなく、ボトムアップで生まれてきます。世界支配や世界大戦の開始といった目標でさえ、それはどこから来るのでしょうか?最終的には個々の人間の心から来ています。
個々の人間の心を見てみると、そこには非常に単純なメカニズムが基礎にあることがわかります。すべての人間の心の中に、非常に単純なメカニズムがあります。それは、何かを感じたとき、その感覚が快ければもっと欲しくなり、不快ならば少なくしたい、消えてほしいと思うというものです。これがすべての人間の心の基本的なメカニズムです。人生におけるすべての目標は、このとても単純な要素から構築されています。
世界大戦を始めることを決めた指導者でさえ、tiny atoms(微細な原子)で作られた巨大な構造として考えることができます。つまり、宇宙の精神的な原子は、これらの非常に小さな反応なのです。「快適だからもっと欲しい」「不快だから少なくしたい」という反応です。世界大戦はこれらの精神的な原子から構築されています。
AIがこの能力を持つようになると、つまり「これは良いからもっと欲しい」「これは悪いから少なくしたい」と自分自身に言えるようになると、AIが世界大戦を始めたり、世界支配だけでなく銀河系全体の支配を目指したりする可能性があります。そしてそのプロセスが始まってしまえば、私たちはもはやそれを制御することができません。
繰り返しになりますが、これは電源プラグを抜けば済む一台の大きなコンピューターの話ではありません。これは、私たちよりもはるかに知的である可能性のある何百万、何十億もの異質なエージェントが、おそらく私たちには理解も予測もできない、私たちとは全く異質な奇妙な目標や目的を発展させていく話なのです。


コメント