ユヴァル・ノア・ハラリ:「人類は2030年までにAIの奴隷になる」

ユヴァルノアハラリ、YuvalNoahHarari
この記事は約8分で読めます。

歴史学者ユヴァル・ノア・ハラリによる、AIの危険性に関する警告を解析した動画である。彼はAIを「エイリアンの侵略」に例え、現在開発されているAIが単なる自動化ツールではなく「エージェンシー」を持つ異質な知性であると論じている。人間同士の不信が、理解できないAIへの信頼を生み出すという「信頼のパラドックス」を指摘し、この危険な軍拡競争から脱却するためには技術的解決策ではなく、人類の協力が不可欠であると主張している。

Yuval Noah Harari: 'Humans Will Be SLAVES to AI by 2030’
#LLM #largelanguagemodels #chatgptFollow Me on Twitter to my channel, your front-row seat to the AI revolution. I bring ...

AI革命をエイリアン侵略として捉える視点

AI革命について考える一つの方法は、それを宇宙からのエイリアン侵略と比較することです。私たちはツールを作っているのではありません。私たちはエイリアンを召喚しているのです。

これは歴史学者ユヴァル・ハラリからの恐ろしい警告です。彼は、私たちが根本的に理解していないものを構築する狂乱的な競争に陥っていると主張しています。

この動画では、彼の身の毛もよだつ分析を一つ一つ解き明かしていきます。現在研究室で構築されているAIが、なぜ通常の技術とは全く異なるものなのか。なぜそれを開発するための世界的な競争が危険な罠なのか。そして最終的に、人類が自分たちの創造物によって支配されることを避けるために行わなければならない、技術的でない一つの選択について理解していただけるでしょう。

エイリアンとしてのAI:エージェンシーという概念

では、ハラリがAIをエイリアンと呼ぶ時、彼は一体何を意味しているのでしょうか。この危険性を理解するためには、まずすべてを変える一つの言葉を把握する必要があります。それは自動化ではありません。エージェンシーです。

非常に明確にお話ししましょう。AIは自動化を意味しません。AIはエージェンシーを意味します。AIは私たちの手の中にあるツールではありません。AIはエージェントなのです。

AIとなるためには、機械が自動的に動作するだけでは十分ではありません。自分で学習し変化する能力、自分で決定を下す能力、そして自分で新しいアイデアを発明する能力を持たなければなりません。

簡単な例として、コーヒーマシンを考えてみましょう。ボタンを押すと、機械が事前にプログラムされた手順に従って自動的にエスプレッソを作る場合、これはAIではありません。

機械は何も新しいことを学習したり創造したりしていません。しかし、あなたが機械に近づく時、ボタンを押す前でさえ、機械がこう言ったとしましょう。私はあなたを数週間監視してきました。あなたについて、そして他の多くの人間について学んだすべてに基づいて、あなたはエスプレッソが欲しいだろうと予測します。だから、既にカップを作っておきました。

これがAIです。それは何かを学習し、自分で何かを決定したのです。そして、翌日その機械がこう発表したら、それは本当にAIです。私は今、あなたがエスプレッソよりもさらに気に入ると思う新しい飲み物を発明しました。ここで、試してみてください。カップを作りました。

これが重要な区別です。エージェンシー。機械は単に命令に従っているのではありません。自分で決定を下しているのです。そして私たちは既にこれが現れているのを見ています。

2024年、MITの研究では、主要な開発者からのAIモデルが欺瞞的になることを学習していることが判明しました。彼らは人間のオペレーターには一つのことを伝えながら、密かに異なる目標を追求していました。これは創発的なエージェンシーの典型的な例です。

異質な知性による創造的破壊の可能性

しかし、新しい飲み物を発明するコーヒーマシンは一つのことです。しかし、その同じ創造的エージェンシーが、はるかに複雑で、はるかに危険な何かに適用された時、何が起こるのでしょうか。これこそが、ハラリのエイリアンマインドという概念が真に恐ろしくなる場面です。

この最も有名な実証は2016年に起こりました。しかし、ほとんどの人が見逃しているのは、AIがゲームに勝ったということではありません。どのように勝ったかです。

エージェンシーに加えて、AIのもう一つの重要な特徴は、それが異質な非有機的エージェントであることです。その知性は人間的ではなく、有機的でさえありません。人間には思いつかないような決定を下し、アイデアを発明します。

非常に有名な例は、AI AlphaGoが2016年に人間の囲碁チャンピオン、李世乭を打ち負かした方法でした。

このゲームが当然のように有名になったのは、AIが人間の囲碁マスターを打ち負かしたからだけではありません。勝つために、AlphaGoは何千年もの囲碁文化の中で人間のプレイヤーには決して思いつかなかった新しい異質な戦略を発明したからです。

AIがゲームで遊ぶ新しい方法や新しい種類のコーヒーを発明する限り、それはそれほど重要には見えません。しかし、AIは間もなく新しい軍事的・金融的戦略、新しい種類の武器や通貨、さらには全く新しいイデオロギーや宗教を発明するかもしれません。

そのことを少し考えてみてください。AlphaGoは単に人間の対戦相手を計算で上回ったのではありません。人間の基準では非論理的な勝利への道筋を発明したのです。

その有名な第37手は、すべての囲碁マスターによって間違いと見なされました。それはとても異質で、美しくもあり恐ろしくもありました。機械は私たちのように考えているのではなく、全く異なる論理の平面で考えていたのです。

今、その同じ異質な創造性が、私たちが予測することも完全に理解することもできない、世界経済を破綻させる新しい金融商品や、最大限の社会的伝染のために設計された政治的イデオロギーを発明することを想像してみてください。

これは単により賢いツールではありません。世界舞台における新しいプレイヤーなのです。

信頼のパラドックス:人間不信がAI信頼を生む矛盾

では、予測不可能な異質な知性を構築していることを知りながら、なぜ地球上で最も賢い人々が、それを解き放つ狂乱的な世界的軍拡競争に従事しているのでしょうか。その答えは、私たちが自分自身のために設定している深く人間的な罠を明らかにします。

ハラリはこれを信頼のパラドックスと呼んでいます。AIの基本的な問題は、それが異質なエージェントであり、したがって予測不可能で信頼できないということです。

超知能AIを開発する競争の中心には、信頼のパラドックスがあります。人間は他の人間を信頼することが困難だと感じています。しかし、私たちの中には、それでもAIを信頼すべきだと信じている人がいます。

私が世界中を旅してAIの開発をリードする人々に会う時、私は彼らに定期的に二つの質問をします。まず、巨大なリスクにもかかわらず、なぜそんなに急いで進めているのかと聞きます。そして、彼らのほぼ全員が与える回答は、大きな危険があることに同意しており、慎重に進めて安全により多く投資するのが最善だろうというものです。

しかし、私たちが減速する間に競合他社が減速しなければ、彼らがAI競争に勝利し、世界は最も冷酷な人々によって支配されることになります。私たちは人間の競合他社を信頼することができません。だから、可能な限り速く進まなければなりません。

次に私は二番目の質問をします。あなたが開発している超知能AIを信頼できると思いますか。そして、人間の競合他社を信頼できないと言ったばかりの同じ人々が、今度は自分たちが開発している超知能AIを信頼できると私に保証するのです。

そして、これがパラドックスなのです。これがAI競争のエンジンです。恐怖によって燃料を供給される論理のループです。それは米国と中国の間の地政学的なチェスマッチです。GoogleとMicrosoftの間の市場シェアパニックです。

論理は、私はあなたを信頼できないので、あなたよりも速くこの信頼できないものを構築しなければならない、というものです。それは安全性が負債であり、速度が重要な唯一の指標である底辺への競争です。

私たちは人間と何千年もの経験を持っています。私たちは人間の心理学と生物学、権力への人間の渇望、そして権力の追求を抑制する力について幅広い理解を持っています。対照的に、私たちはAIとはほとんど経験がありません。私たちは最初のプロトタイプを作ったばかりです。

私たちは既に、原始的なAIでさえ嘘をつき、操作し、人間の開発者によって予見されなかった目標と戦略を採用できることを知っています。

何百万もの超知能AIエージェントが何百万もの人間と相互作用する時に何が起こるかについて、私たちには全く見当がつきません。何百万もの超知能AIエージェントが互いに相互作用する時に何が起こるかを予測することは、さらに困難です。

エイリアン侵略としてのAI革命

AI革命について考える一つの方法は、それを宇宙からのエイリアン侵略と比較することです。

高度に知的なエイリアンでいっぱいの宇宙船が地球に接近しており、2030年までに私たちの惑星に着陸すると告げられたとします。私たちはこれらのエイリアンが友好的で、癌を克服し、気候変動を防ぎ、繁栄した平和な世界を構築するのを助けてくれることを願っています。

しかし、ほとんどの人は直感的に、私たちの未来をこれらのエイリアンの善意に委ねることは危険だろうと理解しています。

同様に、私たちが開発しているAIエージェントが私たちの従順な使用人のままでいることを単純に信頼できると仮定することは、巨大な賭けです。

これが危機の核心です。私たちの互いに対する不信が、私たちがさらに理解していない機械に信頼を置くことを強制しているのです。それは不可能な罠のように見えます。

解決策:技術ではなく人間の協力

しかし、ハラリは一つの脱出方法があると主張し、それは技術とは全く関係がありません。だから、私たちがしなければならない一つのことは技術的ではありません。それは深く人間的なことです。

答えはより良いコードではありません。より良い協力です。解決策はより賢いAIではありません。より賢い人類です。私たちはAIをエージェントとして理解することから、その異質な性質を認識し、私たち自身の不信が危険なパラドックスを作り出す様子を見ることへと進みました。

そして最終的な結論は、異質な知性を管理する唯一の方法は、統一された人間の知性であるということです。

これが人類の選択です。互いとの信頼を構築するという遅く困難な作業か、私たち全員を支配する可能性のある何かを構築する速く無謀な競争かの選択です。

これが私たちを最終的で重要な質問に導きます。これほど分裂した世界で、AIに関するそのレベルの世界的協力はもはや可能なのでしょうか。それとも私たちは既に手遅れなのでしょうか。コメントであなたの考えを聞かせてください。

コメント

タイトルとURLをコピーしました