AI安全性の専門家であるロマン・ヤンポルスキー博士が、2027年までにAGI(汎用人工知能)が実現し、それに伴って99%の雇用が失われる可能性について警告している。彼は15年以上前に「AI安全性」という用語を作った人物であり、現在の状況を「エイリアンの知性を創造している」と表現する。予測市場やトップ企業のCEOたちによると、高度なAIの実現まで残り2-3年しかないにも関わらず、それを安全に制御する方法は未だ確立されていない。従来の技術革命とは異なり、今回は「発明者を発明する」という根本的なパラダイムシフトであり、人間より賢いシステムの制御は原理的に不可能だと主張している。

AI安全性の第一人者による緊急警告
私たちはエイリアンの知性を創造しています。もしエイリアンが地球にやってきて、準備に3年しかないとしたら、あなたは今パニックになっているでしょう。しかし、ほとんどの人は、これが起こっていることさえ気づいていません。
これはSF映画の予告編ではありません。これは15年以上前に「AI安全性」という用語を文字通り作り出したロマン・ヤンポルスキー博士の言葉です。彼は誰よりも長くこの問題について警告し続けてきました。そして今、彼はAIが完全に制御不可能になるまでに、あと数年しか残されていないと考えています。
現在何が起こっているかについて、彼はこう説明します。過去10年間で、私たちは実際に人工知能をより良くする方法を見つけました。より多くの計算能力とデータを追加すれば、それはより賢くなることがわかったのです。
そして今、世界で最も賢い人々と数十億ドルの資金が、可能な限り最高の人工超知能を創造することに向けられています。残念ながら、私たちはそれらのシステムをはるかに能力の高いものにする方法は知っていますが、それらを安全にする方法、つまり私たちが後悔するようなことをしないようにする方法は知りません。これが現在の最先端の状況です。
予測市場を見ると、高度なAIにいつ到達するかについて、タイムラインは非常に短く、予測市場やトップ研究所のCEOによると、2、3年程度です。そして同時に、私たちはそれらのシステムを私たちの好みに合わせる方法を知りません。私たちはこのエイリアンの知性を創造しているのです。
もしエイリアンが地球にやってきて、準備に3年しかないとしたら、あなたは今パニックになっているでしょう。しかし、ほとんどの人は、これが起こっていることさえ気づいていません。
これが全体像です。最も賢い人々が最も多くのお金を使って人工超知能の構築を競っているのに、私たちはそれを安全に保つ方法を全く知らないのです。
2027年の衝撃的な予測
しかし、ここで彼が具体的な話に入ると、正直なところかなり衝撃的です。彼は、わずか2年後にはAGIを手に入れ、それとともに史上かつてないレベルの失業が起こると主張しています。これをご覧ください。
2027年についてのあなたの予測は何ですか。
予測市場とトップ研究所の予想通り、AGIを手に入れることになるでしょう。つまり2027年までに汎用人工知能を持つことになります。
それによって世界は現在とどのように変わるのでしょうか。
ドロップイン従業員という概念があります。無料の労働力、物理的かつ認知的な、それも何兆ドル相当のものです。ほとんどの仕事で人間を雇うことは意味がなくなります。従業員がすることを、20ドルのサブスクリプションや無料のモデルで済ませることができるなら。
まず、コンピューター上でできることは何でも自動化されます。そして次に、ヒューマノイドロボットは5年ほど遅れていると思います。つまり5年後には物理的な労働もすべて自動化できるようになります。
私たちは史上見たことのないレベルの失業に直面することになります。恐ろしい10%の失業率の話ではなく、99%です。残るのは、何らかの理由で他の人間にやってもらいたいと思う仕事だけです。それ以外はすべて完全に自動化できます。
これが実際に自動化されることを意味するわけではありません。多くの場合、技術は存在しても展開されません。ビデオ電話は70年代に発明されましたが、iPhoneが登場するまで誰も持っていませんでした。ですから、私たちには仕事があり、このような世界がもっと長く続く時間があるかもしれません。
しかし、ほとんどの人間とほとんどの職業を置き換える能力は非常に早くやってくるでしょう。
これは重要な注意点です。彼は2027年までにAIが事実上あらゆる仕事を置き換える能力を持つと信じていますが、実際にそれが起こるとは思っていません。なぜなら、人々が技術に適応するには時間がかかるからです。
今回は違う:発明者を発明する
しかし、ここで決定的な話が出てきます。私たちが何百万回も聞いてきた古い議論についてはどうでしょうか。心配しないでください、技術は常に新しい仕事を創り出すものです、というやつです。ロマンは今回は違うと言います。私たちは単なる道具を発明しているのではなく、発明者を発明しているのだと。これをご覧ください。
この結果に対する反論の一つに、産業革命などの他の技術を見ると、人々は単に新しい働き方を見つけ、当時は想像もできなかった新しいキャリアが生まれたというものがあります。これにどう答えますか。
人工超知能の世界では、パラダイムシフトなのです。私たちには常に道具がありました。ある仕事をより効率的に行えるようにする新しい道具です。10人の労働者の代わりに2人の労働者で済み、8人の労働者は新しい仕事を見つけなければなりませんでした。そして別の仕事がありました。その労働者たちを監督したり、何か面白いことをしたり。
しかし、メタ発明を創造しているなら、知性を発明しているのです。労働者、エージェントを発明しているのです。そうすると、そのエージェントを新しい仕事に適用できます。自動化できない仕事は存在しません。これは以前には起こりませんでした。
私たちが以前に持っていた発明はすべて、何かをするための道具のようなものでした。火を発明しました。巨大なゲームチェンジャーでした。しかしそれだけです。火で止まります。車輪を発明しました。同じ考えです。巨大な影響がありました。しかし車輪自体は発明者ではありません。
ここで私たちは人間の心の代替品を発明しているのです。新しい発明ができる新しい発明者を。これは私たちが作らなければならない最後の発明です。その時点でそれが引き継ぎ、科学研究を行うプロセス、さらには倫理研究、道徳、すべてがその時点で自動化されます。
夜はよく眠れますか。
とてもよく眠れます。
これが人々が本当に理解する必要があることです。真のAGI、実際に現実世界を理解し行動できるシステムを手に入れると、人間はもはや最も知的な種族ではなくなります。そしてその影響は基本的に頭で理解することが不可能です。
あなたの犬があなたがすることの半分、いや大部分を理解できないように、私たちは人工超知能が何をするかを完全に理解することはできなくなるでしょう。特にそれが指数関数的に改善していく中では。
制御の幻想:なぜ「プラグを抜く」ことはできないのか
そして、これは人々がいつも投げかける明白な疑問を提起します。単純に電源を切ることはできないのでしょうか。これについてロマンの言葉をお聞きください。
その論文のもう一つの議論は、私たちが制御できるというもので、危険はAIではないというものです。この特定の議論は、AIは単なる道具だと主張しています。人間が危険をもたらす真の行為者であり、私たちは単純に電源を切ることで常に制御を維持できるというものです。
プラグを抜くことはできないのですか。
AIについての番組で会話をするたびに、必ず誰かが「プラグを抜けばいいじゃないか」と言うのを見ます。
はい、私が作るポッドキャストごとにそのコメントをもらいます。そしていつもその人に連絡を取って言いたくなります。「これは素晴らしい。考えたことがなかった。一緒に論文を書いてノーベル賞を取ろう。これは、やってみよう」と。それくらいばかげているからです。
ウイルスの電源を切ることができますか。コンピューターウイルスがあります。気に入らない。電源を切ってください。Bitcoinはどうですか。Bitcoinネットワークの電源を切ってください。どうぞ。待っています。これはばかげています。
これらは分散システムです。電源を切ることはできません。その上、それらはあなたより賢いのです。複数のバックアップを作成しています。あなたが何をするかを予測しています。あなたがそれらの電源を切る前に、それらがあなたの電源を切るでしょう。
私たちが制御できるという考えは、人工知能以前のレベル、基本的に今日私たちが持っているものにのみ適用されます。今日、AIツールを持つ人間は危険です。ハッカーや悪意のある行為者になり得ます。絶対に。
しかし、人工超知能がより賢くなり支配的になった瞬間、彼らはもはやその方程式の重要な部分ではなくなります。私が懸念しているのは、より高い知性であり、追加の悪意あるペイロードを加えるかもしれない人間ではありませんが、最終的にはまだそれを制御していません。
「彼らがあなたの電源を切る前に、あなたが彼らの電源を切る」という一節が大好きです。ほとんど冗談のように聞こえますが、実際にはそうではありません。確かに非常に悲観的ですが、それがまさに要点なのです。私たちは定義上、私たちより賢い何かについて話しているのです。どうやってそれを制御できるでしょうか。
つまり、他の人間を完全に制御することさえできません。あなたの子供が何をするか、あなたの上司が何をするかもしれないか、あるいはあなたの親友が何をするかさえ、常に予測することはできません。そして正直なところ、私たちのほとんどは自分自身を完全に制御することさえできません。
これを、あなたより何百万倍も賢い何かまでスケールアップしてください。そう、頑張ってください。そしてそれがまさにロマンが次に取り上げるところです。
不可能な挑戦:しかし希望はある
人工超知能を制御するという考えは、単に困難なだけでなく、文字通り自殺行為だというものです。しかし驚くことに、彼は前進する道があると考えています。見てみてください。
パターンにも注目してください。AI安全性組織や企業内の部門の歴史を見ると、通常は順調に始まり、非常に野心的で、その後失敗して消えます。
つまり、OpenAIには人工超知能整合チームがありました。それを発表した日に、4年で解決すると言ったと思います。半年後には、彼らはチームをキャンセルしました。そして類似の例が数十あります。
人工超知能のための完璧な安全性、それが改善し続け、修正し、人々と相互作用する中での永続的な安全性を作ること。そこには決して到達できません。不可能です。
コンピューターサイエンスにおける困難な問題と完全な問題と不可能な問題の間には大きな違いがあり、人工超知能の制御、無期限の制御はそのような問題だと思います。
それが不可能なら、なぜ試すのでしょうか。
私は具体的にそれが不可能であることを証明しようとしています。何かが不可能であることを確立すれば、それを実行できると主張して時間を無駄にし、資金を求める人が少なくなります。
非常に多くの人が「10億ドルを私にください、2年であなたのためにそれを解決します」と言います。あなたはできないと思いますが、人々はそれに向けて努力することを止めないでしょう。
つまり、それを安全にする試みがなく、それに向けて努力する人がますます増えているなら、それは避けられません。しかし、私たちが何をするかが変わります。
それを正しくすることは不可能だということ、安全にすることは不可能だということを知っているなら、できるだけ早く構築するだけのこの直接的な道は自殺行為になります。うまくいけば、それを追求する人が少なくなるでしょう。
彼らは他の方向に行くかもしれません。繰り返しますが、私は科学者です。私はエンジニアです。私はAIを愛しています。技術を愛しています。いつも使っています。
有用なツールを構築してください。エージェントの構築はやめてください。汎用的なものではなく、狭い人工超知能を構築してください。何十億ドルも稼いではいけないと言っているのではありません。私は何十億ドルを愛しています。しかし、あなた自身を含めて全員を殺さないでください。
彼らはそうするつもりはないと思っています。
では、理由を教えてください。直感について聞きます。後で解決するという話も聞きます。科学的な用語で具体的に教えてください。人工超知能をどのように制御するかを説明する査読済みの論文を発表してください。
これ以上明確になることはありません。人工超知能を構築し制御しようとすることは、彼の言葉によれば、自殺行為なのです。しかし、彼がそこで終わる方法に注目してください。すべてが破滅と暗闇ではありません。
ロマンは何も構築するなと言っているのではありません。彼は、汎用エージェントのリスクなしに強力なことができる狭いAIツールに焦点を当てるべきだと言っているのです。正直なところ、これがここでの主な要点だと思います。
問題はAIがすべてを変えるかどうかではありません。それはすでに分かっています。問題は、私たちがそれを制御し続け、文字通り乗っ取られることを阻止するのに十分賢いかどうかです。なぜなら、もし彼が正しければ、狭いAIと汎用AIの違いは単に技術的なものではなく、私たちの命に関わるものだからです。
とにかく、皆さんがこの分析を楽しんでいただけたことを願っています。ぜひ下にあなたの考えを書き込んでください。これは本当に考えさせられるインタビューの一つです。
完全なポッドキャストエピソードもチェックすることをお勧めします。Diary of a CEOチャンネルか、説明欄のリンクから視聴できます。ほとんどの人がまだ現実逃避をしているので、これは私たちがもっとたくさん話し合う必要があることです。
視聴していただき、ありがとうございます。動画にいいねを押し、シェアし、チャンネル登録をしてください。そしていつものように、次の動画でお会いしましょう。


コメント