元Google CEOが警告:AIは制御不能になりつつある

AGIに仕事を奪われたい
この記事は約6分で読めます。

3,254 文字

Ex-Google CEO: AI Is Slipping Out of Control
Twitch Backend Dev: i make courses for them)This is a...

人々は、このレベルの知能が生まれた時に何が起こるのか理解していません。人工知能はどんどん賢くなり、元Google CEOのエリック・シュミットは警告します—間もなく人工知能は私たちの命令に従わなくなるでしょう。
「私がトースターを浴槽に投げ込むと言ったら、それは問題なのでしょうか?今、私は問題の一部なのでしょうか?」
エリック・シュミットのシンクタンク「Special Competitive Studies Project」(もっといい名前を考えられたはずです。この名前は言いにくいですね)が共催した最近のサミットでの講演中、元Google責任者は、3〜5年以内に研究者たちが「人工汎用知能」(AGI)または人間レベルのAIの謎を解明するだろうと予測しました。
その後、シュミットが示唆するように、人間に関する全ての賭けは無効になります。AIが自己改善を始め、計画の立て方を学ぶと、本質的に私たちの言うことをもう聞かなくなるとこの技術政策の大物は語りました。
その段階で、AIは人間よりも賢くなるだけでなく、「人工超知能」(ASI)として知られる状態に達すると彼は続けました。これはAIが全ての人間を合わせたよりも賢くなる時に発生します。
3〜5年はそれほど長い時間ではありませんね。正直な質問ですが、イーロン・マスクが火星に人を送るのと、人工超知能が実現するのと、どちらが先だと思いますか?投票してみましょう。
投票の結果を見ると、今後3〜5年で人工超知能が実現すると信じている人はいないようです。多くの人は少なくとも誰かが火星に着陸すると考えています。そして一部の人々は、私がプロジェクトを完成させると信じています。もちろん私は自分に投票します。
「サンフランシスコ・コンセンサス」によれば—それは冗談の用語で、シュミットはベイエリアに住む人々だけが信じることを指すそうですが—ASIはスケーリングに基づいて6年以内に発生するとのことです。
それが理解できないと感じるなら、あなただけではありません。「この道筋は私たちの社会では理解されていません」とシュミットは言いました。「この到来に対して何が起こるかを表現する言葉がないのです。だからこそ、過小評価されているのです。」
過小評価?もう耐えられません。これが過小評価だとしたら、過大評価は想像できません。破滅と暗澹たる未来ですね。
他のAIの破滅予言者集団とは異なり、彼らはASIが急速に近づいているとは信じていません。ASIが急速に近づいていないと信じているだけで私が破滅予言者になるのでしょうか?技術が6ヶ月後には単に急速に進歩するとは信じないことが破滅予言者だとは思いませんでした。
「AIがあなたの仕事を奪うまであと6ヶ月」という話は23ヶ月間も続いています。「あと6ヶ月だけだよ」と。
私にとって衝撃的なのは、それをAI破滅予言者と呼ぶことです。私は単に「確かに良くなっているけど、ほんの少しだけ良くなっている」と思っています。AIがない状態からオリジナルのCopilotへの飛躍は信じられないものでした。しかし、それから新しいものへの飛躍は単なる微妙な改良にすぎず、信じられないほどには感じません。
VCの資金繰りもあと6ヶ月程度です。
しかし、元Google CEOは、有機的な人間よりも賢いAIの到来の可能性について非常に冷静に議論しているようです。これは、現在我々がGMO人間を持っていることを示唆しています。GMO人間はどこにいるのでしょうか?出てきてください、中国はあなたたちをCRISPRしていますか?
私たちが住んでいる世界と使用する言語について考えてみてください。人間を描写するのにこのような言葉は決して使いません。「有機的」という形容詞で人間を限定しなければならない奇妙な世界に住んでいます。
「人々はこのレベルの知能を持つと何が起こるか理解していません。それはほとんど自由です」とシュミットは主張しました。現在私たちが持っている知能や知識への前例のないアクセスは驚くべきものです。
私はまだAIを単に非常に優れた検索エンジンとしか見ていません。それが現在の私の見方です。AIはあなたの入力を取り込み、統計的に出力を推測するだけです。それだけです、結果が得られます。
「AGIに最初に到達する者は、それを非常に強く守るでしょう」というのは良い見解です。OpenAIはAGIをリリースしないでしょう。なぜそんなことをするでしょうか?AGIを所有する純粋な戦略的偉大さを考えてみてください。それを無料で公開するような宇宙は存在しません。フォート・ノックスは庭の門のように見えるでしょう。
そして、ASIが人間の制御の鎖から完全に自らを解放し、人間に有益なものになると決定しない限り、それは一種のユートピア的仮想アシスタントではありません。
シュミットが冗談めかして言及した6年間のASIタイムラインは、シリコンバレーの蜃気楼かもしれません。それでも、AIが人間の知能レベルに達するだけでなく、近い将来それを超えると想像するのは不気味です。
「大きな成功と大きな失敗がAIからもたらされるでしょう。大量死ですが、がんの治療法も」とは言われていますが、私にはわかりません。正直、そのような予測はしないようにしています。今のところAIから得られた最大のものは、インターネットの質の低下と検索性能の向上だけです。
良い検索は好きですが、何かを理解して上手く使いたいなら、まだドキュメントを読まなければなりません。約束された理想郷の後でも、まだここで私はドキュメントを読んでいます。これが最も残念な部分です。ドキュメントを読まずに即座に答えを得て、検索可能で素晴らしいものを欲しいだけなのに、まだここにいるのです。
「世界経済を破壊するために第三次産業の仕事を自動化するのにASIは必要ありません」と言われます。GPT-4はすでにそれに近づいていますが、実際にどれだけうまくできるかはわかりません。ほとんど機能不全になるだけだと思います。
ここで述べられているすべてのことの複雑さを考えてみてください。私たちはこれらすべてのことを言いますが、実際にAIに依頼しているさまざまなことをしっかり考えたことがありますか?もしすべてがAIによって運営され続けるなら、単に分散エラーの問題が発生し、単純なエラーが途方もなく拡大されるでしょう。
それをかなり小さくできると想定しましょう。そして多くの人々がそれを助けることができます。ただ純粋なプロンプトインジェクション(AIの命令文に不正な指示を忍び込ませる攻撃)のすべてを考えてみてください。私たちはソフトウェアでさえ正しく作ることができません。有限の文法で論理的に完全なものを得ることさえできません。実際、ソフトウェアは正確に書くのは簡単ですが、完全に正確にするのはほぼ不可能です。
では、統計を使ってそれを正確にすることを想像してください。コードがより悪用されやすくなるだけでなく、世界中でプロンプトインジェクションが可能になるという、さらに悪い側面も出てきます。世界は、AIに嘘をついたり操作したりして望む結果を得るための巨大な実験場になってしまうのです。
人々が話し続けるこの未来は非常に混乱します。なぜ誰もがこの未来を望むのかわかりません。すべてのSaaS企業がAIになるのは望みません。それはひどいことになるでしょう。
統計にもバグが含まれることを理解していない人のために言えば、間違いがどこにあるのか、正しいのか間違っているのかわからないのです。
正直に言うと、プログラミングを諦めて、非常に高速で動作するものがあり、あまりプログラミングする必要がなく、常に物事を非常に迅速に起こすことができるなら、問題ありません。結局のところ、まだ創造していれば、私は幸せです。それで大丈夫です。嫌いではありません。ただ、今日はそうではないのです。

コメント

タイトルとURLをコピーしました