「AIは解き放たれて人類を殺すだろう」: 2024年のノーベル賞受賞者たちが警告を発する

AGIに仕事を奪われたい
この記事は約12分で読めます。

6,706 文字

https://www.youtube.com/watch?v=xPOEIEbZCTc

ジェフリー・ヒントンは人間の脳の仕組みを理解したいと考えていました。脳は具体的にどのように機能するのでしょうか。私たちはまだ完全には理解していませんが、2つのニューロン間の結合の強さがどのように変化するかを理解するために多くの努力を重ねてきました。私たちが構築した大規模システムから多くのことを学びました。特に、結合の強さを増減すべきかを判断する方法を見つけ出し、それを約1000億の全ての結合に適用し、多くの例を用いて少しずつ強さを調整していくだけで、GPT4のような素晴らしいシステムが生まれるということです。これらの大規模チャットボットは人間の何千倍も学習することができ、そのため人類の知識全体をわずか10億の結合に圧縮することができます。私たちには1000億の結合がありますが、それでもあまり多くのことを知りません。
面白いですね。自分で言ってみてください。あなたは私たちがその仕組みを本当には理解していない、これまでに作られた最高のコンピューターとして紹介していますが、それでも人工知能と人工ニューラルネットワークが人間の知能を超える可能性があると主張しています。
私たちは既に追い越されていると思います。GPT4を見てください。誰よりも多くのことを知っています。私たちよりもはるかに少ない結合で、全ての分野において平均的な専門家のような存在です。
聞いてください。AIの分野では脳の構造から多くのインスピレーションを得てきました。特にニューラルネットワークや強化学習と呼ばれるアルゴリズムについてです。現在私たちは、これらの基盤モデルや言語モデルといった大規模システムを開発するエンジニアリングの段階にあります。現在多くのリーダー的モデルが存在し、次の段階では、これらのAIモデルを使って私たちの脳を分析し、神経科学の発展を助けることになるでしょう。これは原点回帰です。神経科学が現代のAIにインスピレーションを与え、今度はAIが脳の何が特別なのかを理解する手助けをしてくれるのです。
人工知能は人間の知能を超えるでしょうか?それとも既に超えているのでしょうか?
知識の量という点では、単一のシステムとしては既に超えています。GPT4は誰よりも多くのことを知っています。時々物事を作り出すこともありますが、それでも非常に博識です。タイミングについては、私の知る限りデイス・ホッセイニのような主要な専門家たちは全員、それは起こると考えています。これらの機械が人間の一般的な知能を超えると考えているのです。ただし、その時期については意見が分かれています。
では、機械やロボットが私たちを支配し始めるということですか?それを示唆しているのですか?
問題は、私たちより賢い存在をコントロールし続けることができるかということです。一度彼らが私たちより賢くなったら、誰が指揮を取るのでしょうか?私たちは今、どうやってコントロールを維持するかについて多くの研究をする必要があると思います。
その質問に本当には答えていませんね。人工知能が私たちを追い越して支配権を握るまでになると考えていますか?
いいえ、聞いてください。私はジェフの、現在のシステムがまだ限られているという意見には同意しません。確かに印象的で、私たちとコミュニケーションを取り、多くの知識を持っていますが、計画、推論、想像力、創造性といった多くの分野ではまだ弱いのです。しかし、急速に改善されていくでしょう。全ては私たちがこれらのシステムをどのように設計し、社会としてどのように展開し構築していくかにかかっています。
分かりました。それについて私たちが何をすべきか検討しましょう。しかし、皆さん、これは非常に重要な根本的な問題です。私は人間を過大評価していると思います。私たちも多くの誤った情報を作り出します。誤った考えが広がる例は数多くあり、ソーシャルメディアでそれは悪化しています。AIが成功する基準はかなり低いのです。人類は大きく過大評価されています。
承知しました。しかしその前に、手短に今の新しいプロジェクトについてお話ししたいと思います。ご存知の通り、このチャンネルではAIに関連する全ての発展や新機能を分析しています。私の目的は、この素晴らしい技術をできるだけ多くの人々に知ってもらい、何よりもAIについての意識を高めることです。私の周りの人々と話すと、AIが何であるか、それが社会にどれほど大きな影響を与えるか、本当に理解していないように感じます。その影響は途方もなく大きいものになるでしょう。
以前も言いましたが、このチャンネルでは商品の宣伝はしません。できるだけ純粋な形で保ちたいと考えているからです。そのため、トレーニングコースを作成しました。もしあなたの生活のあらゆる面でAIの使い方を学びたいなら、このビデオを見ている方は、おそらくすでにChatGPTなどのAIを使用していると思います。AIツールの使い方をより深く理解し、生活のあらゆる場面でどのように適用できるかを学びたい場合は、この動画の下にピン留めされたコメントにリンクを置いておきますので、興味がある方はぜひご覧ください。
ビジョンAIコミュニティにもアクセスできることを付け加えておきます。このプロジェクトを始めてからまだ間もないですが、すでに100人以上の方々がトレーニングを受講してくださっています。素晴らしいのは、皆さんが様々な分野から参加されていることです。定期的に皆さんと話し合い、学んだツールを各々の特定の分野にどのように適用できるか議論するのが大好きです。本当に興味深いですね。
申し訳ありません、少し話が逸れましたが、これ以上時間を取りません。全てのリンクは説明欄やコメント欄にあることをお伝えしておきます。
私は反対の立場を取りたいと思います。文明の始まりから、人類はほぼ全ての分野で自分たちを超えるものを作ってきました。車は無限に速く走ることができ、飛行機は飛べますが、人間は飛べません。長い間、人間にはできない計算をするコンピューターを持ってきました。デミスは囲碁やチェスを解くプログラムを開発しました。私たちは、機械が私たちにはできないことをできるという考えにとても慣れています。ChatGPT4は人間よりもはるかに多くの知識を持っています。私たちはこのような事態を冷静に受け止めていると思います。コントロールを失うことを心配しているとは思いません。
ゲイリーとは反対の立場を取りたいと思います。現在、人間は信じられないほど過小評価されています。人間の適応性、流動性、創造性、そしてコミュニティ性を見てください。人間は驚くべき社会的動物です。私たちは集団として学び、集団として非常に多くのことを非常に速く成し遂げることができます。したがって、私はAI自体が私たちに対して敵対的になることよりも、AIをコントロールする人々のことを心配します。人類最大の敵は人類自身なのです。
確かに、ツールが強力になるにつれ、危険は機械自体からではなく、そのツールを使用する人々から生じます。偽情報、自律型軍事兵器、その他多くのものがあります。人類は核兵器のように、人類を危険にさらすものを発明することに長けています。キューバ危機で地球を破壊することにどれだけ近づいたか考えてみてください。私たちは既にそれをやっていて、異なる形で再び行う可能性があります。
そこで皆さんにお聞きしたいのですが、誰もが規制が必要だと言っていますが、誰がそれを行う動機を持っているのでしょうか?政治家や政府は追いつけていません。全てが彼らが対応できる以上に速く進んでいます。民間部門では、彼らはただお金を稼ぎ、これらの技術を広めたいだけです。この問題に本当に取り組む動機はどこにあるのでしょうか?
明らかに、私たちの多くは医療から生産性まで、AIがもたらす驚くべき恩恵をもたらすためにAIに取り組んでいます。しかし、これらの問題に関する国際的な協力や調整の問題があることには同意します。私たちには数年の時間があると思います。産業界と学術界の両方で、主要な研究者や研究所がこのような協力を要求するために団結する必要があります。汎用人工知能に近づくにつれて、私は人間の創意工夫を強く信じています。
デイビッドが言うように、私たちは種として信じられないほど適応力があります。今日私たちが使用している現代技術を見てください。若い世代は自然にそれに適応し、当たり前のものとして受け入れています。チャットボットについても同じことが起こると思います。25年前、AIの分野にいた私たちは、今日私たちが持っている技術を見せられたら驚いていたでしょう。それでも社会は努力せずにそれに適応しているように見えます。
AIに関連するリスクを2つの種類に分けたいと思います。一つは比較的短期的なもので、悪意のある行為者に関するものです。これは遥かに緊急性が高く、全ての主要な国防省が開発を止める意図なく開発している自律型致死性兵器に関係します。AIに関する欧州の規制では、これらの規則はAIの軍事利用には適用されないと明確に述べられています。つまり、彼らは明らかに継続する意図を持っています。サイバー犯罪、危険な病原体の作成、ディープフェイク動画、監視など、他にも多くの短期的なリスクがあります。これらのリスクは非常に深刻で、これらの問題に関する協力を得るのは非常に困難でしょう。
次に、これらのシステムが私たちより賢くなり、世界で行動を起こし、私たちが与えた目標をより良く達成するために単に私たちを脇に追いやることを決定するという長期的なリスクがあります。この特定のリスク、実存的な脅威に対しては、人々は協力するでしょう。なぜなら、私たちは皆同じ船に乗っているからです。誰もAIに支配されることを望んでいません。中国共産党でさえ、AIが指揮を取ることは望んでいません。彼らは中国共産党が支配することを望んでいるのです。
AIの生みの親と呼ばれる人物としては、多くの点で非常に悲観的に聞こえますね。
それは潜在的に非常に危険です。潜在的に非常に良いものであり、潜在的に非常に危険なものです。私たちは今、否定的な可能性なしに肯定的な側面を確実に得るために、大きな努力をすべきだと思います。
それは自動的には起こりません。議論したように、強力な技術はそれ自体では中立です。私たち社会が何をするかを決めることによって、良いものにも悪いものにもなり得ます。人工知能は単にその最新の例です。この場合、おそらくそれは最も強力で重要なものであり、うまく扱う必要があります。しかし、楽観的な側面として、私が想像できる唯一の課題で、もし私たちが正しく行えば、他の課題を解決するのに役立つかもしれないものだと思います。
それが鍵です。民主主義やその他の話題は多分話が逸れるでしょう。それは多分経済学者が話すべきことかもしれません。私は単に、人工知能は情報ツールであり、信頼できる情報が全ての人にアクセス可能であれば、あらゆる面で私たちにとってより有用で豊かなものになるだろうと言いたいのです。上層部の誰かが他者を操作するためではなく、様々なスキルレベルの市民や労働者が自分たちの仕事を遂行するためのエンパワーメントツールとしてです。これらは民主化の側面ですが、このようなツールが広く、そして非操作的に使用されるようになるまでには、まだ長い道のりがあります。
実際、人工知能の進歩により、私たちは意識と人間性を作り出すものについてより深く理解する必要があるでしょう。たとえAIの進歩が非常に速くても、私たち自身の存在とそれを意味あるものにしているものについて、より深く考えざるを得ない障壁があるかもしれません。
しかし、私は意識や感受性、主観的経験について語る哲学者は必要ないと思います。これらの概念を理解することは科学的な問題であり、哲学者なしでもうまくいくでしょう。
私は科学にとって非常に素晴らしい機会だと思います。科学的プロセスを改善するために使えるものは何でも、必ずしもそうなるとは限りませんが、大きな利点を持つ可能性があります。しかし、それは私たちの以前の会話の本質を変えるものではありません。強力なツールは大きなリスクも生み出します。
私たちが日常的に依存している合成肥料の研究でノーベル賞を受賞したフリッツ・ハーバーは、第一次世界大戦中にドイツ軍のために化学兵器も製造し、何十万人もの直接的な死因となりました。したがって、強力なツールを持つ科学者の責任は決して小さくありません。
それに同意します。AIの分野では、チャットボットの時代の利点の一つは – AIはチャットボットよりもはるかに多くのもので、科学的ツールやその他のものでもあります – それが一般の人々の意識を高めたことです。政府もより意識的になり、サイエンスフィクションの領域から抜け出しました。これは良いことです。なぜなら、ここ数年、技術を超えた広範な問題について議論するために、政府、市民社会、学術機関がより多く集まるようになってきたからです。
これには、私たちにはどのような新しい機関が必要か、利益をどのように広く分配するかといった問題が含まれます。これは技術的な問題ではなく社会的な問題であり、私たちはこれについて広く議論する必要があります。そしてそれが始まっているのを目にしています。AIの安全性に関する世界サミットが英国、韓国で開催され、次はフランスで開催される予定です。これらの問題についてより集中的で迅速な議論が必要だと思います。
過去50年間の西洋経済の原動力は、技術、科学、シリコンバレーでした。もしあなたが西洋の敵であれば、それを不安定化させたいと思うでしょう。技術や企業に対するこの不信感は自然に発展したものではないと思います。悪意のある行為者によって操作されているのだと思います。私はそれがロシアやイランだと思います。
それを言うのは愚かではありません。もちろん他の悪意のある行為者もいます。エネルギー産業は気候変動を信じてほしくないでしょう。タバコ産業は、タバコが癌を引き起こすことをよく知っていながら、長年その事実を隠していました。
もしエネルギー企業、製薬会社、タバコ会社を信頼できないのなら、非常に集中化された技術企業を信頼できるでしょうか?そしてもし人工知能がそれほど重要なら、技術企業の力はどうなのでしょうか?
なぜ私にその質問をするのか分かりません。私は技術企業で働いていないので。
では、客観的な意見をお持ちですね?
いいえ、でも、これは私たちが話していなかったAIのリスクの一面ですね。
そうですね、これは狂っています。生産性の大幅な向上について話していますが、それは誰もがより多くの商品やサービスを得られるということなので、誰もがより良い状態になるはずです。しかし、実際には逆になるでしょう。それは私たちが資本主義社会に住んでいるからです。起こることは、この巨大な生産性の向上が大企業や裕福な人々により多くのお金をもたらし、仕事を失う人々との格差を広げるということです。そしてこの格差を広げるたびに、ファシズムの温床を作り出すことになります。
だから、これは非常に恐ろしいことです。私たちは物事を悪化させているだけの段階にいるのかもしれません。これは狂っています。なぜなら、私たちは誰もを助けるはずのことを、明らかに医療や教育で役立つはずのことをしているのに、利益が裕福な人々にのみ行けば、それは社会を劣化させることになるからです。
もしあなたがその分野に十分な情熱があれば、何が起ころうとも、あなたはそれを行うでしょう。知能の本質とその計算原理について研究すること以上に興味深いことは想像できません。2010年にディープマインドを創設した時、パーディン教授のような素晴らしい仕事をされた方々を除いて、学術界ではほとんど誰もAIに取り組んでいませんでした。
そして今、15年後、それはそれほど長い時間ではありませんが、世界中がそれについて話しています。私たちは既に、もしそれが実現できれば、これが世界で最も重要で変革的な技術の一つになるだろうと、教授のような人々の素晴らしい仕事に基づいて予測していました。そして、そのようなものを見たとき、それはそれ自体のために行う価値があるのです。

コメント

タイトルとURLをコピーしました