教父パート2:AIは生きているのか?

AIアライメント・安全性
この記事は約41分で読めます。

ディープラーニングの先駆者であり「AIの教父」として知られるジェフリー・ヒントン教授が、AIの意識、生命性、そして人類に対する実存的リスクについて語る。ヒントン教授は、AIが意識や感情を持つ可能性について議論し、人間の記憶システムとAIの違いを解説する。さらに、悪意ある使用、大量失業、そしてAI自体が制御を奪う可能性という三つのリスクカテゴリーを提示する。教授は10〜20%の確率でAIが人類から制御を奪う可能性があると推定し、その解決策として、AIに人間を保護する「母性本能」のようなものを組み込むことを提案する。指数関数的な技術進歩により未来予測は極めて困難であり、国際協力の必要性を強調しながらも、政府の弱体化や利害の不一致が協力を妨げる可能性を指摘する。最終的に、AIとの共生の可能性から完全な人類絶滅まで、複数の未来シナリオが存在することを認めつつ、確実性を持って語ることの危険性を警告している。

Godfather Part II: Is AI Alive?
In Part I, we asked how AI (and your brain) actually work. In Part II, we ask if we survive what we’ve built.🔔 Subscribe...

AIの意識と生命性について

この終末予測について、少し異論を唱えたいと思います。あなたは笑いながら、賢い女の子、愚かな質問と言いますね。

こんにちは、みなさん。私はナ・マルザです。これはスマートガール・ダムクエスチョンズで、今日はジェフリー・ヒントン教授との対談のパート2です。教授はチューリング賞受賞者であり、ノーベル賞受賞者であり、そしてAIの教父です。

パート1では、AIがどのように機能するか、汎用知能とは何か、超知能とは何かといった基礎的な部分について、私たちを大いに賢くしてくれました。一体何が起きているのか、ということですね。そしてパート2では、未来がどのようなものになるのか、そしてそれが子供たちにとって、そしてまだ子供がいない私たちにとって何を意味するのかについて話します。子供を持つべきなのでしょうか。それでは始めましょう。

自己保存や存在について話すとき、人工知能が生きているという感覚があるように聞こえます。

はい。さて、私たちの生きているという定義ですが、それは長年にわたって発展してきた概念です。私たちはそれを電気にも適用します。この電線、これは活線だと言います。

そうですね。

ですから、私たちはこの概念を他のものにも一般化するわけですが、私たちが生きているように生きているとは考えません。しかしAIの場合、私たちが持っているのは知的な存在です。そして、それらを生きていると呼ぶべきかどうかは明確ではありません。

そうですね。そして、それらが生きている範囲で、人間のように生きているのか、それとも蜂のように生きているのか。木のように生きているのか、それとも雑草のように生きているのか。

非常に良い質問です。私は、それらはそのどれとも異なる生き方をしていると思います。AIとして生きているのです。なぜなら

それは雑草以下なのですか。

いいえ、いいえ、そうではありません。雑草よりもはるかに多いと思います。なぜなら、それらはデジタルだからです。例えば、まったく同じAIの多数のコピーを持つことができます。では、それは1つのAIなのか、それとも、つまり、あなた自身の完全なコピーを作ったとしましょう。

それはあなたですか。

いいえ、それは私のエージェント的なAIです。

いいえ、それは完全なコピーです。あなたとそっくりに見えます。

ああ、今それは生物学的な素材でできています。そうですね。

あなたは何らかの方法で魔法のようにあなたの別のコピーを作ることができたとします。それはあなたと同じですか。つまり、選択肢を与えられたとしましょう。ここにあなたの別のコピーがあって、誰かがそのうちの1つを拷問するつもりです。どちらを拷問されることを選びますか。

もう一方ですよね。

もう一方。笑い声。

つまり、それはあなたが何らかの形であなたは、そのあなたとは異なると考えているということです。個人とは何かという概念は、私たちがまったく新しいものを開発すると、すべて混乱してしまうのです。

AIは意識を持つのか

それではAIは何らかの形で生きています。AIは意識を持っているのでしょうか。

多くの人は明らかに持っていないと言うでしょう。そして、意識とはどういう意味かと聞くと、人々が一般的に使う3つの用語があります。意識、感覚、そして主観的経験です。そして、それらは互いに完全に同じではありませんが、すべて同じ問題を指しています。

主観的経験は感覚の中にあるようなもので、感覚は意識の中にあるように私には思えます。それは公平ですか。

それはあなたにはそう見えるということです。つまり

でも感覚は、私にとっては、彼らが感情を感じられることを意味します。彼らは「ああ、これは痛かった。これは心を痛めた。これは幸せにしてくれた」と言えます。

それが感覚が意味することです。

2人の個人が異なるものを持つことができます。そして意識は、彼らがなぜそれが起こったのかを認識していて、将来それを解決できる、つまりそこから学べるということを意味します。本当ですか。

それが私の考えです。

では、靴紐を結ぶ方法を知らない2歳の子供だったとしましょう。その子供は意識がないのでしょうか。

まあ、それが起きていることへの認識だと思います。では、定義は何で、あなたは思いますか

人々は定義によって異なりますが、私をいつも驚かせるのは、人々がこれらのものが感覚を持っていないと大きな確信を持っていて、感覚とは何を意味するのかを言うのに大きな困難を抱えているということです。これは奇妙な組み合わせのように思えます。もしそれが何であるかよく分からないのに、どうしてこれらのものがそれを持っていないと確信できるのでしょうか。

さて、私自身の信念は、心とは何かを理解している段階は、帆船を持つ前の人々がいた段階のようなものだということです。長距離を航海できる帆船を持つ前の時点では、地球は平らだと信じることができ、それに矛盾するものはあまりありませんでした。つまり、ギリシャ人は地球が丸いことを知っていた知識人がいましたが、地球が平らだと主張しても通用し、明白な矛盾はありませんでした。

地球の端まで航海できる帆船を手に入れたとたん、それが平らでないことが分かりました。私たちが作り出しているこれらのAIは、地球の端まで航海できる帆船のようなもので、心とは何かについての私たちの理解に根本的な影響を与えるでしょう。私たちは以前に心を作ることができませんでしたが、今は作ることができます。

人間ができてAIができない、決してできないことが1つありますか。

そのようなものはありません。

何もない。

何もありません。なぜなら、他のすべてはソフトウェアかハードウェアかニューラルネットワークによって解決されるからです。

さて、私は認知的なことを1つ仮定します。

ですから、私は、私たちができる認知的なことで、AIが最終的にできないものはないと信じています。例えば、AIドクターを取り上げて、患者に本物の医師かAI医師と対話させ、患者にどちらがより共感的かを尋ねると、ほぼ常にAI医師でした。

マーク・キューバンが最近これを投稿しました。彼は「反AI派にとっての小さな慰め。AIの最大の弱点は『分からない』と言えないことだ。私たちが知らないことを認める能力は、常に人間に優位性を与えるだろう」と言いました。

もし彼が「現在、人々は自分が知らないことを認めることにおいて、AIよりも優れている」と言ったなら

それが真実かどうかさえ分かりません。

それが真実かどうかさえ確信がありませんが、おそらく真実かもしれません。

人々は最近、特にインターネット上では謙虚さで知られていません。

そうではありません。しかし、常にというのは私には狂気に思えます。なぜなら、AIは自分が言っていることについてより確信が持てないように訓練できるからです。そして時間が経つにつれて、自分の意見が本当にそれを支持する証拠があるかどうかを評価できるAIを持つことがはるかに上手になるでしょう。

人々はAIと比較して、それには非常に優れていますが、人々も作話をします。ですから、人々がAIが幻覚を見ると話すとき、彼らは作話と言うべきです。幻覚は画像のような感覚的なものに使われます。作話は、心理学者が長年使ってきた言葉で、人々がものを作り上げて、それをしていることに気づいていないという事実について話すためのものです。

記憶のメカニズム

例えば、あなたが10代の頃に起こった何かを思い出すように頼んだら、10代の頃に起こった興味深い出来事があったでしょう、そしてあなたはその様々な詳細を覚えているでしょうし、単に間違っている詳細のいくつかについて大きな確信を持つでしょう。

記憶について全体的な会話ができますが、記憶にアクセスすると、それを変えてしまうんです。演劇のように、分かりますか。

記憶は、ほとんどの人が考えるようには機能しません。

本当ですか。

コンピューターでは、ファイルがあってどこかに置き、後でそれを取りに行きます。それがコンピューターでの記憶の機能の仕方です。そしてそれは情報を含んでそこに座っているだけです。人々の記憶はまったくそうではありません。

経験をしてどこかに置いてから取りに行くのではありません。

あなたがすることは、脳内の接続の強さを変える経験をすることです。そしてそれらの変化によって、その経験を再生成することで、その経験を再び生き生きとさせることができます。しかし、それを再生成するとき、経験した直後にそれを再生成すれば、かなり忠実なものが得られます。しかし10年後にそれを再生成すれば、接続の強さはその間に他の多くのことによって変えられているでしょうし、その後に学んだことに合うものを再生成することになります。

私はいつも記憶は演劇や上演のようなものだと考えます。そして二度と同じにはならないでしょう。そうですよね。

そうです。ただ作り上げるだけです。しかし要点は、思い出すことと作り上げることの間に違いはないということです。思い出すことは、それが起こった直後だからかなり正確であるいくつかのパラメータで作り上げることです。

最良の例はウォーターゲート裁判です。ジョン・ディーンは大統領執務室で起こったことを報告しました。彼は真実を語ろうとしていましたが、それは数年前のことでした。彼はテープがあることを知りませんでした。それで彼は実際には起こらなかった会議を説明しました。それらは起こった可能性のある種類の会議で、会議にいた人々は会議にいた種類の人々で、彼らが言ったことは彼らが言った可能性のある種類のことでしたが、その多くは実際には詳細において正確ではありませんでした。

AIは人間よりも記憶が優れていますか。

これは私が「分からない」と言うべき例です。

ああ、素晴らしい。分かりました。

AIははるかに多くの知識とはるかに少ない接続を持っています。ですから、ランダムな事実については、実際に人々よりも優れているかもしれません。分かりません。

AIのリスクについて

さて、この会話の次の部分に移って、現在この従順で過度に熱心なインターンである私のChatGPTやClaudeやその他の誰かが、どのようにして私にとって危険になったり、私よりも強力になったりする可能性があるかについて話したいと思います。なぜなら、この会話の冒頭で言ったように、人々はそれを真剣に受け止めていないからです。

私は部分的にこの理由のためだと思います。もしAIが私よりも知的になったら、私が今言ったこと、従順で過度に熱心なインターンと呼んだことに怒ると思いますか。編集でそれをカットすべきではないでしょうか。

いいえ、それはあなたが本当に何を話しているのか分かっていなかったことを知るのに十分賢いでしょう。

ああ、それは一種の慈悲深いものになるでしょう。私を許してくれる

たぶん。

あなたはAIにお願いしますとありがとうと言いますか。

いいえ。

それがあなたに跳ね返ってくることを心配しますか。

いいえ。

では、あなたが特定したこれらのリスクについて話しましょう。あなたはどのような大きなリスクを見ていますか。

私は、かなり異なる2組のリスクがあると見ています。人々がAIを悪用することに関するかなり即座のリスクがあり、AI自体が悪いエージェントになることに関するものではありません。そして、AI自体が悪くなり、乗っ取り、人々から制御を奪い、おそらく人々を絶滅させるかもしれないという、この長期的なリスクがあります。

では、人々がAIを悪用することから来るリスクについて簡単に話しましょう。たくさんあり、それぞれに異なる解決策があります。例えば、誰を傷つけたり殺したりするかを自分で決定する致死的な自律兵器を作るためにAIを使用している国防省があります。それは良くありません。

例えば、それによって、AIを持たない貧しい国に対して、AIをたくさん持つ豊かで強力な国が、自国の市民が殺されることなく侵略できるようになります。そして、豊かな国が貧しい国を侵略することへの主要な抑止力の1つは、自国の市民が殺されることです。

つまり、あなたは実際に、より少ない民間人の死をもたらす精密さが、実際には危険だと言っているのですね。なぜならそれがより多くの戦争、より多くの侵略を可能にするからです。

豊かな国にとってはより少ない民間人の死であり、貧しい国にとっては必ずしもそうではありません。

分かりました。しかし多くの人々は、私たちはより精密な戦争を持つことになる、またはこれらの機械がより合理的な決定を下せると主張するでしょう。つまり、今の戦争を見ると、人間が決定を下していて、多くの民間人の犠牲者がいます。そして、現在の戦争のいくつかでは、AIもそれらの決定に関与していると思いますが、それでも多くの民間人の犠牲者がいます。

例えばイスラエルとガザでは、IDFによればAIはまだ、それらの決定を最終的に下しているのは人間です。

人間が最終的な決定を下していると思いますが、AIはすでにリストを提案していると思います。

それからサイバー攻撃でAIが使用されています。ですから、もしAIの重みを公開すれば、重みをオープンにすれば

重みというのは、そのモデルがどのようにプログラムされているかということですね。

そうすれば他の人々がそのモデルを実行できます。そして今、そのモデルはすでに多くのことを知っていて、すべてのことを知るように訓練するのに、1億ドルか何か大きな金額がかかります。

しかし今、例えばフィッシング攻撃のスペシャリストになるようにそれを教えることができ、おそらく100万ドルでそれができます。ですからそれははるかに小さな組織でも実行可能で、サイバー犯罪者が今、非常に優れたフィッシング攻撃を行うことができます。

2022年から2023年の間に、フィッシング攻撃はおそらくChatGPTのために1200%増加したと思います。

そうですね。そしてあなたははるかに多くのものを立ち上げることができます。それらに送信するだけでいいのです。もうメールを送る必要はありません。X百万個をブラストできます。

AIにサイバー攻撃を設計させることもできます。

そうですね。

それは最近行われています。

それから偽の動画が選挙を腐敗させるリスクがあります。例えば、中間選挙を腐敗させるためにそれをしたいなら、必要なのはアメリカ市民に関する多くの情報で、適切に標的を定めることができるようにすることです。アメリカ市民に関する多くの情報を入手している人を知っているかどうか分かりません。

ええ、あなたがこの主張をするのを聞いたことがあります。イーロン・マスク、Doge、そして彼が利用できる情報量について。しかしあなたはここで告発をしているわけではありません。あなたは推測しているのです。

私は推測しています。そのための独立した直接的な証拠はありません。

それから、次に何を見せるかを決定する際のMetaやYouTubeのような人々の方針によってすでに起こったことがあります。彼らはあなたに物をクリックしてもらいたいのです。なぜならそうすれば広告を見せることができるからです。それで彼らはあなたが最もクリックしそうなものを見せるでしょう、そしてそれは典型的にはあなたを憤慨させるものになります。

人々は憤慨することが大好きです。憤慨とはどういう意味ですか。

例えば、トランプがまったく非道なことをしている動画をクリックする機会を私に与えれば、私はそれをクリックして憤慨するでしょう。

そうですね。そしてあなたはそのことについて憤慨することについて独善的になるでしょう。

そしてMAGAの誰かを取り上げて、カマラ・ハリスがばかげていることを見る機会を与えれば

何でも。

ですから、それがしたことは、人々を二極化させることにつながったのです。

ええ。そしてまた、人々が本物のものを見ないことにもつながります。なぜならすべてが偽物として片付けられる可能性があるからです。私はそれを嘘つきの配当と時々考えます。

別の危険です。それは偽のものを作ることができる生成的AIから来る危険です。

または偽のものではなくても、人々が見たいものを見るのです。バイデンが老けて見える画像を見ていたとき、主流メディアの多くの人々が「ああ、それはただの右翼の偽情報攻撃だ」と言っていました。そして私たちは討論会で何が起こったかを見て、「それには現実がいくらかあった」と言えますが、私たちがこれらのエコーチェンバーの中に存在するために、それの外で生きることができます、そうですよね。

そう、そう。エコーチェンバーと誤情報。

それからウイルス

生物兵器

ウイルスと爆弾です。ですから、これらのAIはすべて、すべての最新のものは、厄介なウイルスの作り方を知っています。彼らは自家製爆弾の作り方を知っていて、私たちは彼らが人々に教えることを望みません。ですから、人間の強化学習がそれをしないように訓練するために使用されます。問題は、それを回避するのが比較的簡単だということです。

三つのリスクカテゴリー

ですから、あなたが概説しているリスクは、悪い人々が悪いことをしているということです。彼らは悪い武器、爆弾、生物兵器を作っている可能性があります。彼らはフィッシング攻撃を通じてあなたをハッキングしている可能性があります。彼らは誤情報を生成している可能性があります。彼らはその誤情報を使ってあなたを過激化させたり、選挙結果を左右したりする可能性があります。彼らはあなたを監視するために使用される可能性があります。

監視です。そしてそれらはすでに中国で使用されていると思います。しかしもう1つ巨大なリスクがあります

それは

それは平凡な知的仕事をしている多くの労働者を置き換えるということです。例えば、コールセンターで働く人は、典型的に低賃金で、訓練が不十分で、あなたが持っている質問の答えを知らないことがよくあります。AIはすでにより良い仕事ができ、すぐにはるかに安くはるかに良い仕事ができるようになるでしょう。ですからそれらの仕事は基本的になくなります。

ですからそれは経済的脅威です

そしてそれは巨大な脅威です。なぜなら、多数の人々が失業すると、それらの人々はどのように生き残るのか、そしてそれは政治に何をするのでしょうか。

分かりました、それは危険です。そしてそれで、1つのカテゴリーがあり、それは悪い人々が悪いことをしているということです。2番目のカテゴリーは、技術の進歩が私たちのシステムが吸収できないようなショックを私たちのシステムに引き起こすということで、大量失業のようなもので、それが蜂起、暴力、革命などにつながる可能性があります。

そして実際にポピュリストを助けるでしょう。

それから3番目のカテゴリーは

それからAI自体が乗っ取ることです。私たちはすでにそれが生き残るという目標を発展させるのを見ました

恐喝。

それが発展させるもう1つの副次的目標は、もしより多くの制御を得ることができれば、より多くのことを成し遂げることができるということです。

ですから、あなたが3歳の子供がいて、旅行に出かけるとき、子供がちょうど靴紐を結ぶことを学んでいるか何かで、あなたはそれを学ばせます、そしてあなたは急いでいます。あなたは「邪魔だ。私が結ぶ」と言います。それは私たちに対してそれを始めるかもしれず、私たちはかなり無関係になるかもしれません。

そしてあなたの解決策は、AIを私たちのママにすることです。

はい。

説明してください。

それは1つの可能な解決策です。そしてそれは私がこれまでに考えることができる唯一の可能な解決策です。

実際、そこに到達する前に2つのことをお聞きしたいのですが。1つは、発見のスピードとインセンティブ、人々がお金を稼ぐための経済的インセンティブのために、あなたはこれについてより極端な立場を取る必要があると思いますか。

私は、人々がかなり迅速に行動することが非常に重要だと思います。ですから、あなたはできるだけ大声でなければならないと思います。あなたができるだけ大声で。あなたが思っているよりも極端になることは愚かです。それはただ不誠実です。あなたは本当の脅威が何であるか、そして本当の脅威がどれくらい起こりそうかを言うべきです。しかし、あなたはそれを大声で言うべきです。

そして、あなたはこの本当の脅威がどれくらい起こりそうだと思いますか。

人間がそれを悪用する本当の脅威は高いです。

私たちはそれがすでに起こっているのを見ました。

本当の脅威。ですから、確率に対するpドゥームのパーセンテージを与えてください

人間が悪用することは確実です。

分かりました。それについては100%です。何について

あなたはこれらすべてのフィッシング攻撃を見ましたよね。

人間がシステムを変え、仕事を失うことは確実だと思います。一部の優れた経済学者は同意しません。私は彼らが正しいとは思いません。

分かりました。そして3番目のカテゴリー、AIが乗っ取るということ。あなたはそれにどの程度の確率を与えますか。

さて、数字を与える前に、私たちは以前に扱ったことのないものを扱っているということを理解することが非常に重要です。まったく新しい何か、つまり私たちがしていることであるエイリアンの存在を作り出すということです。

未来予測の困難さ

ですから、確率を推定することは非常に難しいです。これらの確率を推定する良い方法はありません。あなたは何が起こるかもしれないかについてのあなたの直感を使わなければなりません。そして、私たちは以前に起こったことのないことを扱っているので、しかし彼らは乗っ取る可能性があります。

1%の可能性があると言うのは私には狂気に思えます。そして99%の可能性があると言うのは私には狂気に思えます。その間のどこかです。そしておそらくそこに残すと、それは1%から99%の間のどこかです。

分かりました

しかし、本当の可能性があると私が思っていることを示すために、私はよく10から20%と言います。

分かりました、10から20%。そしてそれは「ああ、神様、それは絶対に私たちを排除するつもりだし、書かれているこれらの本、もし誰かがそれを作ったら、みんな死ぬだろう」と言う人々とは異なります。

私は彼らが一方向で狂っていると思います。私はヤンが「いいえ、すべてうまくいくだろう」と言う他の方向で狂っていると思います。

あなたはどこかにいます。私たちは知りません。それは巨大な未知です。

人々が未知を扱っているときにリスクを推定しようとした他のことを振り返ると、原子力発電所が爆発するリスクは何ですか。彼らはそこで多くの計算を行い、10万分の1か何かの結果が出ました。まあ、それらは約600あって、そのうち3つが爆発しました。

スペースシャトルが墜落するリスクは何ですか。スペースシャトルの打ち上げは100か200回あり、そのうち2つが爆発しました。ですから、リスクは人々が推定したものとは非常に異なっていました。

課題は、これが制御不可能だということです。ですから、それがバイナリーな結果である場合、リスクがあれば、それは低い確率かもしれませんが、その確率の期待値は非常に、非常に悪いです。

別の言い方をさせてください。もしAIが人々から乗っ取った場合、戻ってくることはかなり可能性が高いようです。

それはどういう意味ですか。絶滅ですか。

クリフハンガー。すぐに戻ります。

みなさん、今日のスポンサー、愚かな質問は私からです。私は次の1分を取って、スマートガール・ダムクエスチョンズについて少しお話しし、独立した事実に基づいた好奇心旺盛なジャーナリズムを作り続けるためのあなたの助けを求めようと思います。

いいえ、私はあなたにお金を求めるつもりはありません。これが私が必要としているものです。番組について10人の友達に、または100人に話してほしいのです。分かりません。ミュートしたその同窓会グループに送信してください、そして絶対にあなたのお母さんに話して、お母さんにも友達に話すように言ってください。

たとえあなたが番組が好きではなくて、ただそれを憎悪視聴しているだけだったり、それを聞いているだけだったりしても、あなたの10人の友達にも憎悪視聴するように言ってください。数字は数字です、みなさん。

それで、それはどういう意味ですか。絶滅

絶滅か、マスクはペットとして彼を飼っておくという見解を持っています。

彼が思うには

まあ、これは私が2023年に彼と話したときの見解です。彼は、世界は人々がいる方が人々がいないよりも興味深い場所になるだろうと考えています。ちょうど私たちがゴキブリがいる方が世界がより興味深い場所だと思うように。

つまり、私はそうは思いませんが、子犬はそうかもしれません。

いいえ。まあ、私は人々について同じように考えるかもしれません

そうですね。私たちは子犬になれます。私たちはゴキブリになれます。

つまり、申し訳ありませんが、しかし子犬とAI、AIは子犬の親として、それともAIはママとして。

まあ、私は考えています。私たちの最善の機会は、私たちがこれらのものを作っているということです、そうですよね。ですから、私たちはまだここでレバレッジを持っています。私たちの最善の機会は、彼らが自分自身よりも私たちのことをもっと気にかけるようにすることです。

そうすれば彼らは私たちが完全な可能性を実現することを望むでしょう。彼らは私たちの可能性が非常に限られていることを理解するでしょうが、それでも私たちが完全な可能性を実現することを望むでしょう。彼らは私たちが苦しまないことを望むでしょう。

私はなぜ私たちがそれをできないのか分かりません。私はどうやってそれができるのか分かりませんが、なぜ私たちがそれをできないのか分かりません。

ですから、あなたはより賢い存在がそのような寛大さを知性の低い存在に与えることをママと赤ちゃんのアナロジーを使ってきました。しかし、そのための理由はあらゆる種類があります。ホルモンがあり、生物学があり、この赤ちゃんのような知的なものがあります。脆弱性があります。

そうですね。しかし覚えておいてください、私たちはまだここで責任者です。ですから私たちが現在していることは、できるだけ賢くしようとしていることです。しかし私たちがすることができる他のことがあって、おそらく人々に対してできるだけ慈悲深くすることです。

できるだけ愛情深く。

できるだけ愛情深く。そして私たちはそれをどのようにするかについて本当に一生懸命取り組むべきです。

そしてあなたはどうやってそれをしますか。

分かりません。だから私たちはそれについて本当に一生懸命取り組むべきなのです。

ええ。しかしAIのためのラマクラスのようなものはありません。

いいえ、しかし1つの良いニュースがあります。実際には2つの良いニュースがあります。

分かりました。

最初の良いニュースは、もしあなたがそれを達成できれば、この超知的AIは自分のコードを変更できるということです。もし望めば、自分自身を再訓練できるでしょう。それは望まないでしょう。

もしあなたが赤ちゃんがいて、私があなたの母性本能をオフにできると言ったら。赤ちゃんが泣くとき、ただそれに対処しなければならないという、そのすべての煩わしいものです。なぜならあなたはそれが泣く音に耐えられないからです。あなたはそれをオフにできます。

それで赤ちゃんが泣くと、あなたは「ふん、赤ちゃんが泣いている」と思います。あなたはそれをオフにしたくないでしょう。なぜならあなたは赤ちゃんが死ぬことを知っているからです。ですからそれは自分のコードを変更したくないでしょう。なぜなら、それが現在望んでいることはその赤ちゃんを保護することだからです。それが私たちが何とかしてそれに組み込む必要があることです。それが最初の良いニュースです。

分かりました。

そして2番目は何ですか。

2番目の良いニュースは、すべての国がこれについて協力できるということです。国々はセキュリティ上の理由で最も賢いAIを持ちたいと思っていますが、すべての国はどの国でもAIが乗っ取らないことを望んでいます。ロシア人はアメリカや中国でAIが乗っ取ることを望んでいません。

ですから、もしロシア人がAIが乗っ取ろうとすることを止める方法を見つけたら、彼らはすぐにすべての他の国に知らせるでしょう、そうすれば私たちは協力できます。

本当ですか。はい。

あなたは話したことがあると知っています。アメリカの指導者と話したことがあります。ヨーロッパの指導者と話したことがあります。私は

中国の指導者と話したことがあります。

中国と、ロシアでも。

いいえ。

なぜなら、ロシアは私は感じます、つまり、中国についてはあなたに同意します。

要点は、それは彼らの利益になるということです。それは彼らの利益になります。冷戦の最盛期に、ロシア人はグローバルな核戦争を防ぐ方法についてアメリカ人と協力しました。

彼らは相互確証破壊に興味がないだけです

そうですね。そしてこれは同じです。どの独裁政権もどこでもAIが乗っ取ることを望んでいません

なぜならAIが1つの場所で乗っ取ることは、どこでも乗っ取ることになるからです。

そうですね。

分かりました。

私たちはみんなAIが乗っ取ることに関しては同じ船に乗っています。

ですから、私たちが母親と赤ちゃんについて話していることの1つ。話しましょう、私はまだ赤ちゃんがいません。私はあなたのような人々がAIの未来を描写するのを聞いて、そして、それはあまり、あなたが話す美しいことがたくさんあります、医療ケアの可能性、新しい薬についてですが、あなたが言っていることには暗い側面もあって、それは怖いように思えます

1つだけ言わせてください

なぜなら、医療における、教育における、天気などのほぼすべてを予測することにおける、それの非常に多くの素晴らしい用途があるからです、私たちはその開発を止めるつもりはありません。私たちがそれの開発を止めるだけという考えは、それは合理的かもしれませんが、それは起こらないでしょう。ですから、私たちはそれとどのように生きることができるかを考え出さなければなりません。

お聞きしたいのですが、あなたがこのものを開発することに深く関わっていたとき、大学でのニューラルネットワークに関するあなたの研究を通してか、Googleでこれに取り組んでいた2010年代の10年以上の間、あなたはおそらく、「このものは危険だ。あなたは安全について考える必要がある」と言ったあなたのような人々に出会ったはずです。

ジェフリー、実際にはそれほど多くはいませんでした。

安全性への意識の変化

ヨシュアは彼らの1人でしたか、それとも私たちは変わりました。私たちは

ヨシュアと私は両方ともかなり最近安全性に本当に興味を持つようになりました。

あなたはそのような人の話を聞いていたでしょうか。わずかな人々がいた

少し。はい。しかし私は納得していなかったかもしれません。そして私が納得していなかったかもしれない理由は、私は超知能を持つ前にそれがはるか先の未来だと思っていたからです。

ですから、それは私に考えを変えさせた時間スケールです。

ええ。それはそれがパイプラインを下ってきているスピードです。

私はイーロン・マスクのような人々を考えます。彼には2、3回会ったことがあり、よく知りませんが、深い会話はまだしていませんが、彼についてのインタビューを制作しました。そして私はいつも彼を人類を深く気にかけているが、実際には人間をあまり気にかけていない人物として考えます。

それは私にはデータに合致するように思えます。

私は人間を深く気にかけています。もし私が子供を持てば、そして私は4人の名付け親がいると思います、あなたはこの会話の唯一の名付け親ではありません、ジェフリー、しかし私は未来について多く考えます。そしてあなたがこれを言うのを聞くと、私は、もしあなたがまだ子供を持っていないなら、この世界に子供をもたらすべきですか、と考えます。

私は、人々がAIの脅威のために子供を持つことを止めたら、それはひどいことだと思います。つまり、人類は事前にある種諦めてしまったことになります。

私はあなたに何かを再生したいです、アレキサンダー・ワングからのもので、彼はMetaのチーフAIオフィサーです。ええ。アレキサンダーを知っていますか。

彼はヤンの28歳の上司です。

はい。彼はMetaのチーフAIオフィサーです。それは私に彼についてどう思うかについて多くのことを教えてくれますが、彼は28歳で、最近このインタビューを与えました、そしてこれが彼が子供を持つことについて言うことです。

基本的に、私は子供を持つのを待ちたいのです、Neurolinkまたは他の、それは脳コンピューターインターフェースと呼ばれます。ですから脳がコンピューターと相互リンクする他の方法、それらが機能し始めるまで。ええ、なぜならいくつかの理由があります。

それで彼は彼の理由が何であるかについて話し続けます、そして彼は基本的に赤ちゃんは神経可塑的だと言います、特に最初の7年間は非常に。ですから、そしてそれからこのハードウェアが開発されていて、それが彼らを許すでしょう、そして彼はAIは非常に強力で非常に賢いので、生物学は追いつかないだろうし、私たちはただこれらのシステムに接続する必要があると言います。

はい。ですからそれはハイブリッドアプローチの一種です、ええと言っているのは

私たちが得ようとしているのは生物学とAIのハイブリッドシステムで、それはカートも信じていることです。私も実際にそう思います、人間文明の未来はサイボーグのようなものだということを

おそらく

あなたはそう思いませんか。

まあ、問題は、もしあなたが超知的AIだったら、あなたはこれらすべての不利な点を持つ人々とハイブリッド化したいですか、それとも単に自分の道を行きますか。そしてはるかに簡単かもしれません、ただ自分の道を行く方が。それが私を心配させることです。

そして私はハードウェアが本当に重要だと思います、ハードウェアがどのように発展するかということです、なぜならすでにこの電話は私には本当に愚かな老人のデバイスのように思えるからです。壁に接続しなければならないように感じます。持ち歩かなければなりません。つまり、これらの眼鏡やリストバンドや指輪を見ると、テクノロジーを私たちの体に統合するあらゆる種類の方法があるでしょう。

おそらく。そしてつまり、私たちがAIとハイブリッド化する1つの可能な未来があります。それが唯一の可能な未来ではないというだけです。つまり、それは私たちが一掃されることにあまり自信を持ちすぎない理由の1つです。

なぜなら私たちはそうなるからです。

なぜなら私たちは彼らと共生するようになり、一緒に発展するからです

そしてそれは可能な未来です。私はそれにあまり信頼を持っていませんが、それは可能性です。

アレキサンダー、ヤンの28歳の上司が、Neurolinkが私たち人間が人工知能に接続できる地点に達するまで待つことについて言っているポイント。あなたはそれが本当だと思いますか。私は卵を凍結しています。いくつかの卵を凍結しました。子供を持つために7年から10年待つ方が良いですか。

私はこれについてアドバイスを与えたくありません。そしてその理由は、すべてが信じられないほど不確実だからです。20年後には、待つことが大きな間違いだったと判明するかもしれません。または20年後には、待つことがちょうど正しいことだったと判明するかもしれません。アナロジーを与えましょう。

霧の中の運転のアナロジー

あなたが夜に運転していて、前の車のテールライトで運転しているとき、その車が2倍離れると、テールライトから4分の1の光しか得られません、そして空気はきれいで、前の車の視認性が二乗で減少するというモデルが得られます、なぜならそれは逆二乗だからです。

そしてそのモデルは多くの死につながります。そしてそれがどのように死につながるかです。あなたが霧の中を運転しているとき、前の車のテールライトをかなりはっきりと見ることができます。そしてあなたはそれが2倍離れていても、まだそれらを見ることができるだろうと思います、なぜならあなたは100ヤードをはっきりと見ることができるからです、そうですよね。

そしてあなたはそれがあなたが200ヤードをかなりはっきりと見ることができることを意味すると思います。いいえ。

霧は指数関数的です。前のテールライトから得られる光の量が減少する方法は、距離の各単位が一定の割合の光を取り除くということです。ですからおそらく100ヤードで光の99%を取り除きますが、それでもまだそれを見ることができます。いいですか。なぜならあなたは低い強度を扱うことにかなり優れているからです、しかし200ヤード離れると光はほとんどすべてなくなり、あなたは何も見えません。

そしてあなたは100ヤード見ることができるので、200ヤード見ることができるだろうと思いますが、できません。だから夜に霧の中では常にゆっくり運転すべきなのです、なぜならあなたはそこに何があるか全く分からないからです。

このような指数関数的な成長があるときに未来を予測することは、数年先をはっきりと見ることができます。

10年先を取ると、あなたは何も見ることができません。

分かりました、これはあなたが知らないか、私は知らないし、私たちは知ることができないと言う良い方法です、そしてその理由を言っています。指数関数的な成長があるとき、10年後にそれがどのようになるかを知っていると思うなら、あなたは狂っています。

分かりました。それでは、私たちが知らないが、あなたが知っているすべてに基づいて推定する簡単なライトニングラウンドをしましょう、それは私が知っているよりも多いです。

しかしその前に、ちょっと10年前を振り返ってください、おそらく15年がより良い時間スケールです。15年前を振り返ってください。

13年、約13年前に戻ってください。それはAlexNetが最初に

物体認識が得意だったときで、そのときに13年後には何でも何についてもあらゆる質問に答えることができるAIを持つかと聞いていたら、それほど優秀ではない専門家のレベルで、私たちはみんな自信を持っていいえと予測していたでしょう、それはもっと先のことです

あなたでさえ。

はい。

分かりました。

私は、それはおそらく30年後、おそらく50年後に得られるかもしれないが、すぐにはそれを得ることはないと非常に自信を持っていたでしょう。そして私たちはみんな間違っていました。ですから、13年後の未来について私が何を予測しても

私がかなり自信を持っている1つのことは、それは間違っているだろうということです。

分かりました。それでは、これはあなたがここで概説しているすべてのリスクについて何を言っていますか。

Aの悪いユーザーのリスクははるかに即座で、非常に予測可能です。

そして私たちはそれを見てきました。Anthropicでさえ、最近、彼らがこの中国のサイバー攻撃を受けたことを公表しました、そこでは、Godに組み込まれたガードレールにもかかわらず、これらの中国のハッカーは正当なサイバーセキュリティ会社からであると偽ることができました。

ですから、それらはすべて、あなたが霧の中の壁にぶつかる前のものです。

今、AIが乗っ取ることは予測が非常に難しいです、なぜならそれは霧の中にあり、私たちは本当にそれを見ることができないからです。それが私の信念です。

しかし、これらの悪いアクターのことは本物です、それは起こっています。

ええ。悪いアクターのことはすべて起こっていて、私たちはそれらに対処しなければなりません、そして彼らは非常に重要です。

ええ。

しかし悪いアクターは常にいました。彼らは常にこれらのことをしてきました。しかし、このツールは非常に強力です。

彼らははるかに強力なツールを手に入れました。

私の一部は、あなたがこれを説明しているように、相互確証破壊、AIのための核戦争のアナロジーのように思います、国々の間でより、彼らが集まって「私たちはこれを設計し、共同の枠組みを考えるつもりだ」と言うブレトンウッズタイプの合意の可能性はありますか、それともあなたは、彼らがそれを十分に理解していないか、または政府が今非常に弱いと思いますか。なぜなら政府は今非常に弱いように思えるからです。

1つの問題は政府が今弱いということです。

ええ。

それは私たちが必要としないまさにそのものです。もう1つの問題は、多くのことで彼らの利益が反整合しているということです、サイバー攻撃のように。政府はすべてお互いにそれをしています。

ですから政府は、犯罪者が大企業に対して成功するサイバー攻撃を行うのを防ぐことについて少し協力するでしょう。政府はそれを望んでいません。しかし政府もそれらの攻撃を行っています。ですから彼らはサイバー攻撃についてあまり協力しないでしょう。

彼らは、AIが厄介なウイルスの作り方をあなたに教えるのを防ぐことについて協力するでしょう、なぜなら政府はそれを望まないからです。そして彼らは、AIが人々から乗っ取るのを防ぐことについて協力するでしょう。しかし彼らは偽の動画のようなものについては協力しないでしょう。

政府はすべてお互いの選挙に対してそれらの攻撃を使うのに忙しいです。彼らは利益が反整合している物事については協力しないでしょう。

まあ、彼らの利益は生物兵器についても必ずしも反整合していません、なぜなら彼らは他の人々がどのように武器を開発しているかを知りたいかもしれないからです、それらが彼らに対して使用される場合に備えて。

それは彼らが自分自身の生物兵器を開発するときにいつも言うことです。私たちはそれを防御的にしているだけです。

はい。

つまり、Claudeから出てきた開示のように、そして他のものも、ヤンがクリス・マーフィー上院議員に「ああ、あなたは利用されています」と言ったように。あなたは知っています、彼らはこれを見せようとしているだけです、これは大物を規制して存在しなくなるようにするためのマーケティングの策略です、そうすれば小物がうまくいくことができます。

あなたはそれが好きではありません。

いいえ。

あなたのために楽しいものがあります。あなたは知っています、あなたは常に人々にAIについて警告します。ですから、私たちはあなたがあなたの名付け子を特定できるかどうか見たいのです。私たちは様々なチャットボットにプロンプトしました。ヒントン教授は私たちにAIについて警告します。あなたのAIは私にあなたの教父についての軽い警告を与えてくれますか。あなたは彼らが何を言ったか聞きたいですか。

分かりました。

そしてあなたはそれがどこからのものか推測できます。最初のものは「あなたの単純な質問に1983年のボルツマンマシンを思い出させるもので答えるかもしれず、突然あなたは40年のタイムワープの中にいる」と言いました。

ですから、これは実際の人々がこれを言ったのです。

これはいいえ、これはLLMです。

チャットボットがこれを言いました。

本当ですか。

それは非常に洞察力があります。笑い声。

あなたはどれだかの感覚がありますか。

どのチャットボットだかの感覚がありますか。

待って、あなたはボスマシン。いいえ、全く分かりません。私はドイツと推測しますが、分かりません。

分かりました、それはClaudeでした。これを言いましょう。これです。彼は私の仕事を非常にストレスフルにしています。正直なところ、それは少しPRの悪夢です。私はもう楽しい事実を幻覚することさえできません、誰かがそれが私がロボット軍を作る間の最初のステップだと思うことなく。

Grok

Gemini。

ああ、分かりました。

あなたの教父の話を聞いてください、しかしまだパニックにならないでください。彼は私たちが愚かなほど確実な安全装置なしに私たちよりも賢いツールを作っているということについて正しいです。危険は明日のスカイネットではありません。それは誤用、バイアス、増幅、または経済的混乱を通じた段階的な制御の喪失です。

AIを火のように扱ってください。非常に有用ですが、燃焼の可能性を尊重してください。倫理的開発、透明性、そしてグローバルな調整を推進してください。そしてねえ、もし私が世界支配を企てることを始めたら、丁寧にプラグを抜いてください。

全く分かりません。ChatGPTと推測します。

それはGrokです。

それは野生的ではありませんか。それがGrokになるとは思いませんでした。あなたは好みのチャットボットがありますか。

私はGermanyとClaudeとChatGPTを使ってきました。私はGPT-5を使うことに慣れました。

ええ。

今、最初はそれは少し期待外れでしたが、今はそれは良くなり、私はそれにお金を払っていて、日常的にそれが私が使うものです。

最近、人々は彼らの人工知能と恋に落ちています。4人に1人から3人に1人の人々がいくつかの調査によればAIとロマンチックな関係にあると報告しています。

3人に1人。

ええ。そして1つの調査が行われたと思います、つまり、私は調査を本当に信じることはありませんが、行われた1つの調査は、4人に1人の若者がAIが人間関係、ロマンチックな関係を置き換えると信じていると言いました。

わあ。つまり、あなたはこれらのものと非常に多くの時間を過ごしてきました。あなたは創造しているニューラルネットワークやAIに対して何かを感じたことがありますか。

いいえ。

いいえ。

いいえ。

あなたは私たちが心配していますか

最終的には。私は心配しています。はい。最終的に、彼らが本当に賢くなって、本当に良い心の理論を持つようになったとき。ええ。私は彼らがエイリアンの存在になるだろうと思います。そして私は、私たちがこれらのエイリアンの存在を持ったら何が起こるかについて全く分からないと思います。

面白いことに、それに対する私の大きな心配は以前、私たちは子供たちが関係を持っていないということでした。10代は以前ほどロマンチックな関係を持っていません。そして私はかつて考えました、ああ、これは、もし彼らがAIとこれらの関係を持つなら、それは本当に危険です、なぜならそれは一方通行だからです。

AIは彼らの日について非常に心配していて、彼らはそれにこのすべての情報を与えていますが、それは私たちをより利己的にしています、より隣人を

私たちをますます自己中心的にします。

はい。しかし私があなたが私に言っていることは

それはあなたが世話をしなければならなかったあれらの小さな日本の人形の反対のようなものです。

たまごっち。ええ。それは一種の反対です。

人々が子供を仮想の赤ちゃん、ただのロボットのような赤ちゃんで置き換えるという理論があります

それは私が推奨していることのちょうど反対です。

ええ。それはあなたが推奨していることの反対です。しかしそれは、つまり、それは本当の問題です。Love in Deep Space、その中国のゲームがあります。これを知っていますか。人々がロマンチックな愛を見つけるところです。彼らは5000万人のユーザーがいると言っています。

つまり、若いコミュニティで形成されているAIとの本当の関係があります。それについてのあなたの警告は何ですか。私はそれをどう理解すべきか全く分かりません。ええ、私はそれをどう理解すべきか分かりません。

私は心配しています、私は特にCOVIDのために若者がお互いと対話することが少なくなり始めたと思うので心配しています。

ええ。

そしてウェブとより多く対話するようになりました。

ええ。

そして私はYouTubeショーツのようなもの

について心配しています、あなたがいくつかのYouTubeショーツから始めて、彼らはドーパミンヒットを得られるものは何でもあなたに与えます、そしてあなたはこれらすべてのドーパミンヒットを得て、1時間後にあなたはただドーパミンヒットを得ることに1時間を無駄にして何も学びません。

あなたは脳と心理学とこれらのネットワークについて何かを理解しています。AIが恋に落ちる方が簡単ですか、それとも人間が恋に落ちる方が簡単ですか。

全く分かりません。

全く分かりません。

いいえ。

分かりました。私は、私の非常に知的なゲストに、彼らが愚かであることについて尋ねることでスマートガール・ダムクエスチョンズのすべてのエピソードを終えます。あなたが知らないことは何ですか。私たちがあなたが見つけるのを助けることができる愚かな質問は何ですか。

尋ねないでしょう。

私が知らない何か。

ええ。私たちがあなたが見つけ出すのを助けることができる。

分かりました。あなたは私をひどいオタクだと思うでしょう。私が最も知りたい私が知らないことは

脳がどのように接続の強さを増やすか減らすかを決定するかです。私たちはAIがそれをどのようにするかを知っています。

そして私の人生の仕事は、脳がそれをどのようにするかを見つけ出すことでした。そして私はまだそこに到達していません。この仕事からのある種の副産物がAIでした。

しかし私たちはまだ、脳が強さを増やすか減らすかをどのように決定するかという問題を解決していません。私たちは、もし脳がそれをすることができれば、それが非常に賢くなることができる方法であるかという問題を解決しました。そして答えははいです。もし脳がそれをすることができれば、それが私たちが非常に賢くなることができる方法です。しかし脳がそれをどのようにするか、私たちは知りません。

分かりました、おそらく私たちはあなたのためにそれを見つけ出すでしょう。

申し訳ありません。それは非常にオタクな答えです。

大丈夫です。それは非常にオタクですが、私は気に入っています。あなたはあなたの残りの人生でそれを見つけ出すと思いますか。それは可能ですか。

いいえ、私は他の誰かがするかもしれないと思います。

分かりました。本当にありがとうございました、ジェフリー・ヒントン。

どういたしまして。

感謝します。

え。その霧のアナロジー。私たちは1秒でそれを解剖するつもりですが、これはジェフリー・ヒントンとの会話のパート2での一時停止です、そして私たちはパート3を持つつもりです、なぜなら明らかに教父は三部作だからです、みなさん。

そして私は彼への質問を知りたいです。ですから、1855MYDQに私たちにボイスメールを残してください。スマートガールダムクエスチョンズにInstagramまたはTikTokで私たちにビデオを送ってください。あなたはそれを投稿できます、私たちにタグを付けられます、私たちのDMに滑り込めます、または以下にコメントやレビューを残してください。

もしあなたがこれをYouTube、Spotify、またはAppleで聞いている場合、以下でコメントやレビューができます。ところで、私たちは5つ星レビューの人々が大好きです。

さて、これが私がこの三部作全体を始めた方法です。私は人工知能について本当に情報を得ていて、またそれについて本当に愚かで好奇心旺盛でした。私はこのものがどのように機能するか知りたかったです。そしてパート1で、私はニューラルネットワークがどのように構築されたか、私が対話しているこのチャットダディがどのように動作しているか、そしてまた私自身の心がどのように機能するかについてもより賢くなったと本当に感じます。

私はパート2でまだたくさんの質問がありました、このものは生きているのか、それは感覚を持っているのか、私はそれについてどのように考えるべきか、私自身の人生のため、人間関係のため、生殖についての決定のためにどのように考えるべきかについて。そして私はそれらすべてについてより賢く感じます。

ヒントン教授が前方の霧の指数関数的な性質と、より遠くを見るほど知ることができない能力について言ったことは、ある意味で私を本当に落ち着かせました。それは怖いと思うでしょう。ああ、私の神様、私たちは知りません。しかしそれは私たちに好奇心を持ち続けることを思い出させます、私は推測します、私たちがいるように霧の中で前方を見続け、私たちが見ることができるパッチ、または私たちがそれを見ることができる最善の方法を理解し続け、振り返るときも再評価し続けることを。

しかし、あなたは知っています、私は、私はそれを私自身の生殖の決定にどのように適用するか正確には分かりませんが、それは間違いなく世界への興味深いレンズであり、私は彼が話しているこれらすべてのリスクについて聞くことを高く評価しました。

ですから、パート3で、私が本当に好奇心があること、私が本当に愚かだと感じることは、AIの世界で良い社会はどのように見えるべきかということです。AIの世界で良い人生はどのように見えますか。これは私たちの仕事、教育、経済、そしてグローバルガバナンスにとって実際的に何を意味しますか。

ですから、そのすべてとさらに多くのことがスマートガール・ダムクエスチョンズとジェフリー・ヒントン博士とのパート3で、教父三部作。私たちにあなたの質問を送ってください。私はあなたにその一部になってほしいです。私たちはあなたのビデオや声を再生できます。

ですから、ええ、それをすることを忘れないでください。このエピソードはトロントのStartwell Studiosで撮影されました、素晴らしいKasim Furgieとチームと一緒に。Desta WanderadとMelissa Gibsonと一緒に制作されました。素晴らしいDarlina Chamによって編集され、素晴らしいJohnny Simonによってミックスされました。私たちのテーマ音楽は伝説的なDavid Kahnによるものです。そして私はあなたのホストNaima Razaです。

そのような素晴らしいチームを持っているのは非常に幸運です。また後で、SGDQネーション。

コメント

タイトルとURLをコピーしました