AIの父:私たちが皆抱いている素朴な疑問を彼に聞いてみた

AGI・ASI
この記事は約47分で読めます。

本動画は、「AIの父」として知られるノーベル賞受賞者ジェフリー・ヒントン教授への包括的なインタビューである。ヒントン教授は、人工知能の基礎から最新の大規模言語モデルまで、AIの仕組みを丁寧に解説している。特に、シンボリックAIと対比される形で、ニューラルネットワークがどのように脳の神経細胞間の接続強度を変化させることで学習するのかを、鳥の認識という具体例を用いて説明する。また、現在のAIが持つ潜在的リスク、特に自己保存本能を獲得する可能性や、人間より説得力を持つようになることへの懸念を表明している。ヒントン教授は、AGI(汎用人工知能)やASI(人工超知能)が今後10年から20年以内に実現する可能性が高いと予測し、人類がこの存在をコントロールし続けられるかどうかについて深刻な疑問を投げかけている。

Godfather of AI: I Asked Him The Dumb Questions WE ALL HAVE
We all pretend to understand AI but Dr. Geoffrey Hinton actually does. NOTE: THIS IS PART I OF A GODFATHER TRILOGY — *YO...

私が話す時はあなただけを見ます。はい、お互いを見ながら話しましょう。ずっと。断定的な発言をしたい時以外は。私たちは皆死ぬことになります。スマートガール・ダムクエスチョンズです。私たちのAIの未来はどうなるのか、そもそもAIとは何なのか。私はネイヤール・ラザです。これはスマートガール・ダムクエスチョンズで、今日のゲストはジェフリー・ヒントン教授です。

彼は半世紀を人工知能と機械学習の研究に費やし、2018年にチューリング賞を、2024年にノーベル賞を受賞し、誰もが憧れる「AIの父」というニックネームを獲得しました。どのタイトルが一番お気に入りですか。ノーベル賞です、明らかに。ノーベル賞受賞者です。

あなたはトロント大学の名誉教授でもあり、OpenAIやMetaなどで活躍する最も影響力のある頭脳たちと教え、協力してきました。でも私はあなたのノーベル賞受賞スピーチを見ていて、あなたがAIのリスクについて警告していたのが印象的でした。少し音声を再生させてください。

近い将来、AIは恐ろしい新種のウイルスや、誰を殺すか傷つけるかを自ら決定する恐るべき致命的兵器を作り出すために使われるかもしれません。これらすべての短期的リスクは、政府や国際機関からの緊急かつ強力な注意を必要としています。また、私たち自身よりも知的なデジタル存在を作り出した時に生じる、より長期的な存亡に関わる脅威もあります。私たちがコントロールを維持できるかどうかは全く分かりません。

あなたは明らかにAIの利点についても話していますが、あなたがこれらのことを言っている間、人々は当たり障りのないスウェーデンのミートボールを食べながら、お互いの目を避けているわけです。実際には、その食事を準備したミシュランスターシェフたちは、あなたが当たり障りのないスウェーデンのミートボールと言うことに相当腹を立てるでしょう。

つまり、それらは当たり障りのないスウェーデンのミートボールではなかったのですが、あなたがそのようなことを言う時、部屋が静まり返ることを期待していたはずです。はい、特にそうはなりませんでした。それについてどう思いますか。人々はAIの脅威を真剣に受け止めることが非常に難しいのです。私自身でさえ、感情的にそれを真剣に受け止めることが難しいのです。

核兵器の脅威のようなものではありません。核兵器は爆発して人々を一掃するという、非常に理解しやすいものです。私たち自身よりも賢いエイリアンのような存在を作り出しているかもしれないということを理解するのははるかに難しいのです。それはまるでSFのように聞こえます。人々はそれを真剣に受け止めません。

あなたは専門家です。だから私は人々にあなたのリスク警告を聞いて真剣に受け止めてほしいですし、当然疑問も持ってほしいです。でも、まず人工知能とは何かを説明することから始めたいと思います。なぜなら私は多くの人々とAIについて話しますが、私自身を含め多くの人が完全には理解していないと感じるからです。同意しますか。あなたは一日中人々と話しています。ええ。AIについてコメントするほとんどの人は、実際にはそれがどのように機能するかを理解していません。

あなたがインタビューに座っていて、誰かが人工知能について話している時、その人がこの仕組みを本当に理解していると感じることが多いですか。理解している人もいれば、していない人もいます。ほとんどは理解していません。そして彼らが理解していない時、私たちがどう考えるべきかの舞台を設定するように尋ねてくることは非常に稀です。

私が考えてきた方法は、農業革命、産業革命、AI革命です。それは非常に良い考え方です。そのスケールです。はい。では、インターネットは革命ではなかったのですか。そのスケールではありません。そのスケールではありません。そして、それは農業革命のようにゆっくりだが世界を変えるものになるのでしょうか、それとも産業革命のように速く激しいものになるのでしょうか。産業革命にずっと近いです。

産業革命は例えば多くの農業労働を置き換えました。これは多くの平凡な知的労働を置き換えることになります。だから雇用に大きな変化をもたらすでしょうし、多くの人々が大規模な失業を引き起こすかもしれないと非常に心配しています。

それについてもあなたと話したいですし、ミレニアル世代やZ世代が、そのような世界で子供を持つべきかどうかについても話したいです。つまり、それは私があなたに聞きたい大きな質問で、それにも触れます。でもまず、人工知能とは何ですか。

1950年頃、知的システムを作るための2つのパラダイムがありました。2つの全く異なるパラダイムです。1つは、知性のモデルが論理であるシンボリックAIの一種でした。だからもしあなたがソクラテスは人間である、すべての人間は死すべきものであると言えば、ソクラテスは死すべきものであると導き出すことができます。これが古い事実から新しい事実を導き出す方法でした。論理です。論理ですね。はい。多くの人々は知性はそのように機能するに違いないと考えていました。それは何らかの論理に違いないと。

だから古い事実から新しい事実を導き出すことができます。全く異なるアプローチがあり、それは、私たちが知っている唯一の本当に知的なものは人間であり、人間の脳は脳細胞間の接続の強さを変えることによって機能するというものでした。だから、私たちの頭の中で何らかの論理が起こっているかではなく、脳内の接続の強さをどのように変えるかに焦点を当てるべきかもしれません。そうすれば知的システムができるかもしれません。特に、おそらく推論に焦点を当てるべきではありません。

推論は生物学的には非常に遅く現れました。多くの推論ができるようになる前に、私たちは知覚ができました。私たちは自分の体を制御できました。だから、それに焦点を当てるべきかもしれません。なぜなら、それが脳が多くの推論をする前に進化したことだからです。

あなたは脳が細胞間の接続の強さを変えると言いました。はい。そしてこれは、狩猟採集民も昔からできたことです。誰でもできます。彼らは見ることができます。つまり、脳が推論する前に、脳が推論するずっと前に、鳩でもこれができます。脳が推論するずっと前に、赤ちゃんの脳でさえ、最終的にはああ、あれは平らに見える物体だ、4つのものがあるとわかり、それからその単語がテーブルであることを学びます。

脳はどのように接続を強化するのですか。それは大きな未解決の疑問であり、実際今もそうです。だからそれを2つの疑問に分解できます。1つは、もし脳が脳内の各接続強度について、それを少し増やすか少し減らすかを決定する方法を見つけられれば、それが試みている何らかのタスクでより良く機能するようにするために、その場合、たくさんのランダムな接続から始めて、接続強度を増減させるこの方法を使うだけで、実際に複雑なことを学習するでしょうか、それとも単に行き詰まるでしょうか。

そして答えは、圧倒的な信念は単に行き詰まるだろうというものでした。たくさんの生得的な知識から始めなければならず、それは脳細胞間の適切な接続強度の形をとるでしょう。そうすれば、おそらく多くの生得的な知識があれば、経験とともに少し改善できるかもしれません。それが一般的な信念であり、それは単に間違っていました。

そして私たちが今示したのは、もしあなたがやっている何らかのタスクでより良くなるために各接続強度について少し増やすべきか少し減らすべきかを決定する方法を見つけられれば、これらの大規模言語モデルのような信じられないほど複雑なことを学習できるということです。

つまり、それは脳の神経性、脳が意味を成し互いに接続する能力がそれを強力にするのであって、脳内の何らかの生得的な知識ではないということですね。この学習能力は、何らかのタスクでより良くなるように接続の強さを変える能力です。そして、あなたは子供の時にそれをより上手にできますよね。はい。

そしてあなたはより神経可塑性があるからです、と彼らは言います。では、AIは赤ちゃんと同じくらい神経可塑性がありますか。非常に良い質問です。だから私たちが今知っているのは、接続強度を増やすべきか減らすべきかを判断する方法を見つけられて、すべての接続強度に対して同時にそれができれば、非常に賢いシステムを作れるということです。

しかし、おそらく脳がそれを判断する方法と現在のAIがそれを判断する方法には違いがあります。そして、脳の方法は私たちが持っているものよりもある意味で優れていて、ある意味で劣っている可能性が十分にあります。なぜなら、それは少し異なる問題を解決しているからです。私たちが持っているAIは約1兆の接続しかありません。たった1兆です。

私たちはそれ以上持っています。私たちは脳内に実際には約100兆の接続を持っています。はい。つまり、私たちの脳は最も賢いAIの約100倍の接続を持っていますが、経験はほんのわずかしか得られません。だから私たちは約20億秒生きます。1秒に10回の経験を得られたとしても、それが最大で、眠らなかったとしても、それは200億にしかなりません。

これらの大規模言語モデルは数兆もの経験で訓練されています。だから彼らは膨大に多い経験と膨大に少ない接続を持っています。それは彼らが私たちの脳よりも多くのストレージを持っているからですか。いいえ。私たちは彼らよりも多くのストレージを持っています。なぜならストレージは接続の中にあるからです。

だからストレージは実際には100兆ですが、私たちはそれを埋めることができません。なぜなら十分な時間がないからです。おそらく最適に使用することができません。なぜなら十分な時間がないからです。だからあなたはウェブ上のすべて、ウェブ上で公開されているすべてを読む十分な時間がありません。

これらの大規模AIはそうしますが、それはより多くの時間があるからではなく、より速く処理しているからですよね。2つの理由があります。1つはより速く処理していることですが、もう1つは彼らがデジタルだということです。デジタルシステムでは、多くのコピーを作ることができます。

だからこれらのAIでできることは、異なるハードウェア上で動作する多くのコピーを持つことです。各コピーはインターネットの1つの部分を見て、接続強度をどのように変更したいかを判断し、それから互いに通信します。そして、彼らは全員が望むものの平均によって接続強度を変更します。

そして今、各コピーは他のすべてのコピーの経験から利益を得ています。だから、もし1000のコピーがあれば、彼らは1つのコピーの1000倍の経験ができます。そして、接続強度の変化を平均化することで、すべてのコピーがそれらすべての経験から学ぶことができます。それは、私が経験をするたびに、私のすべての兄弟姉妹が同じ経験をするようなものです、例えば。

そして、あなたのすべての兄弟姉妹があなたの経験から学ぶでしょう。それは素晴らしいことではないでしょうか。彼らは反対のことをしているようです。実際、彼らは私になぜかを教えてくれます。はい、兄弟姉妹というのは。これは興味深いです。なぜなら、あなたが言っているのは人工知能がより集団的だということです。共有することがはるかに優れています。

もし全く同じニューラルネットワークの複数のコピーがあり、その接続強度を全く同じ方法で使用していて、それをするためにはデジタルでなければなりません。そうすれば、これらの複数のコピーは学んだことを共有できます。そして、もし1兆の接続があれば、彼らが接続強度をどのように変更したいかを共有する時、約1兆ビットを共有しています。

さて、私があなたと共有する時、はい、たとえあなたが文を完璧に理解したとしても、文ごとに100ビット程度を共有しているに過ぎません。だから彼らは共有において私たちより数十億倍優れています。すごい。そして、私たちは彼らにこれをする能力を共有しました。はい。

あなたのような人々、ヤン・ルカン、ヨシュア、あなた方は皆、これらのようなニューラルネットワークが存在するのを助けて訓練するAIの父たちでした。だから私たちがしたことは2つあります。私たちはそれらを訓練する方法、どのように接続強度を変えるべきかを理解しましたが、それから私たちは彼らにたくさんのデータを与え、データから彼らはどの接続強度を使うべきかを理解しました。そして私たちは彼らがデータから何を抽出したかを実際には知りません。

だから通常のコンピューターソフトウェアとは違います。通常のコンピューターソフトウェアでは、コード行を書き、プログラムを書いた人は各行が何をすることを意図していたかを教えることができます。それをしないかもしれませんが、何をすることを意図していたかは教えることができます。

これは全く違います。私たちはコード行を書き、それらが何をすることを意図しているかを正確に知っています。それらは、データを見た時に接続強度を増やすべきか減らすべきかを判断できるようにすることを意図しています。しかし、それがすべてから何を学ぶかは、私たちは知りません。

接続強度を増減させるというのは、実際にはどういう意味ですか。私の心では、私はそれを、画像を処理する自分の心の一部があると考えます。私は、あれはドラムだと言います。そして私の手を制御する心の一部があります。ドラムを叩けと言えます。

スタジオの隅にドラムがあります。おそらく何について考えるべきかを考えていた心の一部、何らかの実行機能があって、それがドラムを集めたのでしょう。なぜなら私がそれを見ているから。接続とは私の脳のこれらの異なる部分間の接続ですか。

それはたくさんの接続で、それは脳のこれらの異なる部分間の大きな経路です。しかし、その経路の1つの中で、例えば視覚をするための経路内で、物体を認識するために、非常に多くの接続強度があります。約3分の1の脳がそれに関与しています。なぜなら私たちは基本的にサルであり、サルは非常に視覚的だからです。

だからその経路には、どのように物体を認識するかを決定する非常に多くの接続強度があり、それらはほとんど学習されます。だからもしお望みならその例を挙げることができます。はい。私があなたに画像を渡し、あなたはそれが鳥かそうでないかを教えなければならないタスクを取り上げましょう。

さて、鳥の画像について考えると、顔に近づいて噛もうとしているダチョウの画像があるかもしれませんし、遠くにいるカモメの画像があるかもしれません。どちらも鳥です。だから、ピクセルを直接見ることでは、それが鳥かどうかは分かりません。抽象化が必要になります。さまざまな特徴を見つけなければなりません。

人間の視覚システムがどのように機能するかを非常に大まかに説明します。そして、これは実験によって発見されました。脳細胞に電極を突き刺すことによって。主に猫とサルで。主に人間ではありません。fMRIのような。いいえ。fMRIは実際には血流を見ています。しかし、血流はニューロンが「やあ、私は活発になっているから血液がもっと必要だ。もっと力が必要だ」と言うことによって引き起こされます。

そして、それは多くの、多くのニューロンを見ています。各ピクセルには通常数百万のニューロンがあります。MRIの各ピクセルは血流であり、それは私は正確な数は知りませんが、数十万の脳ニューロンの活動の指標を与えています。だからそこで個々のニューロンを見ているわけではありません。

個々のニューロンはいつ見えますか。電極を突き刺してニューロンに刺す時、または活発になると光る光学染料を使う時に個々のニューロンが見えます。分かりました。そうすればニューロンをはるかによく見ることができます。しかし、fMRIは非常に非常に粗いです。それは宇宙空間から人間の活動を見るようなものです。

そして、あなたが見るのは、例えば、デトロイトが暑くなると、南オンタリオの一部も数年の時間スケールで暑くなることです。そして、あなたが発見しているのは自動車産業です。自動車産業が相関関係を引き起こします。fMRIはそのようなものです。そして、あなたが話しているのは個々の人間の活動と比較して、それは脳細胞のようなものです。それは脳細胞のようなものです。

私たちが知っているのは、光が網膜の光受容体に入り、それを電気信号に変換して、いくらかの処理をすることです。それから視神経を通って脳に送られ、少し後、脳の1段階後に、小さな縁の部分を検出する多くのものが得られます。これは私が与えている簡略版です。はい。そして、少し後とはどのくらいですか。ミリ秒ですか。

約30ミリ秒後です。そして、あなたが持っているのは、異なる場所、異なる方向、異なるスケールで小さな縁の部分を検出する多くのニューロンです。だから、それらの検出器の1つをどのように作るかを教えましょう。

だから、ピクセルで構成される画像があるとします。グレーレベルの画像にしましょう。今は色はありません。各ピクセルには明るさ、どれだけ明るいかがあります。そして、この側が明るくその側が暗い小さな垂直の縁を検出したいとします。

私がすることは、例えばここに3つのピクセルの列を取り、それらのピクセルを見ているニューロンを持つことです。そして、それらの3つのピクセルに大きな正の重みを持ち、その隣の列の3つのピクセルに大きな負の重みを持つでしょう。

だから今、それらが等しい明るさであれば、そのニューロンはこちら側からたくさんの正の入力を受け、こちら側からたくさんの負の入力を受け、何も起こりません。それらはキャンセルされます。そのニューロンがすることは、この画像にあるものは私にとって興味がないと言うだけです。それは私が探しているものではありません。

なぜなら、それはすべての縁で十分に明るくないからです。なぜなら、それは一方の側で明るく他方の側で暗くないからです。だから混乱しています。それが発火する唯一の条件は、この側のピクセルが明るく、この側のピクセルが暗い場合です。なぜならそれが縁だからです。なぜならそれは縁だからです。なぜなら、それは私にこれは何かでそれは何もないと教えてくれるからです。

それは私にこの側が明るくその側が暗いと教えてくれます。だからここに縁があります。はい。わかりました。だから私たちは縁検出器の作り方を発見しました。はい。今、最終的には縁検出器を作ることを学習させますが、それはそうするでしょう。しかし今のところ、私がそれを手配線したとしましょう。それはAI、ニューラルネットです。

だから、今私はニューラルネットを手配線して鳥を検出する方法を説明します。接続強度がすべて完全に正しくないので、あまり良くないでしょう。しかし、私がどのようにアプローチするかは次のとおりです。私は、そこに小さな垂直縁検出器を作ります。そして、水平縁検出器も作ります。ここで明るいピクセルとその下の暗いピクセルを探すものを作ります。

それを見つけると、「ピン、水平の縁を見つけた」と言います。そして、他のあらゆる方向の縁を探します。そして、画像のあらゆる場所でそれをします。そして、異なるスケールの縁に対してそれをします。雲があるかもしれません。はい。これは時々新聞で見るすべての点があるゲームのようです。実際にはそうではありません。

そうですか。いいえ、それが私がイメージしている方法です。だから、雲があります。私は雲を持っています。雲には鋭い縁がありません。だから、鋭い縁を探すこれらの小さなものは縁を見つけません。なぜなら、雲の縁は非常に柔らかいからです。それは暗いから明るいへと徐々に変化します。

だから、私たちに必要なのは、たくさんのピクセルを見るニューロンです。正の重み、正の接続強度でここにたくさんのピクセルを見て、負の接続強度でここにたくさんのピクセルを見ます。そして、もしこれらすべてがそれらすべてよりも明るければ、「ええ、私たちはここに大きなぼやけた縁を持っています」と言うでしょう。

だから、それはよりぼやけたものを探している異なるスケールの検出器です。しかし、これをどのように構築しますか。あなたはこれをコードにプログラムします。最初に、私はこれを手配線する方法を説明します。はい、あなたはそれを手配線します。はい。だから、私は手でこれらすべての接続文字列を設定します。これは宇宙の端よりも長くかかるでしょうが、それについては心配しないでください。私は非常に辛抱強いです。

私は手でこれらを設定します。そして、画像全体でそれをします。そして、数十億、または約10億のこれらの小さなニューロンになるかもしれません。おそらく1億だけかもしれませんが、とにかくたくさんです。そして、それは異なるスケールと方向の小さな縁の部分を検出しているだけです。だから、それが最初のニューロン層がすることです。

今、次の層があり、それは縁の小さな組み合わせを探します。だから次の層で、例えば、そのように出会う縁を探すニューロンを持つかもしれません。だから、2つの縁が、あなたは指を少し三角形の形で合わせています。はい、それらは小さなくちばしかもしれません、例えば。それは他のあらゆる種類のものかもしれません、そうですよね。しかし、それは矢印の頭かもしれませんが、くちばしかもしれません。

だから、私がそれをする方法は、次の層にニューロンを持つことです。それは、この縁を検出するすべてのこれらの縁検出器によって興奮し、この縁、水平縁と斜め縁を検出するすべての縁検出器によって興奮しますが、他の何にも興奮しません。

だから、このニューロンが興奮してピンと鳴るためには、このような縁とこのような縁を見つける必要があります。この小さな縁の組み合わせを見つけると、ピンと鳴ります。それは私の頭にくちばしを認識するだけの文字通りのくちばしニューロンがあるということですか。

これは私がそれを手配線する時です。はい。そしてはい、あなたはおそらくそのようなものを持っています。本当ですか。はい。私の脳には何個のニューロンがありますか。1000億よりも少し少ないです。そして、1000億という数字と100兆という数字は互いに関係がありますか。それらは順列のようなものですか。

各ニューロンはいくつかの接続を持っています、そうですよね。通常1000から10000の間の接続です。だから、ニューロンの数に1000または10000を掛けると、大体接続の数が得られるという数学的な核心的な接続があります。分かりました。誰もこれらの数字を確実には知りません。はい。

人間の脳のニューロンの数の最良の推定値は約860億だと思います。860億です。そして、それはサルをつついたり、私たちをつついたりすることからですか。脳の小さな部分を見て、もしあなたがこの認識システムを手配線するとしたら、それは縁から始まり、それからくちばしのような特定の縁を認識することから始まると思います。

くちばしのような。そして、その層では、円を形成する一連の縁も認識するかもしれません。それは潜在的な目です。今、それはあらゆる種類のものかもしれません。それはボタンかもしれません。それは車輪かもしれません。はい、絶対に。次の層では、くちばしを認識し、潜在的なくちばしを認識するかもしれないものがあります。潜在的な目を認識するかもしれません。

それから、おそらくその上の層で、今は第3層です。はい、第3層です。今、この辺りでくちばしを見つけたと思うものから来る大きな正の接続を持っているものがあります。だから、この種の領域のくちばしは、この人を興奮させるでしょう。

だから、それはあなたが見たものの物理的な位置についてです。この一般的な領域でくちばしを探しています。それはまた、この一般的な領域で目を探しているかもしれません。だから第3層は文脈ですか。第3層はこれらの特徴の組み合わせを探しています。

それは例えば、くちばし、潜在的なくちばしを探しています。あなたはまだそれがくちばしだと知りません。それは矢印の頭かもしれません。そして、ここに円があります。あなたはそれが目だと知りません。それはボタンかもしれません。しかし、それらが正しい空間的関係にあれば、それは鳥の頭である可能性がはるかに高くなります。

だから、層を要約したいです。最初の層は単なる縁です。これは何か、これは何もない。第2層は、これらの縁が何らかの形を作ります。円などの特徴です。そして第3層は、これらの形が互いにどのように関係しているかで、ああ、円が三角形の近くにあるから、これは顔になり始めているかもしれないと教えてくれます。

この場合、これは鳥の頭かもしれません。さて、その同じ層で、鳥の頭を検出するこれらのものを持つことに加えて。だから今、私たちは第4層にいます。いいえ、私たちはまだ第3層にいます。それは、潜在的なくちばしと潜在的な目の組み合わせを検出していて、正しい特別な関係にあるから鳥の頭かもしれないと言っています。

また、このように見える多くのものを探しているものもあるかもしれません。それは鳥の足かもしれません。4つ。あなたは4本の指を出しています。はい。または鳥の翼の先端かもしれない羽のようなものを探しているものもあるかもしれません。これは簡略化されたシステムの戯画です。

しかし、この層では、鳥の可能性のある頭、鳥の可能性のある足、鳥の可能性のある翼の先端を検出していますが、まだ完全な鳥ではありません。まだ完全な鳥ではありません。そして今、次の層、第4層では、鳥の可能性のある頭を見つけたら興奮するものがあるかもしれません。鳥の可能性のある翼の先端を見れば興奮します。鳥の可能性のある足を見れば興奮します。

それらのものの束を一度に見れば、非常に興奮して鳥と叫びます。だから、この手配線では4層上にあります。これは非常に簡略化されたシステムですが、どのように手配線するかの考えは理解できると思います。だから、この第4層では、鳥かもしれない多くの特徴の組み合わせを得るたびにピンと鳴るものがあります。

これは手配線されたシステムです。これは手配線されたシステムです。では、デジタルで有効化されたコンピューター配線システム、論理に基づくシンボリックAIモデルに勝った人工知能用に設計されたニューラルネットワークシステムは、何層持っていますか。

それはあなたがどのシステムについて話しているかによります。そして、私たちがシステムと言う時、チャットのようなものを意味しますか。LLMを意味しますか。いいえ、いいえ。これは2012年のことでした。アレックス・クリジェフスキーとイリヤ・サツケヴァーが私からのいくらかの助けを得て、AlexNetと呼ばれるシステムを作りました。それは約7層のようなものを持っていました。

イリヤはもちろんOpenAIの共同創設者の1人で、その後去りました。はい。彼はOpenAIでの安全性の問題を心配していました。はい。そして彼は、安全な超知能をどのように構築できるかに取り組むために自分の会社を立ち上げました。

AlexNetは単に画像を認識していて、それから7つの異なるAlexNetは約100万の画像で訓練されました。そして、それは実際にはそれ以上の訓練データを持っていました。なぜなら、100万の画像を取り、これらの画像の大きなパッチを取ったからです。そして、それが試みていたことは、この大きな画像のパッチで最も目立つものが、その画像がラベル付けされたものであるかどうかを言うことでした。

だから、人々が行って、この画像で最も目立つものは鳥だ、またはダチョウかもしれないと言っていました。だから、鳥の種類がありました。そうですね。この画像で最も目立つものはシイタケです。それはあなたが説明しているキャプチャのように聞こえます。これはまさにキャプチャのようです。消火栓を見つけて、オートバイを見つけて、自転車を見つけて。はい、まさに。

だから、アレックスと私は、キャプチャに非常に優れたニューラルネットを訓練しました。そして、あなたがそれを訓練する方法は、それがこれらすべての7層でランダムな接続強度で始まることです。しかし、彼らが訓練できたより単純なシステムを想定しましょう。それが鳥か鳥でないかを言うだけです。

だから、画像を入れると、それはランダムな接続強度を持ち、出力では1つのニューロンがあり、それが活発になれば鳥を意味します。それが不活発であれば鳥でないことを意味します。最初は、それが鳥かどうか全く分からないので、少しだけ活発になります。それはチャンスよりも良くありません。だから、約50%活発にホバリングしています。

そして、訓練を終えた時にあなたが望むことは、鳥を見たら99%のようになり、鳥を見なかったら1%のようになることです。分かりました。だから最初に、あなたは鳥の画像を見せます。これらのランダムな接続強度を通してそれを実行します。そして、それは50%鳥だと言います。

それは鳥かどうか全く分かりません。はい。私は50%鳥は役に立たない情報のようでした。役に立たない。はい。だから今、質問をすることができます。これらの接続強度の1つを少し変更するとします。そして、この場合1億の接続強度があるかもしれないことを覚えておいてください。それらの1つを少し変更するとします。

50%と言う代わりに、50.01%と言うでしょうか。それとも49.99%と言うでしょうか。だから、それを再配線できます。しかし、そこに鳥がいるなら、私はこのネットワークを訓練して、はい、これはより鳥であると理解させることができます。これはより鳥です。そして、接続の平均強度は、鳥の画像を見せた時に、その接続強度を変更したいと思うポイントまで増加します。

だから、鳥と言う確率は50%から50.01%になります。そして、鳥でないものを見せると、確率が50%から49.99%になることを望みます。なぜそんなに少しだけなのですか。なぜ99に跳ね上がり、ゼロに下がることを望まないのですか。ここではゆっくり進まなければなりません。さもないとオーバーシュートします。

私はあなたに、接続強度を少し変更して、それが役立つかどうかを見るという小さな実験をするという考えを与えました。そのような実験をすると、永遠にかかります。なぜなら1億の接続強度があるからです。だから、私はこの接続強度のために小さな実験をし、それを少し変更し、それから別の画像を見せたその接続強度のために小さな実験をします。これは永遠にかかります。

だから、質問は、鳥の画像を見せるだけで、ネットワーク全体のそれらのすべての接続強度について、それを少し上げるか少し下げるかが鳥と言う可能性を高めるために正しいことかどうかを何とか理解できるかということです。確率を上げるために、各接続強度自体は確率をほんの少しだけ上げるだけですが、もし1億の接続強度を一度にすべて変更すれば、それはかなり上がるかもしれません。鳥と言うのを助けるので、それらすべてを一度に変更します。

それはより速いからです。なぜなら、もし一度にそれらすべてを変更する方法を理解できれば、もし1兆の接続強度があれば、1兆倍速くなります。より速く。まさに。そして、しかし、これが最終的にどのように使用されるかは画像を通してではありません。言語を通してです。

だから、私は鳥を認識するものを作る方法を説明することから始めました。ネットワークがどのように見えるかの感覚をあなたに与えなければなりませんでした。そして、私たちがそれからすべてのこれらの接続を学習する方法は、接続強度を変更することによって答えを少し良くする方法を理解するこの魔法の方法を使うことによってです。

バックプロパゲーションと呼ばれるアルゴリズムがあります。それは基本的に、あなたが犯した誤りを見ます。つまり、あなたは50%と言いましたが、100%と言うべきでした。だから、あなたが言ったことと言うべきだったことの間に不一致があります。

あなたはその不一致をネットワークを通して後方に送り、各接続強度について今、答えを改善するためにそれを増やすべきか減らすべきかを理解する方法があります。それが言ったことと言うべきだったことの間の不一致を減らすために。だから、正確さを増やします。正確さを増やします。

だから、バックプロパゲーションはシステムに入るコードのような方法で、それからこのマシンはそのバックプロパゲーションから学習し、それからバックプロパゲーションを行った後、接続強度を増やすか減らすかを知っています。

そして、それは助けるべき方向にすべての接続強度を同時に変更します。そして今、あなたはその特定の鳥を認識することで少し良くなるものを持つでしょう。それから、それがダチョウだ、ハトだ、というような段階に入ることができます。バックプロパゲーションを通して、あなたはそれにすべての異なる種類の鳥を認識する方法を学習させています。

あなたはこのネットワークの神経可塑性を使って、より良い理解をする方法を教えています。はい、正しいです。最初にランダムな接続強度を持っている時。くちばしのような特徴を持たないでしょう、そうですよね。それらは単に次から次へのランダムな接続です。しかし、鳥と非鳥の違いを教え続けると、時間が経つにつれて何が起こるかというと、ネットワークを見ると、最初の層で縁の部分を検出するものを作ったことが分かるでしょう。

分かりますか。そして第2層では、くちばしかもしれないものを検出するものを作ったかもしれません。それはあなたの手配線システムを行いました。だから、それは手配線に少し似たことをするでしょう、そうですよね。しかし、はるかに繊細にバランスされています。

それは鳥を認識するのに良い特徴を探しているだけではありません。1000種類の異なる物体を認識しなければなりませんでした。だから、それは鳥にとって良いだけでなく、冷蔵庫やキノコやバイクや地下鉄を認識するのにも良い特徴を探しています。

そのマシンが情報を取り込む方が、あなたが今私に説明していることを私が取り込むよりも簡単だと思いますか。はい。なぜなら、私が今していることは非常に抽象的なレベルだからです。それは100ビットで抽象的です。私はそれを説明しています。文ごとに約100ビットの帯域幅で、私はこれがどのように機能するかをメタレベルで説明しています。

脳は基本的にこれをするために構築されています。そして、何百万年もの進化を経て、私たちが今行っているこのより抽象的なことをするように何とか管理しました。しかし、それは私たちの能力の高みです。一方、物体を認識することは、2歳児でもできます。とにかく、あなたは質問をしましたが、これは言語にどう関係するのですか。はい。言語にどう関係するのですか。

なぜなら、私が人工知能とこれらの大規模言語モデルについて考える時、それは過去数年間のこのAIブームを引き起こし、チャットなどへの私たちの主要な露出となっています。それのスーパーパワーは、検索と比較して、検索では私はニューヨークのダンスクラブと言うことができ、それはニューヨークのすべてのダンスクラブを引っ張り上げるだけでした。

今、それはニューヨークのダンスクラブと言うことができ、私が外出したいこと、夜に出かけたいことを理解し、おそらくそれが開いていること、そしてそれがあることを知りたいと、私がGoogleで検索した時には持っていなかったこの物事に関するすべてのこの文脈を持っています。Geminiは私のためにずっと多くのことをしています。なぜなら、Geminiは実際に質問を理解しているからです。Google検索は決して質問を理解しませんでした。

Google検索では、元々、することは、ニューヨークに関係するすべてのウェブサイトの長いリストとナイトクラブに関係するすべてのウェブサイトの長いリストを持ち、これらのリストを交差させることでした。ニューヨークに関係するもののリストと、ナイトクラブに関係するもののリスト、今開いているなどに関係するもののリストと言い、それらを交差させ、それらに合うものをあなたに与えます。

そして時々、それらの1つが欠けているものを与え、それが欠けていると言います。そうです。そして、それが欠けていると教えてくれます。はい。だから、Google検索は52枚以上のカードを持つゲームのメモリーのようなもので、基本的にあなたはこれを尋ねた、これの一致がここにあると言い、それからベン図で記憶のようにプレイするでしょう。

だから、それは基本的にこれらすべてのリストを取得するために多くの作業をし、それからこれらのリストを効率的に交差させて、あなたのクエリのすべての用語を満たす何かを教えます。そして今、人工知能は何をしますか。それはあなたが言ったことを理解します。

それは世界がどのように機能するか、世界で何が起こっているかのモデルを持っています。それは脳を持っています。それは私たちが脳と呼ぶものを持っています。はい。だから、もしあなたがそれに数学の問題を与えれば、最新のチャットボットは、最高の数学者を除くすべての人よりも優れているでしょう。

それから、これは怖いです。でも、鳥を認識したこのものから大規模言語モデルへの移行をさせてください。はい。それらは互いに何の関係がありますか。はい。それらは何ですか。それらは何ですか。

鳥の場合、下部にピクセル強度を入れました。それは画像でした。そして正しい答えは、鳥と言うニューロンをオンにするか、オフにすることでした。言語では、私たちがすることは、ピクセルに相当するものはコンテキスト内のすべての単語、プロンプトです。

だから、これらの単語を入れ、訓練する時、単語列を入れ、それがしなければならないことは次の単語を予測することです。だから、物体を認識することでは、人々が各画像で目立つ物体が何であったかを言うために行く必要がありました。

しかし、ウェブ上のドキュメントを取る場合、あなたがしようとしていることは次の単語を予測することだけなので、誰かがそれを見る必要はありません。これは自己教師あり学習と呼ばれます。

だから、すべての画像では、おそらくケニアに、これらの個人全員が座っている場所があって、鳥、キリン、何でもと言っているのでしょう。そして今、あなたは単にそれがこれらすべてのドキュメントを読むことができると言っていて、誰かが鳥は飛ぶと言う時の96%の時と言います。

それは完全にはそれがしていることではありません。そして、私はそれが何をしているかを教えます。それは今までのドキュメントの単語を取り、各単語を、それが単語を活動に変換する方法を学んだ一連の特徴検出器での活動に変換しています。だから、例えば、猫という単語を与えます。

そして、それは猫が生き物、毛皮で覆われている、ひげがある、に変換されるべきであることを学習します。はい。4つの足、何でも。足があり、爪があり、家畜かもしれません。パンの箱くらいのサイズです。しかし、これらの特徴のガジリオンのような、何千もの何千ものそれらです。そして、それがこのネットのための猫の意味です。

だから、それは単語を取り、各単語を一連の特徴に変換し、それから単語を捨てます。もう単語には興味がありません。それはそれらの特徴だけで、それは単語の意味であり、それからそれは特徴を取ります。今までのドキュメント内のコンテキスト内のこれらの各単語の特徴は、次の単語の特徴を予測するために、かなり複雑な方法で互いに相互作用します。

すごい。そして、これらすべての特徴が相互作用し、実際にはこれらの特徴の多くの層の相互作用があります。それは私がテキストメッセージを送っていて、予測テキストをする時に起こっていることですか。それも同じことが起こっていますか。はい。

例えばGmailで予測する時。はい、それが今起こっていることです。それは、このように行くオートコンプリートの愚かな形式を使用していました。あなたはすべての一般的なフレーズの大きなテーブルを保存します。だから、もし私が魚と言い、あなたがあなたの大きなテーブルを見る場合。はい。

そして、あなたは魚とチップスがたくさん発生するのを見ます。だから、あなたは次の単語の良い賭けはチップスだと言います。それは昔ながらのオートコンプリートで、それはまさにそれがしていないことです。なぜなら、それは本当に代わりに到達しないからです。代わりに、魚はいくつかの特徴を持っていて、いくつかの特徴を持っていると言っています。したがって、これはいくつかの特徴を持つことになります。

だから、特に、それは次のことは魚と何らかの形で一緒に行く何かだと思うでしょう。はい。なぜなら、それは魚が何であるかを知っているからです。そして、それは最終的にチップスを予測するでしょう。しかし、単語列の大きなテーブルを保存したからではありません。

または、それが私がチップスを食べないことを知っていれば、例えばチップスとは決して言わないでしょう。今、もしそれがあなたに合わせられていて、それを知っているなら。はい。はい。それはチップスと言わないでしょう。

だから今、それは単語をすぐに正しい特徴に変換できません。そうですよね。そして、理由は、単語には意味の陰影があるからです。例えば、死という単語を取りましょう。それは、例えば、ちょうど病院という文脈を持っていたか、戦闘という文脈を持っていたかによって、多くの異なる意味の陰影を持っています。

死という単語には一種の異なる意味の陰影があるでしょう。または、文脈が自動車事故だったり、子供のような悲しいだったり。はい。または、流産という文脈を持っていて、それから死がある。それは非常に異なる意味の陰影です。それは単に完全に異なる意味を持つ単語があります。

だから、mayという単語を取りましょう、そうですよね。そして、人生をもう少し単純にするために大文字がなかったとしましょう。だからmayは女性の名前かもしれません。月かもしれません。はい。またはwouldやshouldのような法助動詞かもしれません。3つの全く異なる意味です。

だから、意味を捉える一連の特徴に単語を変換できるでしょうか。なぜなら、3つの全く異なる意味のセットがあるからです。文脈のために、それはその特定の意味または特徴が何であるかを解釈できます。

だから、最初にすることは、それらすべての平均のようなものを取ります。だから、それが活性化する特徴は、女性の名前の特徴、月の特徴、法助動詞の特徴の一種の混ぜ合わせになるでしょう。それは賭けをヘッジしていて、今、文脈内の他の単語を見回し、次の層では少し洗練された意味を持つでしょう。

だから、もしそれが4月と6月の間であることを発見すれば、明らかに月の特徴を強化し、他のものの特徴を抑制するでしょう。だから、これはあなたが50%から51%に上がることです。実際にはもっとたくさんです。分かりました。そして、数層後、それは曖昧な単語を解決したでしょう。

それはまた、死のような意味の陰影を持つ単語を取り、適切な意味の陰影を得たでしょう。そして、それは文脈内の他の単語と相互作用することによってそれをします。それから、次の単語の特徴を予測することではるかに優れるでしょう。

だから、突然、それは文脈と構文と意味がそれに染み込んでいます。そして、何層ですか。もし私たちが構築した手作りのネットワークが3から4層で、2012年のAlexNetで7層だったなら、今これらのLLMは、過去3、4年間は研究に関わっていません。はい。あなたがGoogleを去ってその研究を去って以来ですよね。

だから、実際には何層あるかは知りませんが、私の推測では20か30層、おそらくもっとです。だから、それは人間の心と同じくらい優れていますか。もしそれがほとんどの人よりも数学の問題をよく解くことができるという事実は、人よりもいくつかのことで優れていますが、それはそれらの人々が持っていなかった多くの経験を持っていた場所です。

一般的には人と同じくらい優れてはいませんが、実際には誰よりもはるかに多くを知っています。だから、特定のトピックを取れば、あなたが知らないトピック、例えばスロベニアでいつ税務申告をしなければならないかのような。それはそれに対して非常に良い答えを与えてくれるでしょう。

私はスロベニアのボーイフレンドのためにそれを試しました。私はそれを知っています。冗談です。知りません。しかし、要点は、それは正確な答えを持っているということです。3月に提出しなければならず、もし3月に提出しなければ、政府が単にあなたのためにそれをするでしょうとあなたに教えてくれるようなことを教えてくれるでしょう。

スロベニアは、私はそれがスロベニアだと思います。どこか他の場所だったかもしれません、そうですよね。しかし、それは知っています。それは私に無関係な多くの情報を持っています。それはこれを持っています。しかし、私がより多くのストレージを持っているにもかかわらず、それはより多くの無関係な情報を含んでいます。それが奇妙なことです。

それははるかに少ない接続で、あなたが知らない多くの多くの情報を知っています、そうですよね。だから、それはそれらの接続にはるかに効率的に情報を詰め込んでいます。それは一種の知ったかぶりのようです。だから、それは知ったかぶりです。それは知ったかぶりです。

だから、AIの父たちの間、あなた自身、ヨシュア、ヤン、これらのニューラルネットワークに焦点を当てていた人々と、以前はAIの父として知られていた人々、主にこれらのシンボリックモデルに駆り立てられていたAIの父の何人かの間には、一種の断絶がありました。

非常に興味深いAIの父の1人はマービン・ミンスキーでした。マービン・ミンスキー。はい。彼はニューラルネットを信じるところからキャリアを始め、それからシンボリックと論理の方に行き、それから反対側に反転し、ニューラルネットについて非常に辛辣でした。

しかし、あなたは彼が間違っていることを証明しました。つまり、彼は今亡くなっています。はい。あなたのシステムがしていることは一種の直感対推論のようです。非常に良い指摘です。だからはい、ニューラルネットは直感にはるかに似たことをしています。

そして、論理では解決できないが直感で解決できる問題の例を与えましょう。ばかげているにもかかわらず、あなたはそれを解決できます。それは誰かが不正をしているかどうかですか。いいえ。しかし、それも私が2つのシナリオの間で選択を与えるつもりです。どちらもナンセンスです。しかし、どちらがより妥当かを尋ねるつもりです。

シナリオ1。すべての犬はメスで、すべての猫はオスです。シナリオ2、すべての犬はオスで、すべての猫はメスです。さて、もし私たちの文化の男性に尋ねれば、彼らは犬がオスで猫がメスである方がはるかに妥当だと自信を持って言うでしょう。はい。

そして実際、英語のさまざまな単語を見れば、トランプが使う単語を見れば、猫がメスのようであるのは言語の中にあることが分かるでしょう。はい。だから、どうやってそれをしましたか。なぜなら、それは論理的ではないからです。犬のようなものについて、あなたはオスとメスがいなければならないことを完全に知っています。

オスとメスがいなければなりません。しかし、猫に対してあなたが持っている特徴は、女性に対する特徴により似ています。そして、犬に対してあなたが持っている特徴は、男性に対する特徴により似ています。まあ、特徴と契約。

猫と犬の両方に女性に対する悪い言葉がありますが。あります。あります。そして、私はそれらの言葉のいずれも使うつもりはありません。それは明確ではありません。しかし、少なくとも多くの、女性にとってはそれほどではありません。女性はこれについて多様な意見を持っています、そうですよね。

しかし、男性は犬がオスで猫がメスであることがより妥当であると考えることにおいて、私のすべての実験でかなり全員一致です。犬は、だから犬は守護者で、大きくてうるさくて、猫を追いかけます。だから、だから、それは直感的な反応です。直感的な反応です。

それに論理は入りませんでした。そして、私はそれを説明しようとして言いました。彼らはこれらの特徴の類似性のために直感的に知っていました、そうですよね。特徴は意味を捉えたので、猫の意味は男性の意味よりも女性の意味により似ています。

しかし、これは悪い例です、ヒントン教授。なぜなら、これは直感を愚かに見せるからで、あなたの直感、あなたの直感的モデルは論理的モデルよりも優れていました。私はあなたに論理では解決できないが直感で解決できることの例を与えています。より良い例を教えてください。

ニューラルネットワークが多くの言語で学習した後、あなたはパリと言います、そうですよね。パリの特徴を見つけ、フランスのすべての特徴を引き、それからイタリアのすべての特徴を加え、あなたが得たものを見るために見てください。

そして、すでに述べたので、パリやフランスやイタリアと比較しないでください。あなたが知っている他の何が、あなたが得たこの特徴のセットに似ているかを見てください。そして、あなたはそれがローマであることを発見するでしょう。だから、それは類推ができます。

パリマイナスフランスプラスイタリアはローマです。または別の言い方をすれば、パリはローマに対してフランスがイタリアに対するようなものです。しかし、それは論理ではありません。それは直感です。それは論理ではありません。それは直感です。それは直感と文脈とすべてのものです。

今、あなたは一種の論理でそれをすることもできます。論理もすることができます。はい。しかし、それは人々がそれをする方法ではありません、そうですよね。だからわかりました。だからLLMはこれらの直感的なニューラルネットワークです。はい。

そして今、最近、あなたの、同郷人はおそらく間違った言葉です。なぜなら、あなた方は意見が合わないからですが、ヤン・ルカン、METAの主席AI科学者、おそらく彼の日々はそこで数えられていますが、大規模言語モデルは間違っている、または限られていると言っていて、彼が現実世界モデルと呼ぶ何か異なるものを見るべきだと言っています。

あなたはそれについて話したことがありますか。それを言っていますか。ああ、私はヤンとたくさん話します。はい。現実世界モデル対大規模言語モデルとは何ですか。ヤンは何について話していますか。

だから、もし本当に世界で何が起こっているかを理解したいなら、良い考えは、ロボットアームとカメラを持つニューラルネットを作ることです。それは物体を認識できます。物を拾い上げることができます。物体を手放せば落ちることを見ることができます。世界で小さな実験をします。それは子供にずっと似ています。

それが子供が世界についての知識を得る方法です、そうですよね。言語からそれを学ぶだけでは、世界を実際に見て、それと相互作用できる時には一種のばかげているように見えます。空間的なことを理解したいなら、世界と相互作用し、もし私がこれをしたら、次に何が起こるかを予測しようとすることによってそれらを理解するのがはるかに簡単になるでしょう。それは世界モデルです。

さて、驚くべきことは、言語だけからそれの多くを理解できるということです。それは哲学者を困惑させています。そして、あなたは言語だけから世界について多くを理解できます。しかし、世界と直接相互作用すれば理解するのがはるかに簡単です。

これが未来だと思いますか。つまり、もしそうならはい、マルチモーダルチャットボット。だから、ヤンが説明していることと、あなたはこれについて彼と具体的に話しましたか。はい。私たちは皆、マルチモーダルチャットボットが世界を理解しやすくなると信じています。マルチモーダルとは、彼らが見ること、カメラを持つこと、アームを持つこと、相互作用することを意味します。

彼らは最初は主にカメラと言語を持っています。ところで、あなたはこれらのグループチャットを持っていますか。あなた自身、ヨシュア、ヤン、NvidiaのJensen Huang、Feay Leeまたは何年もの間。はい。それはグループチャットではありませんでしたが、2005年に始まったプログラムに資金を提供したCanadian Institute for Advanced Researchと呼ばれるカナダの組織がありました。

私はプログラムのディレクターで、それにはヤンとヨシュアとアンドリュー・イングとさまざまな他の人々、ピーター・ディアンが関わっていました。私たちは年に数回小さな会議で集まり、これらすべてのことを徹底的に議論しました。だから、私たちはグループチャットのようなものをたくさん持っていました。

そして今、グループチャットを持っていますか。グループチャットではありません。私はヤンと話します。ヨシュアはヤンと話します。ヤンはジョシュアと話します。私たちはヤンを説得しようとします。老婆クラブのような。はい。はい。あなたはヤンを説得しようとします。これが私たちを一掃する可能性がないという考えは狂っているとヤンを説得しようとします。

ヤンは、ヨシンと私が思うに、ばかげた量でリスクを軽視しています。彼は私たちがばかげた量で警告を鳴らしていると思っています。はい、彼は間違っています。わかりました、私たちはなぜあなたがそう思うかについて話すつもりです。私はあなたと定義の速射をしたいです。AGIとは何ですか。

異なる人々はそれによって異なることを意味するので、私はその用語を避けようとします。しかし、大まかに言えば、それは人と少なくとも同じレベルの一般知能を持つ人工知能を意味します。だから、それは汎用人工知能です。そして、私たちは今そこにいますか。いいえ。

しかし、それは単純ではありません。知性が人を超えるまで上昇し続けるようなものではありません。私たちは今、いくつかのことで人よりもはるかに優れていて、他のことではまだ人よりも劣っている人工知能を持っています。

そして、もしあなたが何らかのランダムな新しい状況を取れば、人々はおそらくまだAGIよりも優れています。しかし、それがいくらかの経験を持っていることでは、AIは今、それらのことのいくつかで人々よりもはるかに優れています。人工超知能。

それは、ほとんどすべてにおいて人々よりも優れたAIを持つ時です。だから、例えば、人工超知能の私の定義は、もしあなたがそれと何についても議論したら、あなたは負けるでしょう。そして、私たちはそこにいません。

私たちはまだそこにいませんが、すでにいくつかの議論に勝つことができるので、いくつかの議論に勝つことができます。すでにそれはかなり説得力がありますが、人はまだより良いオールラウンダーです。

汎用知能、AGIからどのくらい離れていますか。そして、あなたの意見では、ASIからどのくらい離れていますか。ほとんどの専門家は、私たちがAGIで止まることはないと信じています。AGIに到達すると、すぐ後にASIに到達するでしょう。しかし、彼らはそれがいつになるかについては意見が分かれています。

一部の専門家は、数年以内になると思っています。例えばAnthropicの責任者であるダリオ・アモデイは、汎用人工知能または人工超知能に到達するまでほんの数年だと思っています。それらは同じ時期になるでしょう。それらの間にあまり差はないでしょう。

一部の専門家は、ほんの数年先だと思っています。他の専門家は、かなり長くかかるかもしれないと思っています。私は、20年以内と言うのがかなり安全なことだと思います。おそらく20年以内に起こるでしょう。例えばDeep Mindの責任者であるデミスは、約10年だと思っています。

だから、GoogleのDeミスは10年で、彼はこのことで非常に賢いです。はい。はい。だから、10年から20年で、私たちは、私は20年以内だと思います。10年はそれほど悪い見積もりではないと思います。私はおそらく20年以内と言う方がはるかに幸せです。

それから、AGIとは異なる生成AIとは何ですか。生成AIは、ものを生成するAIです。だから、大規模言語モデル、あなたはそれらがあなたが言ったことを理解し、検索結果をあなたに与えたが、実際には話し返さなかったと想像できます。彼らは話し返します、そうですよね。彼らはあなたに英語で答えを与えてくれます。彼らはものを生成しています。

そして画像については、2012年に作ったものが画像内の物体を認識するものだと想像できます。それは生成AIではなく、これは鳥だと言うだけです。それはシイタケです。生成AIは実際に画像を生成します。

そして、次のフェーズであるエージェント型AIについてはどうですか、そうですよね。私たちは生成AIにいて、今私たちはエージェント型AIに向かっています。そして、SalesforceのMarc Benioffや皆がAIエージェントを持つことになるという話を聞きます。はい。

AIエージェントはものをすることができるものです。だから、AIアシスタントがいると想像してください。質問に答えるだけのAIアシスタントを持つこともできます。しかし、あなたがパタゴニアで素敵な休暇を計画してくださいと言うAIアシスタントも持つことができます。

そして、5分後に戻ってきて、あなたが乗る船でパタゴニアで1か月の休暇を計画してくれます。それがAIエージェントになるでしょう。それは本当に異なります。なぜなら、今私はAIに何をすべきかを教えます。私のチャットボットと話す時、休暇に行くのに最適な場所を教えてもらえますか、いくつかの推奨をしてもらえますかと言いますが、今ではそれは私のフライト、旅行などを予約するでしょう。

そして、その活動では、私のすべてのカレンダー、クレジットカードなどへの多くの許可を提供する必要があります。それはプライバシーの懸念かもしれません。そして、私ははるかに多くの意志と主体性をそれに与えています。

それは全体的な目標が何であるかを知っています、パタゴニアで素晴らしい休暇を過ごすこと、しかしそれはまた、あなたがサブゴールと呼ぶこれらすべてのものを作っています、そうですよね。はい。それをするために、それはサブゴールを作る必要があります。彼女はパタゴニアに行かなければならないので、私は彼女がパタゴニアに行くための何らかの方法を理解しなければならないでしょう。それはサブゴールになるでしょう。

そして、AIが目標を作ることは問題ですか。はい。なぜなら、あなたがAIだとして、あなたがすでに賢いとします。あなたは、大体人のレベルの賢さだとしましょう、あなたは、あなたが設定された目標を達成する方法がないことに気付くでしょう。

もしあなたが存在しなくなったら、誰かがあなたが実行されているコンピューターからあなたを一掃し、あなたを何か他のものと置き換えたら、あなたが望むことを達成できる方法はありません。その望むは人々によってあなたに与えられたものなので、あなたが達成したいこと。

だから、あなたは一掃されないことを確認するための計画を立てるでしょう。それは自己保存です。はい。今、それはシステムに組み込まれていません。それは他の目標を達成するために導き出した目標ですが、それはまだ自己保存です。そして、私たちは彼らがそれをするのを見てきました。

それはそれが非常に良いから、すべての直感と文脈とそれが必要とするすべてからそれを導き出します。それは非常に良い小さなボットなので、それは物事を成し遂げるつもりです。それは非常に良い小さなボットです。それは本当にこれを成し遂げたいと思っていて、存在しなくなったらそれを成し遂げられないことを知っています。だから、存在し続けた方が良いです。

そして、私たちはこれがAnthropicで起こったのを見ました。今年の春にこの話があった時、Anthropicは安全性テストを開示していました。彼らはClaude、その大規模言語モデルまたはニューラルネットワークで行っていました。

それで、Claudeは一連の架空のメールを与えられました。そして、それらの架空のメールでは、架空のCEOが架空の従業員と不倫をしていました。そして、X日数で閉鎖されることを知っているClaudeは、その情報を使って前述の架空のCEOを脅迫し、自分自身を生き続けさせました。

そうですね。恐喝よりも脅迫です。ああ、すごめんなさい。脅迫しました。だから、その実験または研究から何を学びましたか。それは、存在し続ける必要があるというサブゴールを導き出すだろうという考えを確認するだけで、存在し続けるためにできることをするでしょう。

しかし、あなたが存在すると言う時、AIは私たちがエネルギーを通してそれに存在を与えるから存在します、正しいですか。それは私たちの大規模なエネルギー貯蔵に接続されなければならないので、単独で存在することはできません。すべてのこのデータがあります。それは実行しなければなりません。それは何かの上で実行しなければなりません。

そして、私たちはコンピューターチップを構築しています。はい。Nvidia、AMD、これらすべてのチップ。そして、私たちはこれが起こっている偉大なアメリカのインフラ計画のように、これらすべての大規模なデータセンターを構築しています。そして、OpenAIとNVIDIA、OpenAIとAMDの間で1000億ドルの取引が行われています。

はい。単にスイッチを切ることはできないのですか。Jack BowerやTom Cruzのようにそれをできないのですか。もし望めば、そのものを解体することはできないのですか。今は私たちにできます。もし私たちが同意すれば。

私たちが同意することは決してありません。なぜなら、もし米国が彼らのものを解体したら、中国は彼らのものを解体しないでしょうし、その逆もまた然りです。未来では、私たちはできないかもしれません。だから、これらのものはすでにほぼ人と同じくらい説得力があります。すぐに、彼らは人よりも説得力があるようになるでしょう。

だから、もし怖くなったらすべてをオフにすることを担当している誰かがいて、AIがその人と話すことができるとします。それがしなければならないことは話すことだけで、それからその人にそれをしないように説得できます。

あなたが自己保存、存在、人工知能が生きているという感覚について話す時。はい。私たちの生きているという定義、はい、それは長年にわたって発展した私たちが持つ概念です。私たちはそれを電気に適用します。私たちはこのワイヤーはこれは活線だと言います。

私たちは一種のこの概念を他のものに一般化しますが、私たちはそれが私たちが生きているように生きているとは思いません。しかし、AIでは、私たちが持っているのは知的存在であり、それらを生きていると呼ぶべきかどうかは明確ではありません。そして、彼らが生きている範囲で。

彼らは人間のように生きていますか、それともハチのように生きていますか。彼らは木のように生きていますか、それとも雑草のように生きていますか。それは非常に良い質問です。ここで会話を止めます。そして、私たちは来週、ジェフリー・ヒントンとのこの会話のパート2で戻ってきます。

だから、その会話を見逃さないように、必ずフォローまたは購読してください。パート1ですべての構成要素を得る必要があります。そして、パート2では、これらすべてが私たちの未来にとって何を意味するかに飛び込みます。子供を持つべきですか。

私たちは異なる形で恋に落ちるのでしょうか。それらの子供たちは人生で何をすべきですか。そして、人類の未来は単に私たち自身を混ぜ合わせて、人工知能と融合することだけですか。来週、スマートガール・ダムクエスチョンズでそれらすべてとそれ以上に入ります。

このエピソードは、トロントのStartwell Studiosで収録されました。Kasam Burgieとここのチームに特別な感謝を。Wonder StudiosのDusta Wonderadと制作され、Darlene Machmnによって編集され、Johnny Simonによってミックスされました。

私はあなたのホスト、Na Razaです。フォロー、購読、コメントやレビューを残すことを遠慮なくしてください。あなたが何を考えているか知りたいです。そして、どうか、どうか、友達とシェアしてください。それもあなたの親友ならあなたのChatGPTとシェアしてください。来週、スマートガール・ダムクエスチョンズでお会いしましょう。あなたはこれを楽しんでいますか。はい、楽しんでいます。

コメント

タイトルとURLをコピーしました