Google DeepMindの共同創業者でありチーフAGIサイエンティストのShane Leggが、AGIの到来とその社会的影響について率直に語る。彼は2028年までに50%の確率でミニマルAGIが実現すると予測し、その定義を「人間が通常行える認知的タスクを少なくとも実行できる人工エージェント」としている。現在のAIシステムは言語能力や一般知識において既に人間を超えているが、継続的学習や視覚的推論などの分野ではまだ課題が残る。Leggは「システム2安全性」というアプローチを提唱し、AIが倫理的判断を論理的に推論できるようにすることで、人間よりも一貫した倫理的行動が可能になると考えている。AGIから人工超知能への移行については、計算能力の物理的限界から見て人間の知能が上限ではないと断言し、今後10年以内にフルAGIが実現する可能性を示唆する。この技術革新は産業革命に匹敵する社会構造の根本的変革をもたらすため、法律、経済、教育など社会のあらゆる分野でAGIの影響を真剣に考える必要があると警鐘を鳴らしている。

AGIは人間の認知能力の領域に到達しつつある
人間の知能が、到達可能なものの上限になると思いますか?私は絶対にそうは思いません。これらすべてが人々にとって何を意味するのか、私は疑問に思います。つまり、本質的に人間の知能が超知能によって小さく見えてしまうような地点に到達しつつあるとしたら、それは社会にとって何を意味するのでしょうか?それは大規模な変革を意味します。
これは実際に経済や社会、そしてあらゆる種類のものを構造的に変化させるものなのです。そして、この新しい世界をどのように構築するかを考える必要があります。Google DeepMindへようこそ。私はホストのHannah Fry教授です。AGIが来ようとしています。それが誰もが言っていることのようです。
さて、今日のポッドキャストのゲストは、Google DeepMindのチーフAGIサイエンティスト兼共同創業者であるShane Leggです。Shaneは何十年もAGIについて語ってきました。彼の言葉を借りれば「狂気のフリンジ」と見なされていた時代からです。彼はこの用語を普及させ、それが実際に何であるかを明らかにしようとする最も初期の試みを行ったことで知られています。
今日の会話では、AGIがどのように定義されるべきか、それが到来したときにどのように認識すべきか、それが安全で倫理的であることをどのように確保するか、そして重要なことに、それを手に入れた後の世界がどのようなものになるかについて話します。そして言わせてください。Shaneは今後10年間で社会全体が影響を受ける方法について、驚くほど率直でした。この議論については、ぜひ最後までお聞きいただく価値があります。
ポッドキャストへようこそ。私たちが最後にあなたと話したのは5年前でした。その時、あなたは現在私たちが持っているAIシステムの観点から、AGIがどのようなものになるかというビジョンを語っていました。今のシステムは、AGIであることの小さな火花を示していると思いますか?
ええ、火花以上のものだと思います。火花以上ですか?ええ、そうです。私のAGIの定義、あるいは時々ミニマルAGIと呼ばれるものは、少なくとも人々が通常できる種類の認知的なことができる人工エージェントです。
そして私はそのバーが好きなんです。なぜなら、それより低ければ、認知的なことで人々ができると期待されることをうまくできていないように感じられるからです。だから、まだそこに到達していないように感じられます。一方で、ミニマルバーをそれよりもはるかに高く設定すると、多くの人々、たくさんの人々が実際にはAGIに要求されているいくつかのことをできないレベルに設定していることになります。
ご存知のように、私たちは人々が何らかの未知の一般知能のようなものを持っていると信じています。だから、少なくとも人々が通常できる種類の認知的なことができるなら、おそらくそれ以上かもしれませんが、そうであれば、それをそのような種類のクラスの中にあると考えるべきだと感じます。
今私たちが持っているものは、それらのレベルのどこにありますか?不均一です。例えば、言語を話すことにおいては、既に人々よりもはるかに、はるかに優れています。150の言語を話せます。つまり、誰もそれはできません。そして一般的な知識は驚異的です。例えば、ニュージーランドで私が育った郊外、小さな町について尋ねることができ、それについて知っていることがあるんです、わかりますか?
一方で、人々が通常できると期待されることをまだできないこともあります。継続的な学習、長期間にわたって新しい種類のスキルを学ぶことがあまり得意ではありません。そしてそれは非常に重要です。例えば、新しい仕事に就くとき、すべてを知っていて、到着時に仕事でパフォーマンスを発揮できることは期待されていません。しかし、時間をかけてそれを学ばなければなりません。
また、推論、特に視覚的推論のようなものにいくつかの弱点があります。AIは物体を認識するのは非常に得意です。猫や犬やあらゆる種類のものを認識できます。それはしばらく前からやってきました。しかし、シーン内の物事について推論するよう求めると、かなり不安定になります。
例えば、赤い車と青い車が見えると言って、どちらの車が大きいかと尋ねるとします。人々は遠近法が関係していることを理解しており、青い車の方が大きいかもしれないが、遠くにあるので小さく見えるということを理解しています。AIはそういったことがあまり得意ではありません。
あるいは、ノードとそれらの間のエッジがあるような図、ネットワークのようなものがあるとします。ネットワークですね。あるいは数学者が言うようにグラフです。そしてそれについて質問すると、グラフ上のノードの1つから出ているスポークの数を数えなければなりません。人は異なるポイントに注意を払い、それから実際に精神的に数えたりすることでそれを行います。AIはそのようなタイプのことを行うのがあまり得意ではありません。
だから、現在私たちが目にしているこのようなあらゆる種類のことがあります。これらのどれも根本的なブロッカーだとは思いません。そして、これらのことができるシステムを開発する方法についてアイデアがあります。そして、これらの分野の多くで時間とともにメトリクスが改善されているのを見ています。だから私の期待は、数年かけてこれらのことがすべて対処されるだろうということです。しかし、まだそこには到達していません。
そして、人々ができるあらゆる種類の認知的なことの長いテールがあると思います。AIがまだ人間のパフォーマンスを下回っている分野です。そして私は、それが数年後に来ると思います。正確にはわかりませんが。
より信頼性の高いAIシステムへの道筋
AIはずっと信頼性が高くなり、それは多くの点で彼らの価値をかなり高めるでしょう。しかし、その期間中に、プロフェッショナルレベル以上に、おそらくコーディング、数学、既に通常の言語、世界の一般知識などでますます能力が高くなるでしょう。
だから、それは不均一なものです。時間とともにより信頼性が高くなると思うなら、それは単にモデルを大きくしたり、より大規模に物事を行ったりすることの問題ですか?それはより多くのデータですか?つまり、より信頼性を高くするための明確な道筋はありますか?
道筋はあると思います。そしてそれは1つの特定のことではありません。単により大きなモデルやより多くのデータだけではありません。場合によっては、特定の種類のより多くのデータです。視覚的推論を必要とするデータを収集すると、モデルはそれをどのように行うかを学びます。
場合によっては、内部の新しいプロセスのようなアルゴリズム的なものが必要です。例えば、継続的な学習をしたい場合、AIが時間とともに学習し続けるようにしたい場合、新しい情報が保存され、何らかの検索システムやエピソード記憶のようなものが必要かもしれません。
そして、時間の経過とともにその情報が何らかの基礎となるモデルに訓練し直されるシステムがあるかもしれません。だから、それには単により多くのデータ以上のものが必要です。何らかのアルゴリズム的およびアーキテクチャ的な変更が必要です。だから答えはこれらのことの組み合わせだと思います。そして、それは特定の問題が何であるかによります。
AGIがこの単一のイエス・ノーのようなものであるべきではないと思っていることは知っています。越えるべき閾値のようなものではなく、いわばスペクトラムのようなもので、これらのレベルがあるということです。それについて話してください。
ええ、ミニマルAGIと呼ぶものがあります。それは、人々が通常できると期待される認知的なことをすべて少なくともできる人工エージェントを持つときです。そして、私たちはまだそこに到達していませんが、1年かもしれません。5年かもしれません。おそらく2年ほどだと推測しています。それが最低レベルです。
そして、それがミニマムウェイジと呼ぶものです。それは、人にその認知的タスクを与えたら驚くような方法で失敗しなくなったとオーケーと言えるポイントです。そして、それが最低限のバーだと思います。
さて、それは私たちが人間の知能の能力に到達する方法を完全に理解していることを意味しません。なぜなら、驚くべき認知的偉業を成し遂げる並外れた人々がいる可能性があるからです。物理学や数学の新しい理論を発明したり、信じられないような交響曲を開発したり、素晴らしい文学を書いたりなどです。
そして、人間の認知の典型的なことができるからといって、非常に並外れた人間の認知の偉業を達成するために必要なすべてのレシピやアルゴリズム、すべてを知っているとは限りません。
一度、AIなしで人間の認知で可能なことの全範囲を達成できれば、少なくとも完全に人間レベルまで達成したことを本当に知ったことになります。そして、それをフルAGIと呼びます。
そして、それを超えるレベルがありますか?ええ。人間の認知で可能なことを超え始めると、人工超知能またはASIと呼ばれるものにぶつかり始めると思います。それには本当に良い明確な定義がありません。実際、私は何度も良い定義を考え出そうとしました。
しかし、私が考え出したすべての定義には何らかの重大な問題があります。しかし、少なくとも曖昧な言葉では、それはAGIだというような意味です。だからAGIの一般性を持っています。しかし、今や一般的に非常に能力が高く、人間が到達できるものをはるかに超えているのです。
あなたがそのフレーズを作るのを助けた人の1人だったことは知っています。ええ。それがフレーズとして今でも有用だと思いますか?つまり、今では非常に多くの競合する定義があります。それは誰もが使っているバズワードのようなものです。
そうですね。そして、あなたの言う通り、記述される方法は、あなたが説明しているこの連続体、このレベルというよりも、イエス・ノのような、越えられる一種の離散的な線のようなものです。
ええ。だから私がその用語を提案したとき、研究分野としてそれについてもっと考えていました。なぜなら、1年ほど前に私が働いていたBen Goertzelという男性と話していて、彼は古いAIのビジョンについて本を書きたかったのです。思考する機械、たくさんの異なることができる機械です。単に専門化されたものではなく、ポーカーをするだけ、テキスト読み上げをするだけ、非常に特定のことをするだけというものです。当時のAIの典型的なものでした。
非常に一般的な能力を持つシステムを構築するというAIの古い夢はどうでしょうか?学習し、推論し、言語を行い、詩を書いたり、数学をしたり、絵を描いたりなど、あらゆる種類の異なることができるものです。それを何と呼びますか?
そして私は彼に言いました。もし本当に私たちが求める一般性についてなら、なぜ単に一般という言葉を入れて、人工汎用知能と呼ばないのですか?AGIは舌に馴染みます。たぶんそうしましょう。
しかし、その後起こったのは、多くの人々がこの用語をオンラインで使い始め、すぐに人々はいつAGIを持つことになるのかと話し始めました。だから、研究分野やサブフィールドから人工物のカテゴリーへと移行しました。そうすると定義が必要になります。
たぶん間違いだったかもしれませんが、私が入って定義すべきでした。数年後に判明したことですが、1997年に論文でこの用語を使っていたMike Gubrudという男性がいました。しかし、それはナノテク安全会議でのことで、私たちの誰もこれについて知りませんでした。
しかし、彼がそれを定義した方法は、実際には産業や他の場所で人々が行う種類の認知的なことを参照していました。だから、私が使っているものと非常に似た味わいです。今はそうではありません。もしもっと早い段階で明確に固定されていたら、それは役立っただろうと思います。
追いかけたことを後悔していますか?いいえ。なぜなら、実際に一般的だったAIを構築するこのアイデア、あるいは少なくとも人々の知能が一般的である程度まで一般的なAIを構築するアイデアを人々が参照する方法を提供したと思うからです。そのための必要性があったと思います。
そして、それが用語が定着した理由だと思います。それは、それを参照する自由がなければどうするのかという感じだったからです。人々が高度なAIのようなフレーズを使う場合、AlphaFoldはある意味で高度なAIですよね?そして、それは非常に影響力がありますが、非常に非常に狭いです。あるいはAlphaGo、再びそれは非常に狭く、ある種の高度なAIシステムです。
では、非常に一般的なシステムをどのように参照しますか?しかし、その後起こったのは、異なる人々がその用語を見て、引き継いだということです。彼らは、それを異なる方法で適応させました。だから、異なるレンズを通してそれを見ました。
一部の人々にとって、初期の頃でさえ、AGIについて考えたとき、私は何十年も先の未来の何かを考えました。そして、これは非常に変革的だろうと。だから、彼らはAGIを、それが社会に生み出す変革の観点から考え始めました。
そして、もし彼らがそれを定義しようとすると、ああ、それは経済成長につながるからだとか、これらのあらゆる種類のことを行うだろうからだとか考える傾向があります。私は、それをより歴史的な時点として考える傾向があります。
これらのAIがある意味で私たちの知能と同様のカテゴリーに属すると言わなければならない時点です。そして、彼らが私たちが通常できる認知的なことができるということです。さて、それは必ずしも世界に革命をもたらすわけではありません。
歩き回っている典型的な人は、モーツァルトやアインシュタインになって、量子理論の後継者になったりはしないでしょう?しかし、それは非常に興味深い時点です。なぜなら、10年前、28年、いずれにせよ、人々が通常できる認知的なことができるほど近くにあるAIは全くなかったからです。
だから、これは重要な歴史的瞬間だと思います。そして、AIが何らかの形で私たちと同様のカテゴリーにあります。そして、それを少し定義しようとすることは有用だと思います。なぜなら、人々がこれらの異なるタイムラインを持っているという問題が出てくるからです。
一部の人々は、ああ、3年後にここにあると思う、と言います。ああ、15年先または20年先だと思う、などと言います。そして、多くの場合、私が彼らとそれについて話しに行くと、彼らが異なる定義を使っていることがわかります。
そして、それは多くの混乱を招くだけです。なぜなら、人々がその用語を異なることを意味するために使っているからです。そして、場合によっては、実際に私は彼らが起こると思っていることに同意します。彼らは単に言葉を異なる方法で使っているだけで、それはかなり多くの混乱を生み出すだけです。
AGIの定義に関する様々なアプローチ
人々がAGIに使っている他のいくつかの定義を比較したいと思います。一部の人々は、タスクのチェックリストのようなものがあると示唆しています。あるいは、人類の最後の試験のようなものがあるかもしれません。これは、人文科学や自然科学を含む異なる科目にわたる2500の質問の一種の言語モデルベンチマークです。
他にも、キッチンでパフォーマンスできる必要があると言った人々がいます。シェフとして訓練され、異なるキッチンに投入されてパフォーマンスできる必要があるとか、10万ドルから100万ドルを作ることができる必要があるというものさえあります。それらの定義についてどう思いますか?
それぞれについて私は見解を持っています。つまり、10万ドルか何かから100万ドルを作るというものです。つまり、それは明らかに非常に経済的な視点です。多くの人々がそれをするのに苦労するだろうと思います。それはある意味で非常に狭い視点だと思います。
つまり、市場で取引する取引アルゴリズムを持つことができるかもしれません。それができるかもしれません。しかし、それができるすべてはそれだけで、それは私が話していることではありません。
だから、AGIのGがあると思います。AGIの一般性です。人間の心の信じられないことの1つは、多くの異なることを行う柔軟性と一般性だと思います。それが私が興味深いと思うことです。
特定のタスクのセットがある場合、まあ、たぶんそれらのタスクができるシステムを構築できるかもしれません。しかし、それは基本的な認知的なことをまだできていないかもしれません。ほぼ誰でもできると期待されるような本当に単純なことです。それは不満足だと思います。
ああ、また失敗した、なぜなら、ほとんど誰でも理解できると期待される本当に単純なことを理解していないからです。だから、私が自分の定義を操作化する方法は、人間からの典型的なパフォーマンスが何であるかを知っているタスクのスイートを持つことです。人間から。そして、AIがそれらすべてのタスクができるかどうかを見ます。
さて、もしそれらのタスクのいずれかで失敗したら、私の定義を満たすことに失敗します。なぜなら、人々ができると期待される認知的なことができるほど一般的ではないからです。もしそれをパスしたら、その後第2フェーズに入ることを提案します。それはより敵対的です。
そして、私たちは言います。オーケー、それは一連のテストをパスしました。だから、私たちの標準的な何千ものテストのコレクション、または私たちが持っているものの中で何も失敗していません。敵対的テストをしましょう。人々のチームを集め、1、2ヶ月または何でも与えます。
彼らはAIの内部を見ることが許されます。彼らは好きなことを何でもします。彼らの仕事は、人々が通常できると信じていることで、認知的で、AIが失敗するものを見つけることです。もし彼らがそれを見つけられたら、定義上失敗です。
もし彼らが、数ヶ月それを調査し、テストし、頭をかきむしり、見つけようとした後でもそれを見つけられなかったら、ほとんどの実用的な目的の意図のために、私たちはそこにいると思います。なぜなら、この失敗ケースは今や見つけるのが非常に難しいからです。長期間の後でも、人々のチームがこれらの有効なケースを見つけることさえできません。
他の知能やAGIが何であるかの定義について合意に達することはあると思いますか?AGI自体に関して、私の推測は、数年後、AIが非常に多くの異なる方法で非常に一般的に能力が高くなるだろうということです。人々はそれらをAGIであると話すだけになるでしょう。
そして、AGIはそれらのものであるだけになるでしょう。そして、たぶん人々はあまり心配しなくなるでしょう。AGIであるかどうかについて小さな議論をするでしょう。人々は、ああ、最新のGemini 9か何かを持っていると言うでしょう。そして、それは本当に良いです。
詩を書くことができ、あなたが作ったばかりのカードゲームを教えることができ、あなたと一緒にプレイできます。数学ができ、物事を翻訳できます。休暇の計画を立てることができます。それは本当に、本当に一般的に能力が高いです。そして、それが何らかの一般的な知能を持っていることは人々にとって明白に思えるでしょう。
しかし、今のところ、つまり、そこに到達する前に、AGIへのルートでこの種の定義されたパスを持つことに関して。つまり、別の前に特定の知識を獲得する可能性があるなどのリスクについて話していますね。
例えば、倫理が本当に得意になる前に化学工学が得意になるなど。つまり、そこに到達する前に、今この作業を持つことはどれくらい重要ですか?異なる次元でその能力を理解することに関する作業。
それは非常に重要だと思います。なぜなら、私たちは社会で、強力で能力のある機械知能の到来をどのようにナビゲートするかを考えなければならないからです。そして、それを単一の次元に置くことはできません。
いくつかのことで超人間的に能力が高いかもしれません。他のいくつかの分野では非常に脆弱で弱いかもしれません。そして、その分布がどのようなものかを理解しなければ、存在する機会を理解できません。また、リスクや誤用される可能性のある方法も理解できません。
なぜなら、ああ、ここで超能力があります。しかし、ここで非常に、非常に弱いことを理解する必要があります。そして、特定のことが間違って行く可能性があります。だから、社会が現在の状況をナビゲートし理解するための重要な部分だと思います。
AI既にに関する多くの対話は、非常に能力が高いか、実際にはそれほど能力が高くなく誇大広告されているかのように話す傾向があると思います。現実ははるかに複雑だと思います。いくつかの点で信じられないほど能力が高く、他の点ではかなり脆弱です。全体像を把握する必要があります。全体像を把握する必要があります。
そして、人間の知能もそうです。一部の人々は本当に、本当に優れています。たくさんの言語を話します。一部の人々は数学が本当に得意です。一部の人々は音楽が本当に得意ですが、他の何かはあまり得意ではないかもしれません。
倫理とシステム2安全性
さて、パフォーマンスと一般性を得たとすると、私があなたと話したいこのもう1つの側面は倫理です。これはどのようにこのすべてに適合しますか?倫理には多くの側面があります。
そして、1つの側面は、単にAI自体が倫理的行動が何であるかについての良い理解を持っているかどうかです。そして、この倫理的行動の観点から、それができる可能性のあることを分析することができ、私たちが信頼できる方法でそれを堅牢に行うことができるかどうかです。だから、AI自体がそれが行っていることの倫理について推論できます。
それはどのように機能しますか?それをその中にどのように埋め込みますか?私はそれについていくつかの考えを持っていますが、それは唯一の解決策ではありません。しかし、それは非常に、非常に重要な問題だと思います。
一部の人々が思考の連鎖モニタリングと呼ぶものが好きです。私はこれについて話してきて、いくつかの短い講演をしてきました。私はそれをシステム2安全性と呼んでいます。そして、これはDaniel Kahnemanのシステム1、システム2の考え方です。まさに。
基本的なアイデアは次のようなものです。人として、困難な倫理的状況に直面している場合、直感だけで行くだけでは十分でないことがよくあります。実際に座って考える必要があります。オーケー、これが状況です。これらは様々な複雑さ、これらの微妙な違いです。これらは取ることができる可能性のある行動です。これらは異なる行動を取ることの可能性のある結果です。
そして、あなたが持っている倫理とノームとモラルのシステムに関してそのすべてを分析します。そして、それがどのようにすべて一緒に適合するかを本当に理解するために、それについてかなり推論しなければならないかもしれません。そして、その理解を使って何をすべきかを決定します。
だから、この状況で人間の脳が機能する方法を言いましょう。つまり、これはKahnemanのものですよね?つまり、誰かがあなたを苛立たせる、怒りの突進があると言います。反応したいです。それがあなたのシステムです。一種の素早い思考、本能的な。
息を吸い、それを考え抜き、結果を考慮します。それがあなたのシステム2の思考です。そして、異なる道を選ぶかもしれません。
ええ。だから、例えば、嘘をつくことは悪いと知っています、と言うかもしれません。だから嘘をつくつもりはありません。しかし、特定の状況にいる可能性があります。誰かを捕まえに来る悪い人々がいます。
そして、もし嘘をつけば、彼らの命を救うことができます。そして、倫理的にすべきことはたぶん嘘をつくことです。だから、単純なルールは正しい決定を下すのに常に適切というわけではありません。
だから、時々、本当に考え抜くために少しの論理と推論が必要です。まあ、この場合、実際に倫理的にすべきことは嘘をつくことで、たぶん誰かの命を救うことです。しかし、それは非常に複雑になります。
そして、これらすべてのトロッコ問題やこれらの種類のことを聞いたことがあるでしょう?そこでは、私たちの本能と分析が場合によっては分岐し始め、多くの混乱を引き起こします。だから、これはまったく単純な領域ではありません。
そして、今これができるAIがあります。これらの思考するAIです。そして、AIが使用する思考の連鎖を実際に見ることができます。だから、道徳的側面を持つ何らかの質問をAIに与えるとき、実際にそれが状況について推論するのを見ることができます。
そして、その推論を本当に、本当に厳密にし、それに従ってほしい倫理とモラルの本当に強い理解を持たせることができれば、原則として実際に人々よりも倫理的になるべきだと思います。なぜなら、それはより一貫してスーパーヒューマンレベルで適用し推論することができるからです。それが直面している決定、選択など。
なぜなら、それは倫理を推論問題に切り替えるからです。単なる感じるものというよりも。しかし、同時に、あなたがそう言っているとき、私はグラウンディングについて少し疑問に思います。
つまり、これらのものは確かに今のところ、人間として世界に住んでいるようではありません。人間の視点から世界を経験することがどのようなものかを取り、これらの機械を人間の倫理に真にグラウンディングすることは可能ですか?
まあ、いくつかの複雑さがあります。1つの複雑さは、1つの人間の倫理度がないということです。そして、このことについて異なる考えがあり、人々の間で、また文化や地域の間でも異なります。
だから、特定の場所でノームと期待が少し異なることを理解しなければなりません。そして、ある程度、モデルは実際にこれの多くをかなり知っています。なぜなら、彼らは世界中からデータを吸収するからです。しかし、ええ、それは本当にそれが得意である必要があります。
現実へのグラウンディングに関して。現時点で、私たちは世界からたくさんのデータを集め、これらの大きなモデルでそれらを訓練することによってこれらのエージェントを構築しています。そして、彼らは比較的静的なオブジェクトになり、私たちはそれらと対話します。そして、彼らは本当に多くの新しいことを学んだりしません。
それは変化しています。そして、私たちはその種のことをするためにより多くの学習アルゴリズムを導入しています。また、システムをより遺伝的にしています。だから、彼らは単にあなたが話しかけて、それから処理して応答を与えるシステムではありません。
しかし、何かをしに行くことができるシステムかもしれません。だから、オーケー、こういうことをするソフトウェアを書いてほしいと言うことができます。ああ、メキシコへの旅行の計画を考えてほしい。
そして、これとこれを見たいが、これは好きではない、などと言えます。そして、それらのエージェントはまた、ロボット工学やそのようなものでより具体化され始めるでしょう。それらのいくつかはソフトウェアエージェントです。彼らはそれらの種類のことを行います。
しかし、時間が経つにつれて、彼らはよりタップし、ロボットとAIのようになると思います。そして、このトラックを進み続けると、AIは相互作用と経験を通して実際に学ばなければならないあらゆる種類の異なることを通して現実により接続されるようになります。単に最初に入る一種の大きなデータセットだけではなく。
それが現実とのつながりが大いに締まる場所です。とはいえ、最初に彼らに注がれるこのデータの多くはどこかから来ました。その多くは人々から来ました。だから、そのプロセスを通して来る現実へのグラウンディングがあります。
AIが倫理において人間自身よりも優れているというこのアイデア。そこに到達するまで、どのようにそれが安全な方法で実装されることを確認しますか?推論が私たちのものと同じくらい良くなるまで。
つまり、例えば、功利主義的な議論、わかりますか。それは道路上の無人運転車にはかなりうまく機能します。できるだけ多くの命を救いたいのです。しかし、医学では、同じアイデア、わかりますか?もう機能しません。5人の他の人の命を救うために1人の健康な患者を犠牲にしません。それが正しい方向に推論することをどのように確認しますか?
すべてを保証することはできません。世界での行動の可能性の空間は非常に巨大なので、100%の信頼性は存在しません。しかし、存在するものではありません。そして、存在する世界の多くは、手術が必要で外科医に話しに行き、ああ、何かを取り除くつもりです、などと言います。
そして、外科医はあなたに言います。100%安全です。数学者として、彼らがあなたに真実を話していないことを知っています。何も100%ではありません。だから、私たちがしなければならないことは、これらのシステムをテストし、可能な限り安全で信頼性の高いものにすることです。
そして、利益とリスクをトレードオフしなければなりません。そして、モニターするなどの他のこともしなければなりません。だから、彼らが展開されているとき、私たちは彼らをモニターし、何が起こっているかを追跡し続けます。
だから、私たちが許容可能と考えるものを超える失敗ケースがあることを見始めた場合、ロールバックして停止するか、何かをしなければならないかもしれません。だから、私たちがする必要があるあらゆる範囲の異なることがあります。
それが出る前にテストをする必要があります。彼らがそこで物事をしているときにモニターする必要があります。解釈可能性のようなことをする必要があります。システムの内部を見ることができるようにします。
それがシステム2の良いことの1つです。もし安全性が正しい方法で実装されていれば、それが物事について推論しているのを見ることができます。しかし、この推論が実際にそれが本当にしようとしていることの正確な反映であることを確認しなければなりません。
しかし、システムの内部を見て、彼らが物事をする理由を本当に見る方法があれば、彼らが正しい方法で行動しようとしているという別のレベルの安心を与えることができるかもしれません。なぜなら、それが別の重要な微妙さだからです。それは常に結果についてだけではなく、たぶん意図についてです。
だから、誰かが意図的にあなたを傷つけることと、誰かが誤って偶然あなたにぶつかって当たったりすることには大きな違いがあります。そして、私たちはそれを非常に異なって解釈します。
だから、私たちのAIの内部を見ることができれば、私たちは受け入れるかもしれません。まあ、それは難しい状況に対処していました。その分析に従って、できる最善のことをしようとしましたが、何らかの負の副作用がありました。
私たちはそれで大丈夫かもしれません。なぜなら、その状況で人々でさえ正しいことをするのは非常に難しいかもしれないからです。しかし、もしそれが意図的に間違ったことをしたら、それは全く別のことです。
だから、これらはすべてAI、AGI、安全性の側面です。そして、私たちはこれらすべてのトピックに取り組んでいる人々がいます。
AGI展開の慎重なアプローチ
では、これらのものが実世界と相互作用する量を制限しますか?それらをどれくらい速くリリースするかなど、安全性の閾値に自信が持てるまで?
ええ。だから、私たちはあらゆる種類のテストベンチマークとテストを持っており、私たちは内部でしばらくそれらを実行します。そして、私たちがテストする特定のことがあります。リスクのある領域、例えば、システムがバイオウェポンのようなものの開発を手伝うかどうかを言おうとするようなものです。
そして、明らかにそうすべきではありません。だから、私たちがそれを見始めた場合、何らかの形でそれをだましたり、その領域で役立つように強制したりできる場合、それは問題です。ハッキングは別のものです。人々がハッキングするのを手伝うでしょうか、など。
だから、現時点でこれらのテストのコレクションがあります。そして、このコレクションは時間とともに成長し続けています。そして、これらの分野のいくつかでそれがどれほど強力であるかを評価します。
そして、私たちが見る能力の各レベルに適切な緩和策があります。それはモデルをリリースしないことを意味するかもしれません。それは、私たちが見つけたものに応じて様々な異なることを意味するかもしれません。
さて、社会への影響について話しましょう。本当に能力の高いAGIにたどり着いたら。そして、これはあなたが非常に多く考えてきたことであることを知っています。例えばです。
ええ、私の現在の主な焦点は理解しようとすることです。もしAGIを手に入れて、その能力レベルに対して合理的に安全である場合、他のすべてについてはどうでしょうか?そして、他のすべてのリストは巨大です。
例えば質問があります。オーケー、強力なAGIを持っていて、それは合理的に安全です。それは意識がありますか?それは意味のある質問ですか?あなたはスタンスさえ持っていますか?
まあ、私たちはそれを見ているグループを持っており、私たちはこれを研究する世界中の多くの主要な専門家と話しました。そして、短い答えは誰も本当に知らないということだと思います。
絶対に明確にするために、私たちはここでフルAGIについて話しています。しかし、今のところあるものは、あなたはそうではないと快適ですか?そうは思いません。
19年後の未来のいくつかのAGIに入ると、非常に非常に能力が高いです。私が彼に話しかけるとき、そのシステムは意識があるでしょうか?私がこれを研究する世界で最も有名な専門家の何人かに話すと。彼らの様々な議論を持つ様々な人々がいます。あるいは、反対の議論を持つ様々な人々がいます。
しかし、私が実際に具体的なシナリオを彼らに提示し、見てください、ここにJimがいて、私は人型ロボットに具体化されたチームを持っていると言います。そして、それは学習し、センサー全体で情報を統合し、世界でエージェントとしての自分の歴史を覚えることができ、これらすべての種類のことができます。
そして、自分自身の意識について話します。なぜなら、実際にAIモデルを意識について話すようにすることができるからです。そして、今、適切な種類の方法でそれらをプロンプトすれば、それは意識がありますか?
そして、私がそれを分野の人々に提示すると、まあ、おそらくそうではないと思うか、おそらくそうだと思いますが、実際には絶対に確信が持てません。そして、誰が知っていますか、たぶん私たちはそれに答えを持つでしょう。それは長年の質問だと思います。それは厳密な科学的質問にすることさえ非常に難しい質問です。なぜなら、これを測定可能なものとしてどのように組み立てるかわからないからです。
起こるだろうと確信していることは、一部の人々は彼らが意識があると思い、一部の人々は彼らがそうではないと思うだろうということです。それは確かに起こるでしょう。特に、本当によく受け入れられた科学的定義とそれを測定する方法がない場合。そして、それをどのようにナビゲートするつもりですか?それも非常に興味深い質問です。
しかし、これはどれくらいの中の1つの質問にすぎません。私たちは持っています。例えば、AGI、フルAGIから行くつもりですか?超知能に向かって行くつもりですか?それは人間の知能をはるかに、はるかに超えています。それは速く起こるのでしょうか?ゆっくり、決してないのでしょうか?
そして、もし超知能に行くとしたら、その超知能とは何ですか?その超知能の認知プロファイルは何ですか?人間をはるかに、はるかに超えている特定のものがありますか?既に200の言語を話すことができることを見ています。それは明らかです。
そして、計算の複雑さのためにたぶん実際には人間よりもそれほど良くならない他のことはありますか?私たちはそれについて何か考えがありますか?それは本当に重要な質問のように思えます。人類が考えるべきことです。1、2十年で超知能に行くつもりですか?
あなたはそれについてスタンスを持っていますか?超知能に行くと思いますか?つまり、例えばアインシュタインのようなことを考えています。一般相対性理論を思いつきました。AGIを持つ位置にいるでしょうか?彼らは世界について理論化し、人間が管理した以上に行く本物の科学的理解を思いつくことができます。
超知能への道と計算能力の限界
計算に基づいてそうなると思います。そして、人間の脳は移動式プロセッサです。数ポンドの重さです。約20Wを消費します、私は思います。脳内で信号が送られます。樹状突起を通してです。チャンネル上の周波数は約100Hzのオーダー、あるいは皮質では200Hzかもしれません。
そして、信号自体は電気化学的波動伝播です。彼らは約30m/sで移動します。オーケー。だから、それをデータセンターで見るものと比較すると、20Wの代わりに、200MWを持つことができます。数ポンドの代わりに、数百万ポンドを持つことができます。チャンネル上の100Hzの代わりに、チャンネル上に100億Hzを持つことができます。
そして、30m/sでの電気化学的波動伝播の代わりに、光速、毎秒30万キロメートルにいることができます。だから、エネルギー消費、空間、チャンネル上の帯域幅、信号伝播速度の観点から、4つの次元すべてで同時に6、7、たぶん8桁の大きさを得ました。
だから、人間の知能が可能なことの上限になるつもりですか?私は絶対にそうではないと思います。そして、知能システムを構築する方法についての私たちの理解が発展するにつれて、私たちはこれらのAIが人間の知能をはるかに超えて行くのを見るつもりだと思います。
人間、100メートル以上のトップフューエルドラッグスターを追い越すことができない、のと同じ方法です。クレーン以上のものを持ち上げることができません。ハッブル望遠鏡よりも遠くを見ることができません。
つまり、速く飛んで、最も速い鳥や、これらすべての種類のことができる特定の分野の機械を既に見ています。認知でもそれを見ると思います。情報保存のようなもので、いくつかの側面で既に見ています。Googleよりも多くを知りません。
そして、人間の脳が可能なことを本当に超えています。あらゆる種類の他のドメインで推論でそれを見始めると思います。だから、はい、私たちは超知能に向かって行くつもりだと思います。
だから、私はシステム2安全性のようなことに非常に興味があります。なぜなら、グローバルな競争力学のリストの種類のことのために超知能の開発を止めることができないなら、超知能を超倫理的にする方法について本当に一生懸命考える必要があるからです。
そして、目標を達成し、物事を行うだけでなく、倫理的決定を下すことにも米国の知能の能力を適用できるシステムがあれば、それはある方法でその能力とともにスケールするかもしれません。
これすべてが人々にとって何を意味するのか、私は疑問に思います。つまり、本質的に、つまり人間の知能が超知能によって小さく見えてしまうような地点に到達しつつあるとしたら、それは社会にとって何を意味しますか?
それは単に大規模な不平等を意味しますか?もはや経済に提供できるもので価値を持たない人々が完全に取り残されることを意味しますか?
社会構造の根本的変革
それは大規模な変革を意味します。人々が彼らの精神的および物理的労働を経済が生み出すリソースへのアクセスと引き換えに貢献する現在のシステムは、もはや同じように機能しないかもしれません。そして、私たちは異なる方法をする必要があるかもしれません。
さて、パイはずっと大きくなるはずです。だから、それは生産される商品とサービスの不足の問題ではありません。何でもずっと、ずっと良くなっています。しかし、人々のためのシステムが何であるかについて慎重に考える必要があります。社会に存在する富をどのように分配するかです。
ポストエコノミーがどのように機能するか、ポストAGI社会の構造がどのように機能するかについて、もっと多くの考えが行われる必要があると思います。私はRussell Groupの副学長たちに講演をしました。だから、イギリスでは、Russell Groupはイギリスのトップ大学です。
そして、私は彼らに言います。見てください、このAGIが来ると思います。そして、それはそれほど遠くありません。10年後にはそれを持つつもりで、それは人々が行うあらゆる種類の認知的労働と仕事のかなりの部分を行うことができるようになり始めるでしょう。
実際には、社会のこれらすべての異なる側面と社会の仕組みで人々が必要です。これを真剣に受け止め、教育にとって何を意味するかを考えることです。法律にとって何を意味しますか?工学、数学、都市計画、文学、政治、経済、金融、医学にとって何を意味しますか?医師。
だから、基本的にすべての学部、何かを研究するすべての学科。私たちは人間の知能が本当に重要なことです。そして、安価で豊富な能力のある機械知能の存在があれば、そのことについて再び考える必要があります。これの影響は何ですか?それは異なる方法で行われるべきですか?機会は何ですか、リスクは何ですか、など。
だから、ここには巨大な機会があると思います。しかし、産業革命や何かのような革命と同じように、それは複雑です。それはあらゆる種類の方法で社会にあらゆる種類の影響を及ぼします。そして、それの利益を得て、それのリスクとコストを最小限に抑えるために、私たちはこれを慎重にナビゲートする必要があります。
そして、現時点で、この特定のことに対してAGIが何を意味するかを考えている人が十分にいないと思います。そして、もっと多くの人々がそれをする必要があります。
2020年3月のことを覚えていますか?専門家が、これはパンデミックが来ていると言っていたとき。それは本当に指数曲線の端に立っているというものです。それから誰もがまだパブにいて、サッカーの試合に行ったりしていました。そして、専門家は何が来るのかについてますます叫んでいました。
それのようにも感じますか?それらの日々を覚えています。まあ、そのように少し感じます。人々は本当に大きな変化が来ていることを信じるのが非常に難しいです。なぜなら、ほとんどの場合、本当に巨大な何かが起ころうとしているという話です。それが起こらないわけではなく、何も起こらずに消えていくのです。
そして、ある種のヒューリスティックとして、誰かがあなたにいくつかのクレイジーな、クレイジーな、大きな、大きな、物事が起こるつもりだと言った場合、ヒューリスティックとして、おそらくあなたはそれらのほとんどを無視できます。しかし、注意を払わなければなりません。
時々、これらのことを推進している基本があります。そして、基本を理解すれば、大きな変化が来るというアイデアを真剣に受け止める必要があります。そして、時々大きな変化が来ます。
しかし、これはどういう意味ですか?つまり、オーケー、あなたはフルAGIを持つ長期的なビジョンのようなものを説明します。つまり、共有できる可能性のある繁栄があります、などです。しかし、そこに到達することは、つまり、私たちは本当に大きなことについて話しています。つまり、それは控えめな表現です。
大規模な経済的混乱、ここでの構造的リスク。次の数年がどのようになることを期待するかを教えてください。つまり、2020年3月に私たちが知らなかったことを教えてください。
次の数年で見るものは、あなたが話している大きな混乱ではないと思います。次の数年で見ると思うのは、AIシステムが非常に有用なツールから、実際に経済的に価値のある仕事をすることの負荷のより多くを引き受けることへと移行することです。
そして、それはかなり不均一だと思います。それは特定のドメインで他のものよりも速く起こるでしょう。例えば、ソフトウェアエンジニアリングでは、次の数年でアイザックによって書かれるソフトウェアの割合が上がると思います。
そして、数年後、以前に100人のソフトウェアエンジニアが必要だったところで、たぶん20人が必要で、その20人が高度なAIツールを使います。数年かけて、AIが一種の有用なツールから、本当に意味のある生産的な仕事をし、それらの分野で働く人々の生産性を高めることへと移行するのを見るでしょう。
また、労働市場の特定の分野でいくらかの混乱を生み出すでしょう。そして、それが起こるにつれて、AIに関する多くの議論が変化し、ずっと真剣になると思います。
だから、それはただの種類のようなものから移行するでしょう。ああ、これは本当にクールです。休暇の計画を立てるように頼むことができます。子供たちが何かに行き詰まっていて、宿題を理解していないときに手伝うことができます、などのようなことです。
オーケー、これは良い新しいツールではありません。これは実際に経済と社会とあらゆる種類のことを構造的に変化させるものです。そして、この新しい世界をどのように構築するかを考える必要があります。
なぜなら、この能力を利用できれば、これは本当の黄金時代になり得ると信じているからです。なぜなら、今や多くの種類の物の生産を劇的に増加させることができる機械があるからです。
そして、科学を進歩させ、たぶん機械ができるなら、私たちがする必要のないかもしれないあらゆる種類の労働から私たちを解放します。だから、ここには機会があります。
しかし、それは、この機械の信じられないほどの能力を何らかの形で、この能力から利益を得る個人として、そして社会の人々のグループとして人々の繁栄がある社会のビジョンに翻訳できる場合にのみ良いです。
短期的な労働市場への影響
なぜなら、その間に、もはや必要とされない80人のソフトウェアエンジニアがいるからです。そして、現時点のエントリーレベルの従業員である他のすべての人々、これによって最初に影響を受けることに気づいている卒業生。
短期から中期でこれによって影響を受けない産業があるとすれば、実際にはかなり多くのことがあると思います。配管工がよくそれを理解しますか?次の数年間で、AIが非常に速く発展したとしても、それが純粋に認知科学である場合、ロボット工学が配管工になることができる地点になるとは思いません。
そして、それが可能になったとしても、人間の配管工と価格競争力があるようになるまでにはかなりの時間がかかると思います。だから、純粋に認知的ではないあらゆる種類の仕事があり、これらのもののいくつかから比較的保護されると思います。
興味深いことは、現在非常に高い報酬を命じる多くの仕事が、一種のエリート認知作業であるということです。だから、世界中で複雑な合併買収取引を行っている高度な弁護士のような人々です。そして、金融で高度なことをしている人々。
だから今、高度な機械学習、ソフトウェアエンジニアリング、これらすべてのタイプのことをしている人々です。今、一部の数学者、私がかなり好きな経験則の1つは、ラップトップだけを使ってインターネット経由でリモートで仕事ができるなら、何らかのロボットを制御する何らかのフルハプティックボディスーツではなく、モバイルインターフェース、キーボード、画面、カメラ、スピーカー、マイクロフォンです。
マウス。完全にその方法で仕事ができるなら、それはおそらく非常に認知的な仕事です。だから、そのカテゴリーにいる場合、高度なAIがそのベースで動作でき、そうすることができると思います。
私が思う他のことは、それが一種の認知的仕事と呼ばれるものであったとしても、いくつかのタイプの仕事と人々がすることに人間的側面がある可能性があるということです。例えば、例えばインフルエンサーであるとしましょう。
そして、あなたはリモートで仕事をすることができるかもしれませんが、特定の性格を持つ特定の人物であるという事実、そして人々が知っている、何が起こっているかの背後に人がいるという事実は、多くの場合価値があるかもしれません。
それはそれに当てはまらない多くの人々を残していますね?私が思うことは、Russell Groupに提案したことに沿って必要なものは、社会のこれらすべての異なる側面を研究する人々がAGIを真剣に受け止める必要があるということです。
そして、私の印象は、これらの人々の多くがそうではないということです。そして、これらの特定のことに興味がある人々に話しに行くと、ああ、それは一種の興味深いツールです。それは一種の面白いです、などのようなものです。
しかし、彼らは今見ているものと、ちなみにしばしば古くなっている現在知っている現在の制限が内面化されていません。多くの場合、これらの人々は、ああ、1年前にそれで何かをしようとしたと言います。1年前は今や古代の歴史です。現在のモデルが行っていることと比較して。
そして、今から1年後には、今よりもずっと良くなるでしょう。その傾向を見ていません。ある意味で、実際には一般の人々の多くが専門家より先を行っていると思います。なぜなら、人間の傾向があると思うからです。
非技術者の人々に現在のAIシステムについて話すと、一部の人々は私に言います。ああ、それはすでに人間の知能のようなものを持っていませんか?私よりも多くの言語を話します。高校でできたよりも数学と物理学の問題をうまく解くことができます。私よりも多くのレシピを知っています。あらゆる種類のことで私を助けることができます。
税金の申告について混乱していて、私に何かを説明してくれました、などです。だから、何?なぜそれは知的ではないのですか?これは、多くの非技術者の人々と話すときに得るものの種類です。
しかし、多くの場合、特定のドメインの専門家である人々は、自分のことが非常に深く特別であると感じたいと本当に思っています。そして、このAIは本当に彼らに触れるつもりはありません。
AGI到来の予測タイムライン
AGIに関するあなたの今や非常に有名な予測で終わりたいと思います。そして、あなたはこれに対して10年以上信じられないほど一貫性を保っています。実際、あなたは2028年までにAGIの50対50のチャンスがあると言ってきました。
それはミニマルAGIですか?ええ。そして、あなたはまだ5055 2028ですか?2028です。そして、それは私の2009年のブログで見ることができます。
そして、フルAGIについてどう思いますか?それのタイムラインは何ですか?数年後です。3、4、5、6年後でしょう。ええ。しかし、10年以内には、そうだと思います。10年以内だと思います。
このすべての知識を持って、時々少しニヒリスティックに感じますか?ここには巨大な機会があると思います。多くの人々が多くの努力を注いで多くの仕事をしていますが、それがすべてそれほど楽しいわけではありません。
そして、ここには信じられないほどの機会があると思います。産業革命のように。そして、あらゆる種類の機械的仕事を行うためのエネルギーの利用を取りました。それは社会でずっと多くの富を生み出しました。
今、データとアルゴリズムと計算を利用して、あらゆる種類のより認知的な仕事も行うことができます。そして、それは人々のために存在する膨大な量の富を可能にすることができます。そして、富は商品の生産に関するニュースだけではありません。
そしてサービスですが、新しい技術、新しい薬、これらすべての種類のことです。だから、これは利益のための信じられないほどの潜在力を持つ技術です。さて、課題は、リスクと潜在的なコストなどに対処しながら、それらの利益をどのように得るかということです。
知能が本当に私たちの繁栄を助けることから本当に利益を得ている未来の世界を想像できますか?そして、それはどのように見えますか?そして、それは、私だけではそれに答えることができません。私はそれに非常に興味があります。私はこれを理解しようとするつもりです。できますが、これは本当に深い質問です。
それは哲学と経済学と心理学と倫理学とあらゆる種類の質問に触れます。そして、このことについて考え、その肯定的な未来がどのように見えるかを想像しようとするもっと多くの人々が必要です。ありがとうございます。とても。それは控えめに言っても、心を広げるものでした。
人間は指数関数があまり得意ではありません。そして、今、この瞬間、私たちは曲線の曲がり角にちょうど立っています。AGIはもはや遠い思考実験ではありません。
Shaneとの会話で非常に興味深いと思ったことは、彼が一般の人々が専門家よりもこれをよりよく理解していると考えているということです。そして、彼のタイムラインが正しいようなものであり、彼は過去に正しい習慣を持っていた場合、ゆっくりとした反省と実現のための時間の贅沢を持っていないかもしれません。
ここで。今、いくつかの真剣な注意が必要な困難で、緊急で、潜在的に本当に興奮させる質問があります。あなたはGoogle DeepMind、私のホストHannah Fryとのポッドキャストを聞いてきました。
その会話を楽しんだなら、ポッドキャストを購読するか、レビューを残してください。次のエピソードでは、DeepMind共同創業者のDemis Hassabisと座ります。だから、それを見逃したくないと言うとき、私たちを信頼してください。


コメント