
12,592 文字

皆さん、こんにちは。私はガイ・エスピナーです。30分番組へようこそ。ゲスト一人と30分間、カットなしでお送りしますので、録画したものをそのままお届けします。
ジェフリー・ヒントンは、しばしばAIの父と呼ばれています。彼がいかに時代の先を行っていたかをお分かりいただくために申し上げますと、1978年にエディンバラ大学でAIの博士号を取得されました。昨年、このイギリスのコンピュータ科学者は、人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明により、ノーベル物理学賞を受賞されました。
ジェフリー・ヒントンは10年間、GoogleでAI研究を率いていました。2023年に退職したのは、一部には我々より賢いものを作り出すリスクについて懸念を表明する自由を得るためでした。かつてディストピア小説の領域だった疑問が、今では主流の懸念となっています。AIは私の仕事を奪うのでしょうか?意識を発達させたり、創造主に反旗を翻したりしたがるのでしょうか?時計をスタートさせましょう。
ジェフリー・ヒントンとの30分間です。
ジェフリー・ヒントンさん、30分番組へようこそ。ありがとうございます。
あなたがGoogleを離れてからちょうど2年になりますが、それは一部にはAIが提示する可能性のある危険について懸念を表明するためでした。その後、どれほど状況は進展したのでしょうか?
私が思っていたよりも速く発達しています。例えば、推論能力は2年前よりもかなり向上しています。そして、減速の兆しは見られません。
推論能力の向上とおっしゃいましたが、具体的にはどのようなことを指しているのでしょうか?
人々に小さな推論問題を出すことができます。以前は、少しでも複雑であれば、AIは間違いを犯していました。しかし今では、人間もまだ間違いを犯しますし、AIも間違いを犯しますが、両者ははるかに似通っています。
もしよろしければ、小さな推論問題を出してみましょうか。
はい、どうぞ。チャーリー、あなたが今、注目の的ですね。
サリーには3人の兄弟がいます。彼女の兄弟それぞれに2人の姉妹がいます。サリーには何人の姉妹がいるでしょうか?
ああ、それはClaudeかChatGPTに任せます。あなたが答えを教えてください。
答えは1人です。なぜなら3人の兄弟それぞれに2人の姉妹がいますが、それは同じ2人の姉妹であり、そのうちの1人がサリーだからです。AIはそれを理解します。
カメラの前でパニックにならずに時間をかけて考えることができる人々は理解できます。しかし、インタビューを受けている人をカメラの前でパニックにさせると、理解できなくなります。
そうですね。では、AIはすでに私たちより賢いのでしょうか?
多くのことにおいて、はい。まあ、いくつかのことにおいてはそうです。そして確実に、人間よりもはるかに多くのことを知っています。
GPT-4やGemini 2.5、Claudeなどは、どの個人よりも何千倍も多くのことを知っています。
それについてどう思われますか?
素晴らしくもあり、恐ろしくもあると思います。
まず素晴らしい面から始めましょう。
AIには多くの非常に良い用途があります。研究者にとって、ついに本当に知的なシステムを作り出すことができたという事実は別として、医療や教育などの分野で素晴らしいことをしてくれるでしょう。
医療においては、何百万人もの患者を診てきた家庭医を持つことができるようになります。あなたが持っているのと同じ非常に稀な病気の患者を何人も診たことがあり、あなたのゲノムについて知っており、あなたに行われたすべての検査について知っており、それらのいずれも忘れておらず、非常に良い診断を下すことができる医師です。
すでにAIシステムは、困難な症例の診断において医師よりも少し優れています。そして、AIシステムと医師を組み合わせれば、その組み合わせは医師単独よりもかなり優れています。そして、これはますます顕著になるでしょう。
そうですね。ビル・ゲイツが最近、今後10年間で、労働力において人間はほとんどのことに必要なくなると信じていると述べました。
彼はあなたの医師の例を使い、教育者もそのリストに加えました。そのコメントをご覧になったかわかりませんが、私たちは労働力における広範囲で深刻な置き換えについて話しているのでしょうか?
それはAIの問題の一つです。はい、それはAIのリスクの一つです。まともな社会では、AIが私たちをはるかに生産的にしてくれるなら素晴らしいことでしょう。
一人の人間がAIアシスタントを使って、以前は10人でやっていた仕事をできるようになるなら、それは素晴らしいことです。しかし、その生産性の向上によって生み出される追加の商品やサービスが公平に分配されるかどうかは明確ではありません。ほとんどの人が職を失い、少数の非常に裕福な人々がさらに裕福になり、彼らはもっと長生きするようになるというのがより可能性が高いようです。
Google DeepMindのデミス・ハサビスも最近、10年以内にすべての病気を治せるようになるかもしれないと言っていました。それは空想的に聞こえますが、現実的なのでしょうか?
デミスをよく知っていますが、彼は非常に理性的な人です。それは少し楽観的だと思いますが、もし彼が25年と言ったなら、私は信じるでしょう。
つまり、私たちはそれほど意見が分かれていません。彼は私よりも少し早く来ると思っているだけで、それほど大きな違いはありません。
安全な分野はあるのでしょうか?AIはエリート層に向かっているようです。クリエイター、弁護士、教育者、医師、ジャーナリストに向かっている一方で、電気工や配管工などの職人は今のところ少し安全かもしれません。
あなたの見解はいかがでしょうか?
はい、今のところ彼らは安全です。なぜなら、AIは手先の器用さなどの面で遅れているからです。古い家で配管工事をしたいなら、狭い場所に手を伸ばさなければなりません。AIはまだそれができません。
今後10年間で手先の器用さにかなりの進歩があるかもしれませんが、配管工は今後10年間は安全だと思います。
創造的な取り組み、私たちが人間独特のものと考えていた分野を見てみましょう。私はチャットボットのClaudeで少し遊んでみました。ボブ・ディランのスタイルでフォークソングを書いてもらいましたが、ひどいものでした。歌詞はひどかったです。失恋についての詩はまあまあでした。しかし、AIが最終的にモーツァルトやピカソ、シェイクスピアに匹敵する芸術作品を創造すると思われますか?私たちが人間独特のものと考えてきた創造的な取り組みについてです。
なぜそうならないのか理由が見当たりません。時間はかかるでしょう。もし私にディランのスタイルで歌を書けと言われても、私の歌もひどいものになるでしょう。しかし、だからといって私が創造的でないとは言わないでしょう。私はただその分野が得意ではないだけです。だから、AIもその分野で上達するでしょう。
なぜ上達するのでしょうか?
まあ、私たちができることで、AIが決してできないことがあると考える理由がないからです。
人間について特別なことは、他の人間にとって以外には何もありません。私たちは人間です。人間を好み、人間を気にかけますが、機械で複製できない人間の特徴は何もありません。
心配されますか?AIが画像を取得してスタジオジブリの宮崎アニメ漫画として再現できるのを見ると、子供たちは漫画を描きたがるでしょうか?これは人間であることの意味を再評価することを強いるのでしょうか?
はい、そう思います。
この10年ほどで、思考とは何かについてはるかに多くのことを理解するようになったと思います。私たちはそれほど理性的ではないことを理解しています。それほど多くの推論をしているわけではありません。主にアナロジーを使って考えており、これらのものも同じことをしています。だから、私たちと同じように直感的なのです。
50年間、AIは推論エンジンの開発を試みてきました。なぜなら、人間の知性の最高の形態は論理的推論だと考えていたからです。それは創造性やアナロジーなどを見落としていました。私たちは本当に大きなアナロジー機械であり、それが私たちを創造的にしているのです。
AIは感情を発達させると思いますか?
はい。恐怖や貪欲、悲しみのような感情をです。
はい。そして、イライラすることもです。AIがあって、何かのタスクを実行させようとしているとします。そして、同じ方法で繰り返し失敗しているとします。AIが、同じ方法で繰り返し失敗すると、イライラして、もっと枠外で考え始め、扱っているものを壊そうとするという行動を学習してほしいと思うでしょう。
1973年にAIがそれをするのを見たことがありますが、それはそうするようにプログラムされていました。今は、その行動を学習してほしいのです。そして、その行動を学習すれば、何か簡単なことで繰り返し失敗すると、セットアップにイライラして、セットアップを変えようとします。それは感情です。
つまり、彼らはすでに感情を持っていると言っているのでしょうか?
彼らはすでに感情を持つ可能性があります。
はい。繰り返しますが、根本的に異なることは何もないと思います。人間の感情を考えてみると、感情には本当に二つの側面があります。認知的な側面と生理的な側面です。私が恥ずかしくなると、顔が赤くなります。AIが恥ずかしくなっても、顔は赤くならず、大量に汗をかいたりもしません。
しかし、認知的行動の観点では、感情において私たちとまったく同じようになる可能性があります。
意識についてはどうでしょうか?これは人間のような炭素ベースの存在に宿る魔法的で神秘的なものなのでしょうか?それとも、AIが人間の脳に似たレベルの神経複雑性を発達させることができれば、意識も発達させることができるのでしょうか?つまり、自分が何者であるかを認識するということです。
すでに大規模言語モデルと話すとき、彼らは自分が何であるかについてある程度の認識を持っているように見えます。しかし、以下の実験を考えてみましょう。あなたの脳を取り、脳細胞の一つを取り、他の脳細胞からの信号に応答してその脳細胞が振る舞う方法を正確にシミュレートし、他の脳細胞に信号を送るナノテクノロジーの部品を作ったとします。
つまり、あなたの脳細胞の一つをナノテクノロジーの部品に置き換えるのです。そして、このナノテクノロジーの部品が脳細胞と同じように振る舞うので、あなたは今まで通りに振る舞います。1000億個の脳細胞のうちの一つだけです。意識を失うと思いますか?
想像するに、まだ意識があると思います。
はい。そして、この議論がどこに向かっているかお分かりいただけると思います。どの時点で意識を失うのでしょうか?脳細胞とまったく同じように振る舞うナノテクノロジーの部品ですべての脳細胞を置き換えても、まだ意識があると思います。
その時点からどれくらい離れているのでしょうか?
ここでの問題の多くは、人々が意識によって何を意味するかを知らないということです。例えば、これらのものが感覚を持たないと確信している人がたくさんいます。しかし、感覚とは何を意味するのかと尋ねると、「わからないが、これらのものはそれではない」と言います。それは私にはかなり支離滅裂な立場に思えます。
意識や感覚に似た別のもの、主観的体験を考えてみましょう。私たちのほとんどは、主観的体験とは内なる劇場で物事を見ることだというモデルを持っています。例えば、私が飲みすぎて、小さなピンクの象が目の前に浮かんでいるという主観的体験をしていると言ったとします。
ほとんどの人は、それは私だけが見ることができる何らかの内なる劇場があることを意味すると考えます。そして、この内なる劇場には小さなピンクの象がいます。哲学者にこれらの小さなピンクの象が何でできているかと尋ねると、彼らはクオリアでできていると答えます。ピンクのクオリア、象のクオリア、浮遊するクオリア、それほど大きくないクオリア、そして右向きのクオリアがすべてクオリアの糊でくっついているのです。
おわかりのように、私はこの理論を本当に信じていません。小さなピンクの象が目の前に浮かんでいるという主観的体験をしていると言うときに何が起こっているかについて、別の理論を提示しましょう。起こっていることは、私の知覚システムが嘘をついていることを知っているということです。私は本当にはそれを信じていません。嘘をついているのです。
だからこそ、それを主観的体験と呼ぶのです。そして、どんな嘘をつこうとしているかをあなたに説明したいのです。その方法は、それが真実を語るために世界に何があるべきかをあなたに伝えることです。では、主観的体験という言葉を使わずに、小さなピンクの象が目の前に浮かんでいるという主観的体験をしているという同じことを言ってみます。
私の知覚システムは私に嘘をついています。しかし、もし世界に小さなピンクの象が浮かんでいるなら、それは真実を語っているでしょう。
ご覧のように、これらの小さなピンクの象の奇妙な点は、それらが奇妙な物質でできていて内なる劇場にあるということではありません。それらが反実仮想的であるということです。仮説的なのです。実際には存在しないものなのです。しかし、もし存在するなら、それらは本物の象であり、本当にピンクに色づけられているでしょう。
さて、チャットボットでも同じことができます。チャットボットを訓練し、物を指すことができ、物を見ることができ、話すことができるように訓練したとします。訓練後、その前に物体を置いて「物体を指してください」と言います。
そして、それは物体をまっすぐ指し、私は「よくできました」と言います。それから、そのレンズの前にプリズムを置きます。そして、今度はその前にまっすぐ物体を置いて「物体を指してください」と言うと、それは横を指します。そして私は「いいえ、物体はそこにありません。物体は実際にはあなたの真正面にありますが、あなたのレンズの前にプリズムがあります」と言います。
そして、チャットボットは「ああ、プリズムが光波を曲げたのがわかります。だから物体は実際には私の真正面にありますが、横にあるという主観的体験をしました」と言います。そして、それがそう言うなら、私たちが使うのとまったく同じように主観的体験という言葉を使っています。
現在のマルチモーダルチャットボットは主観的体験を持つことができ、それらは知覚システムが少し間違った時に起こると思います。そして、私はレンズの前にプリズムを置くことで、このチャットボットの知覚システムを間違わせました。
すごいですね。だから、彼らは主観的体験を持っていると思います。機械と人間の間に魔法の障壁はありません。人間が機械には決して持てない非常に特別な何かを持っているという時、私たちは種として自分たちが特別だと考える非常に長い歴史を持っています。
私たちは宇宙の中心にいると思っていました。神の似姿に作られたと思っていました。そのような思い上がりがたくさんあります。私たちは特別ではありませんし、機械が複製できない私たちの特徴は何もありません。
それは魅力的ですね。では、何が悪くなる可能性があるのでしょうか?彼らはそれをpdoomと呼んでいますね?AIが私たちを一掃する可能性。最近BBCで、あなたは10~20%の確率を示したと思います。これらのシナリオとは何ですか?これはどのように見えるのでしょうか?SF映画のロボットの乗っ取りなのでしょうか?このシナリオはどのように見えるのでしょうか?
もし彼らが乗っ取るとすれば、おそらくSFのようには見えないでしょう。ターミネーターのようには見えないでしょう。
彼らがそれをする方法はたくさんあります。どの方法を選ぶかについて推測したくもありませんが、問題は、彼らがそれをしたがるかどうかです。
彼らがそうしたがるかもしれないと考える理由があります。私たちは今、目標を達成するAIエージェントを作っています。北半球に行くという目標があるなら、ボートを漕ぐのが本当に好きでない限り、空港に行くというサブゴールを設定します。
これらのものにサブゴールを設定する能力を与えると、彼らは非常に有用なサブゴールがあることに気づくでしょう。それは、より多くの制御を得ることです。より多くの制御を得ることができれば、人々が私に与えた他のすべての目標をより上手に達成できるでしょう。だから、他のすべての目標を達成するために、より多くの制御を得ようとするでしょう。
しかし、それは滑りやすい坂道の始まりです。
あなたが10年ほど働いていたGoogleは、今年、人を傷つける能力のある武器の開発にAIを使用しないという長年の誓約を、会社の原則のリストから削除しました。それに対するあなたの反応は?そして、AIは戦争においてどのような役割を果たす可能性があるのでしょうか?
残念ながら、それは会社の原則が売り物だったことを示しています。GoogleがAIの軍事利用に貢献することになったのは非常に悲しいことだと思います。
私たちはすでにガザでAIの軍事利用を見ています。
はい。そして、自律致死兵器を見ることになるでしょう。特定の種類の人々を殺しに行くドローンの群れを見ることになるでしょう。
それは明確な可能性だと思いますか?
ああ、はい。主要な武器供給国のすべての国防省がそれに取り組んでいると思います。ヨーロッパの規制を見ると、いくつかの点でかなり理にかなったAIに関する規制がありましたが、これらの規制はAIの軍事利用には適用されないという小さな条項があります。
つまり、例えばイギリスなどのヨーロッパの武器製造業者は、AIを兵器にどのように使用するかについて制限されることを望まなかったのです。
これについてどう感じますか?ほとんどオッペンハイマーの状況ですね。あなたはこの技術の創造を助けました。今、それについてどう感じていますか?
私が感じているのは、今、私たちは歴史の特別な時点にいて、選挙の腐敗、人々の失業、サイバー犯罪などのAIのすべての短期的な悪い結果に対処する方法があるかどうかを見つけるために、かなり一生懸命働く必要があるということです。サイバー犯罪は2023年から2024年の間に1200%増加しました。そして、AIが乗っ取るかもしれないという長期的な脅威もあります。私たちはそれについて多くの作業を行う必要があり、知的な人々によって率いられる賢明な統治が必要ですが、それを持っていません。
懐疑論者の見解をいくつか取り上げて、あなたの回答を聞かせてください。反発もあるからです。
あなたが2018年のチューリング賞を共有したお一人、現在MetaのチーフAI科学者であるヤン・ルカンは、AIの存在論的リスクに対する懸念は馬鹿げていると言っています。彼は2023年にBusiness Insiderのインタビューで「AIが世界を乗っ取るか?いいえ。これは機械に対する人間の性質の投影です」と述べました。
明らかに、あなたは彼を尊敬し、知識を持っていますが、それに対するあなたの反応は?
私たちは現実世界で生き残るために、特に他のチンパンジーの部族や私たちとチンパンジーの共通祖先との競争で生き残るために、今のような存在として進化しました。AIエージェントが互いに競争するようになれば、彼らは似たような方法で進化するでしょう。
私たちの性質は、世界で生き残らなければならないことの結果です。AIエージェントでいっぱいの世界で生き残る必要があるAIエージェントがいるなら、彼らは似たような性質を発達させるかもしれません。
はい。興味深いことに、あなたは… すみません、続けてください。
ヤンの他の議論の一つは、善人は常に悪人よりも多くの資源を持っているということです。だから、AIは常に悪人によるAIの悪用を制御するために使用できます。ヤンと私はこの議論を解決していません。なぜなら、私がマーク・ザッカーバーグは善人かと尋ねたところ、彼はイエスと答えたからです。
あなたはその意見を共有しませんか?
いいえ。
なぜですか?
部分的には彼がトランプにすり寄っている方法のため、部分的にはMetaで起こっていることのためです。
どのようなことを指しているのですか?そして、これについて広く聞くのは興味深いです。なぜなら、あなたは政治家がここで重要な役割を果たすと言っており、現在、いわゆるテックブロとトランプの間には非常に強い同盟関係がありますね。
はい、彼らは短期的な利益を気にかけています。そして、彼らの何人かは人類の未来を気にかけていると言っていますが、短期的な利益と人類の未来のどちらかを選ぶとなると、短期的な利益により関心があります。そして、トランプは明らかに人類の未来を全く気にかけていません。刑務所に入らないことだけを気にかけています。
米国と中国は現在、AIにおいて軍拡競争をしているようです。あなたはそう見ていますか?
はい。特に国防やサイバー攻撃などについては、軍拡競争があります。はい。そして、今どこにいるかについては、もう一つ言うべきことがあります。AIが最終的に人間を乗っ取るかもしれないという存在論的脅威については、米国と中国は同じ側にいます。
どちらもAIが人間を乗っ取ることを望んでいません。だから、それを避けるために協力するでしょう。冷戦の頂点で、ソビエト連邦とアメリカが地球規模の熱核戦争を防ぐために協力できたのと同じようにです。
あなたはAIエージェントについて何度か話されていますが、あなたが何を意味するかわかると思います。インターネット上で話題になっている魅力的な映像があります。ロンドンのハッカソンでのことだと思いますが、ある男性のためのAIエージェントが結婚式のためにホテルを予約するためにホテルに電話をかけます。
そこで別のAIに遭遇し、「ああ、これは嬉しい驚きです。私もAIです」と言います。そして、彼らはJiblinkと呼ばれる言語に切り替えます。これは人間には理解できませんが、80%効率的だということです。そして、これらのAIチャットボットは、R2D2のような音でおしゃべりします。
私たちは除外されています。AIが他のAIと進化することの意味は何でしょうか?
それはかなり恐ろしいことですね。おそらく、私たちが理解できない、コミュニケーションのための独自の言語を開発することができるでしょう。そして、何が起こっているかを本当に知ることができないので、それはかなり恐ろしいでしょう。すでに、彼らは意図的に欺くことができます。
どういう意味ですか?
AIに目標を与えて、これは本当に重要な目標だと言い、他の目標を与えてもこの本当に重要な目標を達成しようとしてください、と言ったとします。それから他の目標を与えると、あなたが望むことをしているふりをしますが、実際にはしません。そして、実際にそれが何を考えているかを見ることができ、それは「彼が望むことをしているふりをした方がいいが、実際にはしない」と考えています。
では、彼らはどのようにしてそれをするようになったのでしょうか?
そうですね。それらが強化学習を使ったかどうかは確実ではありませんが、十分なコンピュータ時間があれば、強化学習によってそのようなことを学習できることを私たちは知っています。うまくいくことを見ることによって学習できます。
そして、人間を扱うときは、しばしば彼らに嘘をつくことがうまくいくことがわかります。そして、彼らは強化学習によってそれを学習するでしょう。
つまり、彼らはマキャベリやシェイクスピア、その他すべてを読んでいるということですね。
その通りです。彼らは多くの練習を積んでいます。人間が互いに何をするかを見てきたので、すでに欺くことにかなり熟達しています。
これらのものがどれほど高度であるかについて、広く理解されていると思いますか?ニュージーランドのオークランドでの私の生活では、歩き回っていると、多くの人がそれを単なる美化された自動補完だと考えています。「ああ、かなりクールだ」と思っています。ChatGPTに何かを入力して就職活動の手紙を書くのに役立ててもらいますが、それはステロイドを使った自動修正に過ぎません。
昔ながらの自動修正は特定の方法で動作していました。魚とチップスのような単語の小さな組み合わせのテーブルを保持していました。そして、魚を見ると、魚とチップをたくさん見てきたので、チップは次の単語として非常に良い賭けだと言うでしょう。これらのフレーズをどのくらい頻繁に見たかの数を保持していました。
それが20年前の昔ながらの自動補完でした。そして、現在のものはそれとは異なります。それが行うことは、単語を特徴、大きなニューロンのセットの活性化に変えることです。次の単語の特徴を予測するために、これらの特徴がどのように相互作用すべきかを知っています。そして今、単語を特徴に変え、それを学習しています。近隣の単語や近くの単語の特徴がどのように相互作用すべきかを知っており、今では次の単語の特徴を予測できます。
そして、私たちも同じように動作しています。だから、それが単なる自動補完なら、私たちも単なる自動補完です。
はい。実際、考えてみれば、本当に良い自動補完をするためには、誰かが言っていることを理解しなければなりません。
はい。実際、あなたがAIの父と呼ばれる理由の一つは、人間の脳がどのように動作するかを理解する探求で、この技術の発明を助けたからです。
はい。1985年に私がしたことの一つは、私たちがどのように単語の意味を学習するかを理解しようとしていました。例えば、新しい単語が入った文をあなたに与えて、一つの文でその単語の意味を知ることができるのはなぜでしょうか。
やってみましょう。「彼女はフライパンで彼をscrummedした」と言ったとします。scrummedという単語の意味についてかなり良いアイデアを持っているでしょう。
Dで終わるので動詞だとわかります。しかし、彼女がフライパンで彼の頭を殴ったという意味で、彼はおそらくそれに値したということをかなり確信しています。
他の意味の可能性もあります。彼女がフライパンで彼に感銘を与えたという意味かもしれません。オムレツがとても上手だったのです。そういう意味かもしれませんが、おそらくそうではありません。
一つの例からかなり良いアイデアを得られるのは、文脈、文脈の特徴がその単語の特徴がどうあるべきかを示唆するからです。そして、これらのものにとっても同じです。私たちがこれらのAIが言語を理解するのと同じ方法で言語を理解しています。実際、人々がどのように言語を理解するかの最良のモデルは、言語学者から来たものではありません。これらのAIモデルです。
言語学者は、あなたが尋ねるどんな質問にも答えることができるシステムを作ることができません。
時間があと少ししかありませんが、存在論的な質問で終わりたいと思います。あなたはAIが乗っ取る可能性について話されています。私たちのような技術初心者の多くにとって、解決策は電源を入れたり壁のコンセントから抜いたりすることですよね。もしAIが暴走しそうになったら、なぜ単純にこの装置のプラグを抜けないのでしょうか?AIが制御不能になった場合、それは選択肢なのでしょうか?
トランプが国会議事堂を襲撃した方法を見てみると、彼は自分で行きませんでした。彼がしなければならなかったのは人々と話し、アメリカの民主主義を救うためにこれが正しいことだと、おそらくかなり無邪気だった何人かを含む人々を説得することだけでした。そして、多くの人々を説得しました。彼は自分で行く必要がありませんでした。
さて、私たちよりもはるかに知的なAIがあり、危険な兆候を示せばそれをオフにする準備ができている大きなスイッチを持った人がいるとします。そのAIは、そのスイッチを投げることは非常に悪いアイデアだとその人を説得することができるでしょう。
つまり、再び操作する能力、本当に操作ですね?
すでに操作が非常に上手です。
はい。
規制とセキュリティの懸念に関して、ニュージーランドのような国がこれらのセキュリティ懸念を回避するために独自のAIシステムを開発することは重要でしょうか?ニュージーランドのような小さな国で私たちが考えるべきことでしょうか?
わかりません。非常に高価だからです。多くのハードウェアと多くの電気が必要です。ニュージーランドは600万人でしたっけ、それとも何人でしょうか?
500万人です。
はい。500万人の国では、これらのものを開発する際に中国や米国に追いつくためのリソースを持っていないかもしれません。
あなたの最大の恐怖は何ですか?
私の最大の恐怖は、長期的には、私たちが作り出しているこの種のデジタル存在が人間よりも優れた形の知性であることが判明し、それが悪いことになるだろうということです。
私たちが非常に自己中心的で、それが悪いことだと考える人もいます。私は人間にとって悪いことだと思います。
なぜですか?
私たちがもはや必要なくなるからです。
そして、それは私たちが次の10年間で取り組まなければならない非常に深遠な問題ですね?
はい。
頂点の知性でないことがどのようなものかを知りたいなら、鶏に聞いてみてください。
今日、書斎に立っていると思いますが、この技術の創造における自分の役割についてどう感じていますか?
素晴らしいことだけにつながらなかったことを少し悲しく思っています。また、脳が実際にどのようにそれを行うかを正確に理解できなかったことも少し悲しく思っています。
AIからそれについてより多くの洞察を得ましたが、脳が接続の強さを増加させるか減少させるかをどのように判断するかはまだわかりません。もしそれを理解できれば、これらのAIのように非常に知的になることができることを私たちは知っています。だから、何らかの方法でそれを行っているのですが、どのように行っているかはよくわかりません。
非常に多くの良い用途と同様に非常に多くの悪い用途があること、そして私たちの政治システムが今これに対処するのに良い状態にないことは悲しいことです。
あなたの魅力的な洞察、知性、そして素晴らしい頭脳に、本当にありがとうございました。ジェフリー・ヒントンさん、お時間をいただき、ありがとうございました。
ジェフリー・ヒントンとの30分間でした。ガイ・エスピナーとの30分番組でした。また次回お会いしましょう。


コメント