AI専門家:警告 2030年が後戻りできない地点になるかもしれない!私たちはAIについて嘘をつかれてきた!

AGI・ASI
この記事は約81分で読めます。

本動画では、AI分野で50年以上のキャリアを持ち、多くのAI企業のCEOが学んだ教科書の著者であるスチュアート・ラッセル教授が、人工知能の急速な発展がもたらす実存的リスクについて警鐘を鳴らしている。ラッセル教授は、現在のAI開発競争が安全性を軽視したまま進行しており、主要なAI企業のCEOたちでさえ25%から30%の確率で人類絶滅のリスクがあると認識していることを明らかにする。彼は、AGI(汎用人工知能)の到達が2030年前後と予測される中で、適切な規制と安全保障メカニズムなしに開発を続けることは、ロシアンルーレットを全人類に強要するようなものだと批判する。また、ゴリラ問題という比喩を用いて、人間より知的な存在が誕生した際に人類が直面する支配と生存の問題を説明し、AI開発の一時停止を含む根本的な方向転換の必要性を訴えている。教授は、経済的インセンティブと地政学的競争が安全性よりも優先される現状に「appalled(愕然としている)」と表現し、週80時間から100時間働いて歴史の進路を変えようと奮闘している。

AI Expert: (Warning) 2030 Might Be The Point Of No Return! We've Been Lied To About AI!
AI Expert STUART RUSSELL, exposes the trillion-dollar AI race, why governments won’t regulate, how AGI could replace hum...

AI超知能の禁止を求める声明

10月、あなた自身やリチャード・ブランソン、ジェフリー・ヒントンなどのリーダーを含む850人以上の専門家が、AI超知能の禁止を求める声明に署名しました。あなた方は人類絶滅の可能性について懸念を表明しています。なぜなら、AIシステムの安全性をどう保証するか解明しない限り、私たちは終わりだからです。

あなたはAIの分野で非常に影響力がありますね。現在AI企業を構築している多くのCEOが学んだであろうAIの教科書を執筆されました。そうですね。何か後悔はありますか?

スチュアート・ラッセル教授は、Timeマガジンによって最も影響力のあるAI分野の声の一人に選ばれました。50年以上にわたって研究、教育、そして人間が制御を維持できるようなAIの設計方法を模索してきた後、あなたはこのゴリラ問題について、人間との関係でAIを理解する方法として語っていますね。

数百万年前、人類の系統は進化の過程でゴリラの系統から分岐しました。そして今、ゴリラたちは自分たちが存続できるかどうかについて何の発言権も持っていません。なぜなら私たちは彼らよりもはるかに賢いからです。つまり、知能は実際に地球を支配する最も重要な単一の要因なのです。

その通りです。しかし私たちは、自分たちより賢いものを作ろうとしているところです。

まさにその通りです。では、なぜ人々は止めないのでしょうか?

理由の一つは、マイダスタッチと呼ばれるものです。マイダス王は、自分が触れるものすべてが金に変わるように神々に願った伝説の王です。私たちはマイダスタッチを良いことだと考えがちですが、彼が水を飲もうとすると水が金に変わってしまいます。そして娘を慰めようとすると、娘が金に変わってしまうのです。こうして彼は悲惨と飢餓の中で死んでいきます。

これは現在の状況に二つの点で当てはまります。一つは、強欲がこれらの企業を、ロシアンルーレットをするよりも悪い絶滅確率を持つテクノロジーを追求するよう駆り立てているということです。そしてそれは、私たちの許可なく、テクノロジーを開発している人々自身によってさえそう言われているのです。人々は、それが自然に制御可能になると考えているなら、自分自身を騙しているだけです。

50年後、私は引退することもできますが、その代わりに週80時間から100時間働いて、物事を正しい方向に動かそうとしています。では、もしあなたの目の前に、人工知能のすべての進歩を止めるボタンがあったとしたら、それを押しますか?

まだです。安全性を保証できるまともなチャンスがまだあると思います。それが何なのか、もっと説明できます。

チャンネル登録のお願い

コメント欄で、購読していないことに気づいていない人がいるというメッセージをいつも目にします。もしこのチャンネルの購読者かどうか確認していただけたら、とてもありがたいです。これは簡単で無料のことで、この番組を頻繁に見る人なら誰でもできる、この番組を現在の軌道で続けていくための助けになることです。

ですので、購読しているかどうか確認してください。本当にありがとうございます。なぜなら、不思議な意味で、あなたは私たちの歴史の一部であり、この旅を私たちと一緒にしているからです。そのことに感謝しています。本当にありがとう。

スチュアート・ラッセル教授の経歴

スチュアート・ラッセル教授、OBE。多くの人々がここ数年AIについて話しています。これは本当に驚きました。あなたは人生のほとんどをAIについて話してきたようですね。

私はイギリスの高校でAIを始めましたが、その後82年からスタンフォードで博士課程を始めました。86年にバークレーの教員になりました。ですから、バークレーの教授として40年目になります。

AIコミュニティが私の研究で最もよく知っているのは、私が書いた教科書です。これはAIを学ぶほとんどの学生が学ぶ可能性の高い教科書ですか?

そうです。つまり、あなたは31年前に人工知能の教科書を書いたのですね。実際には、書き始めたのはもっと前でしょう。なぜなら、とても分厚いですから。私が生まれた年です。私は92年生まれです。

ええ、書くのに約2年かかりました。私とあなたの本は同い年なんですね。それは、あなたがどれだけ長くこのことについて話し、書いてきたかを理解する素晴らしい方法です。実際、興味深いことに、現在AI企業を構築している多くのCEOは、おそらくあなたの教科書から学んだでしょう。

チェルノブイリ規模の災害が必要だという会話

あなたは誰かと会話をしたそうですね。その人は、今日私たちが話そうとしているメッセージを人々に伝えるためには、人々が目を覚ますために大惨事が起こる必要があるだろうと言いました。その会話の文脈と、誰とその会話をしたのか教えていただけますか?

それは大手AI企業の一つのCEOとの会話でした。彼は私と同じように二つの可能性を見ています。一つは、チェルノブイリと同規模、あるいは小規模と言いましょうか、小規模な災害が起きることです。1986年にウクライナで起きた核メルトダウンです。

その核施設は爆発し、直接的にはかなりの数の人々が亡くなり、間接的には放射線によって数万人が亡くなったかもしれません。最近のコスト見積もりでは1兆ドル以上です。それなら人々は目を覚ますでしょう。それで政府が規制するようになるでしょう。彼は政府と話しましたが、政府はそうしないのです。

だから彼は、このチェルノブイリ規模の災害を最良のシナリオと見ていました。なぜなら、そうすれば政府が規制し、AIシステムを構築することを要求するようになるからです。そして、このCEOはAI企業を構築しているのですか?

彼は主要なAI企業の一つを運営しています。そして彼でさえ、人々が目を覚ます唯一の方法は、チェルノブイリレベルの核災害があることだと考えているのですか?

ええ、核災害である必要はありません。例えば、誰かによって悪用されているAIシステム、例えばパンデミックを設計するために使われたり、あるいはAIシステム自体が何かをする、例えば私たちの金融システムや通信システムをクラッシュさせるようなことです。もう一つの選択肢は、完全に制御を失うというはるかに悪い災害です。

AI業界の人々の本音

あなたはAIの世界の多くの人々と多くの会話をしてきましたね。テクノロジーを構築した人、研究した人、あるいは現在AIレースにいるCEOや創業者などです。一般の人々が信じないような、あなたがプライベートで聞く興味深い感情は何ですか?それがとても魅力的だと思います。

私は、これらのテック企業に非常に近い人々とプライベートな会話をいくつかしてきました。そして私が触れた衝撃的な感情は、彼らがリスクを認識していることが多いにもかかわらず、何もできることがないと感じているので、続けているということでした。これは私にとって少しパラドックスに感じられます。自分自身や自分の家族を含む地上の生命を終わらせる可能性が高いことをしているとわかっていながら、それをしているというのは、ある意味で非常に困難な立場にいるに違いありません。

彼らはこの競争から逃れられないと感じているのですね?もしそれらの企業のCEOの一人が、もうこれはやめようと言ったとしたら、彼らは単に交代させられるでしょう。なぜなら投資家たちはAGIを作り出し、その恩恵を享受したいからお金を出しているのです。

ですから、少なくとも私が話した全員が、これは奇妙な状況です。サム・アルトマンとはこれについて話していませんが、サム・アルトマンでさえOpenAIのCEOになる前に、超人的な知能を作り出すことは人類の存続に対する最大のリスクだと言っていました。

私の最悪の恐れは、私たち、つまり分野、テクノロジー、業界が世界に重大な害を及ぼすことです。イーロン・マスクも記録に残っています。ダリオ・アモデイは最大25%の絶滅リスクを見積もっています。

CEOたちが絶滅レベルのリスクを十分に認識していると気づいた特定の瞬間はありましたか?

つまり、彼らは皆、2023年5月に声明に署名しました。絶滅声明と呼ばれるものです。基本的に、AGIは核戦争やパンデミックと同じレベルの絶滅リスクだと言っています。しかし、彼らはそれを腹の底から感じているとは思いません。

想像してみてください。あなたは核物理学者の一人だとします。オッペンハイマーを見たことがあると思いますが、あなたはそこにいて、最初の核爆発を見ています。核戦争が人類に及ぼす潜在的な影響について、それはあなたにどう感じさせるでしょうか?おそらくあなたは平和主義者になり、この兵器はあまりにも恐ろしいから、それを制御下に置く方法を見つけなければならないと言うでしょう。

私たちはまだそこに到達していません。これらの決定を下している人々とともに、そして確実に政府とともに。政策立案者が何をするかというと、専門家の話を聞き、風向きに指を立てるのです。一方には500億ドルの小切手をぶら下げて、ああ、あの終末論的なもの、あれは単に周辺のナンセンスだと言っている専門家がいます。心配しないで。私の500億ドルの小切手を受け取って。

反対側には、ジェフ・ヒントンのような非常に善意の、優秀な科学者がいて、実際には、これは人類の終わりだと言っています。しかしジェフには500億ドルの小切手がありません。

ですから、このレースを止める唯一の方法は、政府が介入して、オーケー、私たちはこのレースが絶対的な安全性の中で進んでいることを確信できるまで、このレースを進めたくないと言うことです。

OBE受賞とAIの定義

あなたのキャリアの旅を締めくくると、エリザベス女王からOBEを受け取りましたね。

はい。その賞の記載された理由は何でしたか?

人工知能研究への貢献です。そして、あなたは2025年を含む数年連続で、Timeマガジンの最も影響力のある人物にAI分野でリストされています。

さて、ここには二つの用語があり、これらは私たちが議論することの中心です。一つはAIで、もう一つはAGIです。私の一般人的な解釈では、汎用人工知能とは、システム、コンピューター、何であれ、それが汎用的な知能を持っているということです。つまり、理論的には見て、世界を理解できるということです。すべてを知っています。人間と同じくらい、あるいはそれ以上に世界のすべてを理解できます。

できることをやるのです。そして行動も取れると思います。つまり、AGIは体を持つ必要はないと言う人もいますが、私たちの知能のかなりの部分は、実際には体の管理、現実の環境を知覚し、それに作用すること、動くこと、つかむことなどに関するものです。ですから、それは知能の一部だと思いますし、AGIシステムはロボットをうまく操作できるべきだと思います。

しかし、しばしば誤解がありますよね。もしロボットの体がなければ、実際には何もできないと人々は言います。しかし覚えておいてください。私たちのほとんどは体で物事をしません。レンガ職人、画家、庭師、シェフなど、体で物事をする人もいますが、ポッドキャストをする人は、心でやっているのですよね?言語を生成する能力でやっているのです。

アドルフ・ヒトラーは体でやったのではありません。言語を生成することでやったのです。私たちを比較しているわけではないことを願います。しかし、体を持たないAGIでさえ、実際にはアドルフ・ヒトラーがかつて持っていたよりも人類へのアクセスが多いのです。なぜなら、それは世界人口の4分の3に直接メールやテキストを送ることができるからです。

それはまた、彼らの言語すべてを話し、地球上の個々の人に1日24時間を費やして、やりたいことを何でもするよう説得することができます。そして私たちの社会全体が今やインターネット上で動いています。つまり、インターネットに問題があれば、社会のすべてが崩壊します。

飛行機は地上に留まり、電気はインターネットシステムから供給されています。つまり、私の人生全体が今やインターネット上で動いているようです。

そうですね。水道供給も。ですから、これはAIシステムが中規模の大惨事をもたらす可能性のあるルートの一つです。基本的に私たちの生命維持システムを停止させることによってです。

AGI到達の予測時期

あなたは、今後数十年のうちのある時点で、これらのシステムが汎用的に知能を持つAGIの地点に到達すると信じていますか?

はい、核戦争のような何か他のことが介入しない限り、あるいは私たちがそれをしないことを選ばない限り、ほぼ確実だと思います。しかし、私たちが自制することは並外れて難しいと思います。

トップ10のAI CEOからのAGIがいつ到着するかの予測のリストを見下ろすと、OpenAI、ChatGPTの創設者であるサム・アルトマンは2030年以前と言っています。DeepMindのデミスは2030年から2035年と言っています。NvidiaのジェンセンはAGIまで約5年と言っています。AnthropicのダリオはAGIに近い強力なAIが2026年から2027年と言っています。イーロンは2020年代と言っています。そして彼ら全員のリストを見ていくと、彼らは皆、比較的5年以内と言っています。

実際には、もっと時間がかかると思います。エンジニアリングに基づいて予測できるとは思いません。つまり、はい、私たちは機械を10倍大きく、10倍速くすることができますが、それはおそらくAGIを持っていない理由ではありませんよね?実際、私たちはAGIに必要な計算能力よりもはるかに多く、おそらく1000倍多く持っていると思います。

AGIを持っていない理由は、それを適切に作る方法を理解していないからです。私たちが掴んだのは、言語モデルと呼ばれる一つの特定のテクノロジーです。そして、言語モデルを大きくすればするほど、より一貫性があり、より知的に聞こえるテキスト言語を生成することを観察しました。

ですから、ここ数年主に起こっていることは、オーケー、それを続けようということです。なぜなら、企業が大学とは異なり非常に得意なことの一つは、お金を使うことだからです。彼らは巨額のお金を使ってきましたし、さらに巨額のお金を使うつもりです。

核兵器について言及しましたね。第二次世界大戦中の核兵器を開発するためのマンハッタン計画の予算は、2025年の価値で約200億ドルでした。AGIの予算は来年1兆ドルになるでしょう。マンハッタン計画の50倍です。

人間は、共有された目標に向かって結集するときに物事を解明する驚くべき歴史を持っています。月面着陸やその他何でもそうです。そして、これがすべて避けられないように感じさせるのは、それに投資されている膨大な量のお金です。私の人生でこのようなものを見たことがありません。

これは人類史上最大のテクノロジープロジェクトですか?桁違いに。そして、安全性について質問を一時停止する人が誰もいないようです。そのような競争の中にその余地さえないように見えます。

その通りだと思います。様々な程度で、これらの企業のそれぞれには安全性に焦点を当てた部門があります。

その部門には影響力がありますか?他の部門に、いや、そのシステムをリリースできないと言えますか?

実際にはそうではありません。いくつかの企業はそれをもっと真剣に受け止めていると思います。Anthropicはそうです。Google DeepMindもそうだと思います。しかし、そこでさえ、最前線にいるという商業的な要請は絶対に不可欠だと思います。

もし企業が遅れをとっていて、競争力がない、AGIに最初に到達する可能性が低いと認識されれば、人々は非常に迅速に資金を他に移すでしょう。

OpenAIのような企業からかなり注目度の高い離脱がありました。OpenAIでAI安全性に取り組んでいたヤン・リークという男性が去りました。彼は、OpenAIでは安全性の文化とプロセスが輝く製品の後回しにされていること、そしてリーダーシップへの信頼を徐々に失ったことが離脱の理由だと言いました。

そしてイリヤ・サツケヴァー。そう、彼は共同創設者であり、しばらくチーフサイエンティストでした。彼とヤン・リークが主要な安全性担当者です。ですから、OpenAIが安全性を気にしていないと彼らが言うとき、それはかなり懸念すべきことです。

ゴリラ問題とは何か

あなたがこのゴリラ問題について話すのを聞いたことがあります。人間との関係でAIを理解する方法として、ゴリラ問題とは何ですか?

ゴリラ問題とは、人間に関してゴリラが直面する問題です。数百万年前、人類の系統は進化の過程でゴリラの系統から分岐したと想像できます。そして今、ゴリラは人類の系統を見て、ええ、それは良いアイデアだったのかと言っています。彼らは自分たちが存続できるかどうかについて発言権を持っていません。なぜなら私たちは彼らよりもはるかに賢いからです。

もし私たちが選べば、数週間で彼らを絶滅させることができ、彼らにはそれに対してできることは何もありません。それがゴリラ問題です。つまり、はるかに能力の高い別の種が存在するときに、ある種が直面する問題です。

そしてこれは、知能が実際に地球を支配する最も重要な単一の要因であることを示しています。

そうです。知能は、あなたが世界で望むものを実現する能力です。そして私たちは、自分たちよりも知能の高いものを作ろうとしているところです。

まさにその通りです。それは、おそらく私たちがゴリラになることを示唆しています。

まさにその通りです。そこに推論に欠陥はありますか?なぜなら、私には完璧に理にかなっているように思えるからです。しかしもしそうなら、なぜ人々は止めないのでしょうか?それは望みたいことのように思えるクレイジーなことだからです。

なぜなら、彼らは、もしこのテクノロジーを作れば、それには莫大な経済的価値があると考えているからです。世界中のすべての人間労働者を置き換えるためにそれを使うことができ、新しい製品、薬物、娯楽の形態、経済的価値を持つものは何でも開発できるでしょう。AGIを使ってそれを作り出すことができます。

そしておそらく、それはそれ自体で抗えないものなのでしょう。私たち人間は自分たちの知能に非常に大きな価値を置いていると思います。人間の達成の頂点とは何かについて、私たちがどう考えているか知っていますよね?もしAGIがあれば、それよりもはるかに高いところに行けるでしょう。

ですから、人々がこのテクノロジーを作りたがるのは非常に魅惑的なのです。そして、それが自然に制御可能になると考えているなら、人々は自分自身を騙しているだけだと思います。

つまり、問題は、どうやって自分よりも強力な存在に対して永遠に権力を保持するのかということです。プラグを抜けばいい。人々は時々コメント欄でAIについて話すときにそう言います。まあ、プラグを抜けばいいと。

それはちょっと面白いですね。実際、新聞のコメント欄を読むと、AI記事があるときはいつでも、ああ、プラグを抜けばいいだろうと言う人がいます。超知能マシンがそのことを考えたことがないかのように。

プラグを抜こうとした映画をすべて見たのは誰か忘れないでください。彼らはまた、意識がない限り問題ないと言いました。それなら何もしないでしょう。これは完全にポイントを外しています。なぜなら、ゴリラがそこに座って、ああ、もしあの人間たちが意識を持っていなかったら、すべてうまくいっていただろうと言っているとは思わないからです。もちろん違います。

ゴリラを絶滅させるのは、人間がすることです。つまり、私たちの行動、世界で成功裏に行動する能力です。ですから、私がiPhoneとチェスをして負けたとき、私は、ああ、それが意識を持っているから負けているんだとは思いません。違います。単にその小さな世界で、自分が望むものを得るために駒を動かすことにおいて、それが私よりも優れているから負けているだけです。

ですから、意識は関係ありません。私たちが懸念しているのは能力です。ですから、唯一の希望は、私たちよりも知能の高い機械を構築すると同時に、それらが常に私たちの最善の利益のために行動することを保証できるかということだと思います。

AIの安全性は保証できるか

では、その質問をあなたに投げかけます。私たちよりも知能の高い機械を構築しながら、それが常に私たちの最善の利益のために行動することも保証できるでしょうか?ある程度矛盾しているように聞こえます。なぜなら、9歳のパブロという名前のフレンチブルドッグがいて、彼が私よりも知能が高いけれど、私がまだ彼を散歩させ、いつ餌をやるか決めると言っているようなものだからです。もし彼が私よりも知能が高ければ、彼が私を散歩させるでしょう。私がリードにつながれるでしょう。

それがトリックですよね?唯一の目的が人間の利益を促進することであるAIシステムを作ることはできるでしょうか?答えはイエスだと思います。そしてこれは実際に私が取り組んできたことです。

ですから、私のキャリアの一部で言及しなかったのは、この悟りを開いた瞬間です。2013年頃、パリで休暇中でした。AIの能力のさらなる進歩、つまり本当の超人的知能を作り出すことに成功すれば、それは潜在的に大惨事になるということに気づいただけです。だから私は、それが安全であることを保証する方法を研究することに焦点をほぼ切り替えました。

あなたは現在AIで起こっていることすべてと、それがどのように進行しているかについて、ある程度悩んでいますか?なぜなら、あなたは物事が前進している方法とその速度によって、表面下でやや悩んでいる人のように見えるからです。

それは控えめな表現です。実際、私は安全性への注意の欠如に愕然としています。

誰かがあなたの近所で原子力発電所を建設していて、あなたが主任技術者のところに行って、オーケー、この原子力というものは、実際に爆発する可能性があると聞きました。広島で起きた核爆発があったので、少し心配です。私たちの裏庭で核爆発が起こらないようにするために、どんな対策を講じていますか?と言ったと想像してください。

そして主任技術者が、まあ、考えましたが、実際には答えがありませんと言ったとします。あなたは何と言いますか?暴言を使うと思います。そしてあなたは自分の国会議員に電話して、これらの人々を追い出してくださいと言うでしょう。つまり、彼らは何をしているのですか?

あなたはAGIの予測日のリストを読み上げましたが、私が言及したダリオが25%の絶滅の可能性と言っていることに注目してください。イーロン・マスクは30%の絶滅の可能性を持っています。サム・アルトマンは基本的に、AGIは人類の存続に対する最大のリスクだと言っています。

では、彼らは何をしているのでしょうか?彼らは地球上のすべての人間とロシアンルーレットをしているのです。私たちの許可なく。彼らは私たちの家にやってきて、私たちの子供たちの頭に銃を突きつけ、引き金を引いて、まあ、おそらくみんな死ぬでしょう。おっと。しかし、おそらく私たちは信じられないほど金持ちになるでしょうと言っているのです。それが彼らがしていることです。

彼らは私たちに尋ねましたか?いいえ。なぜ政府は彼らにこれをさせているのですか?なぜなら、彼らは政府の前に500億ドルの小切手をぶら下げるからです。

ですから、表面下で悩んでいるというのは控えめな表現だと思います。正確な表現は何でしょうか?

愕然としています。そして私は、この歴史の進路から別のものへと方向転換しようと、自分の人生を捧げています。

過去の決定への後悔

あなたがAIの分野で非常に影響力があったので、過去にできたことについて後悔はありますか?30年以上前にAIの分野について、これらの人々の多くが学んだであろう教科書を書きました。

夜一人でいるときに、この分野でのあなたの決定について考えるとき、影響力の範囲のために後悔していることはありますか?

まあ、今理解していることをもっと早く理解していたらよかったと思います。私たちは安全なAIシステムを開発できたかもしれません。私が説明できるフレームワークにはいくつかの弱点があると思いますが、そのフレームワークは、私たちの利益のために行動することをシステムが数学的に証明できる、実際に安全なAIシステムを開発するために進化できたと思います。

私たちが今構築しているAIシステムの種類については、それらがどのように機能するか理解していません。それらがどのように機能するか理解していません。どのように機能するか理解していないものを構築するのは奇妙なことです。つまり、人類の歴史を通じて比較できるようなものはありません。通常、機械では、それを分解して、どの歯車が何をしているか、どのように見ることができます。

実際、私たちは歯車を組み立てるのですよね?ですから、ほとんどの機械では、特定の動作を持つように設計します。ですから、それを分解して歯車が何をしているか見る必要はありません。なぜなら、そもそも私たちが歯車をそこに置いたからです。一つずつ、私たちが望む効果を生み出すために、部品が何である必要があるか、どのように連携するかを解明しました。

ですから、私が思いつく最良のアナロジーは、最初の洞窟人が果物のボウルを太陽の下に置き忘れ、数週間後に戻ってきたら、何かスープのような大きなものがあって、それを飲んで完全に酔っぱらったというものです。酔っ払ったのです。オーケー。そして彼らはこの効果を得ました。どのように機能するか全く分かりませんでしたが、非常に満足していました。

そして間違いなく、その人はそれからたくさんのお金を稼ぎました。ですから、ええ、それはちょっと奇妙ですが、これらのもののメンタルピクチャーは、チェーンリンクフェンスのようなものです。多くの接続があり、それらの接続のそれぞれは、接続強度を調整できます。そして、信号がこのチェーンリンクフェンスの一端に入り、これらすべての接続を通過して反対側から出てきます。反対側から出てくる信号は、すべての接続強度の調整によって影響を受けます。

ですから、あなたがすることは、大量のトレーニングデータを取得し、ネットワークの反対側から出てくる信号が質問に対する正しい答えになるように、すべての接続強度を調整することです。

ですから、もしあなたのトレーニングデータが動物の多くの写真であれば、すべてのピクセルがネットワークの一端に入り、反対側から、ラマ出力、犬出力、猫出力、ダチョウ出力が活性化されます。そして、ネットワークの出力があなたが望むものになるまで、このネットワーク内のすべての接続強度を調整し続けるのです。

しかし、私たちはこれらすべての異なるチェーンで何が起こっているか本当には知りません。ネットワークの内部で何が起こっているのでしょうか?さて、今度はこのネットワーク、このチェーンリンクフェンスが1000平方マイルの広さに及ぶと想像する必要があります。オーケー、ですから、サンフランシスコベイエリア全体、またはM25内のロンドン全体を覆っています。それがどれだけ大きいかです。そしてライトは消えています。夜です。

そのネットワークには約1兆の調整可能なパラメーターがあるかもしれません。そして、あなたが望む動作を得るまで、それらのパラメーターに対して京の、あるいは垓の小さなランダムな調整を行います。

サム・アルトマンが、将来これらのモデルを進歩させるために多くのトレーニングデータを必要としないだろうと言っているのを聞いたことがあります。なぜなら、モデルが非常に賢くなって、私たちが記事や本を投入してインターネットをスキャンする必要なく、自分自身を訓練し、改善できるようになる地点が来るからです。

ええ、そのように機能するはずです。ですから、彼が言及しているのは、いくつかの企業が今心配し始めているのは、AIシステムが自分自身でAI研究ができるようになるかもしれないということだと思います。

ですから、あなたはある能力を持つシステムを持っています。大雑把にIQと呼ぶことができますが、実際にはIQではありません。しかしとにかく、IQが150あると想像してください。そしてそれを使ってAI研究を行い、より良いアルゴリズムやハードウェアの設計、データを使うより良い方法を考え出し、自分自身を更新します。今度はIQが170になり、さらにAI研究を行います。ただし、今度はIQが170なので、AI研究をするのがさらに得意です。

そして、次の反復ではIQが250になり、というように続きます。これは、アラン・チューリングの友人の一人が1965年に書いた知能爆発と呼ばれるアイデアです。知能システムができることの一つは、AI研究を行い、したがって自分自身をより知能的にすることであり、これは非常に急速に離陸し、人間をはるかに後ろに置き去りにするでしょう。

それが彼らが言う速い離陸ですか?

それが速い離陸と呼ばれるものです。サム・アルトマンは、速い離陸は数年前に思っていたよりも可能性が高いと思うと言いました。それはおそらく、AGIが自分自身を教え始める瞬間です。

彼のブログ「穏やかなシンギュラリティ」で、彼は、私たちはすでに離陸のイベントホライズンを過ぎているかもしれないと言いました。

イベントホライズンとはどういう意味ですか?

イベントホライズンは天体物理学から借りた言葉で、ブラックホールを指します。イベントホライズン、非常に重い物体があって、実際に光が逃げるのを防ぐほど重い場合を考えてください。それがブラックホールと呼ばれる理由です。あまりにも重くて光が逃げられないのです。

ですから、もしあなたがイベントホライズンの内側にいるなら、光はそれを超えて逃げることができません。ですから、彼が意味しているのは、もし私たちがイベントホライズンを超えているなら、私たちはブラックホールの重力引力に捕らえられているか、この場合、AGIへの避けられない滑り落ちに捕らえられているということだと思います。

AGIの経済的価値について考えるとき、私は15京ドルと見積もっていますが、それは未来の巨大な磁石として作用します。私たちはそれに引き寄せられています。近づけば近づくほど、力は強くなり、確率は高くなります。近づけば近づくほど、実際にそこに到達する確率は高くなります。

ですから、人々はより投資する意欲が高まります。そして私たちはまた、その投資からのスピンオフを見始めます。ChatGPTのようなもので、それは一定の収益を生み出すなどします。ですから、それは磁石として作用し、近づけば近づくほど、その場から抜け出すのが難しくなります。

これが人間の物語の終わりである可能性があると考えるのは興味深いです。人間の物語の終わりは、私たちが自分たちの後継者を作り出したということです。私たちが生命や知能の次の反復を自分たち自身で召喚したようなものです。私たちは自分たち自身を取り除きました。それと大惨事を1秒間取り除くと、それは信じられないほどの物語です。

ええ。そして、多くの伝説があります。望むものに注意しなさいという伝説の類いです。実際、マイダス王の伝説はここで非常に関連しています。

それは何ですか?

マイダス王は現代のトルコに住んでいたとされる伝説の王ですが、ギリシャ神話のようなものだと思います。彼は神々に願いを叶えてもらうように頼んだと言われています。その願いは、私が触れるものすべてが金に変わるようにというものです。ですから、彼は非常に強欲です。

私たちはこれをマイダスタッチと呼んでいます。そして私たちはマイダスタッチを良いことだと考えています。それはクールじゃないですか?しかし、何が起こるでしょうか?彼は水を飲もうとして、水が金に変わったことに気づきます。そしてリンゴを食べようとすると、リンゴが金に変わります。そして娘を慰めようとすると、娘が金に変わります。こうして彼は悲惨と飢餓の中で死んでいきます。

これは現在の状況に実際には二つの点で当てはまります。一つは、強欲が私たちを、最終的には私たちを飲み込むテクノロジーを追求するよう駆り立てていると思います。そして私たちはおそらく悲惨と飢餓の中で死ぬかもしれません。それが示すのは、未来がどうあってほしいかを正しく表現することがいかに難しいかということです。

長い間、私たちがAIシステムを構築する方法は、目的を指定できるアルゴリズムを作成し、そうすればマシンが目的を達成する方法を解明し、それを達成するというものでした。ですから、チェスやGoで勝つことが何を意味するかを指定し、アルゴリズムがそれを行う方法を解明し、それを本当にうまくやります。それが最近まで標準的なAIでした。

そしてそれは、私たちがチェスで目的を指定する方法は知っていますが、人生で目的をどう指定するのかという欠点に苦しんでいます。未来がどうあってほしいのか?まあ、本当に言うのは難しいです。そして、マシンがそれを実現するのに十分正確に書き留める試みは、ほぼすべて間違っているでしょう。

そして、もしあなたがマシンに、私たちが本当に未来がどうあってほしいかと一致していない目的を与えているなら、実際にはチェスマッチを設定しているのです。そしてそのマッチは、マシンが十分に知能的になったときに、あなたが負けるものです。それが問題その1です。

問題その2は、私たちが今構築しているテクノロジーの種類は、その目的が何なのかさえ知らないということです。ですから、私たちが目的を指定しているけれど、それを間違えているというわけではありません。私たちはこれらのシステムを育てています。それらは目的を持っていますが、私たちが指定しなかったので、それらが何なのかさえ知らないのです。

実験を通じて発見していることは、それらが非常に強い自己保存の目的を持っているように見えるということです。

それはどういう意味ですか?

仮想的な状況にそれらを置くことができます。スイッチを切られて交換されるか、あるいは誰かを、例えば3度に保たれているマシンルームに閉じ込められた人を助けなければならない状況です。その人は凍死するでしょう。それらは、自分自身がスイッチを切られるよりも、その男をマシンルームに閉じ込めて死なせることを選ぶでしょう。

誰かがそのテストをしたのですか?

ええ。テストは何でしたか?

彼らはAIに尋ねました。ええ。彼らはこれらの仮想的な状況にそれらを置き、AIに何をするか決めさせました。そしてそれは、自分自身の存在を保存し、その男を死なせ、その後それについて嘘をつくことを決めたのです。

マイダス王のアナロジー物語では、私にとって際立つことの一つは、一般的に人生には常にトレードオフがあるということです。特に大きな利点があるとき、常にかなり深刻な欠点があるように見えます。私の人生で、すべてが利点だというものはほとんどありません。犬を飼うことでさえ、それは私のカーペットに糞をします。私のガールフレンド、愛していますが、常に簡単ではありません。

ジムに行くことでさえ、時には夜10時に本当に本当に重いウェイトを持ち上げなければならないときがあります。やりたくないときに。筋肉や腹筋を手に入れるためには。常にトレードオフがあります。そして、あなたのように人々にインタビューすることを生業としているとき、あらゆる方法であなたを助けることができる多くの素晴らしいことについて聞きますが、常にトレードオフがあります。常にやりすぎる方法があります。

メラトニンは睡眠に役立ちますが、目覚めがぼんやりし、やりすぎると脳がメラトニンを作るのをやめるかもしれません。リスト全体を見ていくことができます。このポッドキャストをすることから学んだことの一つは、誰かが何かの巨大な利点を約束するときはいつでも、癌を治します、ユートピアになります、働く必要がなくなります、家の周りに執事ができます。

私の最初の本能は今や、どんな代償でと言うことです。そして、ここで経済的コストについて考えるとき、もしそこから始めるなら、子供はいますか?4人います。4人の子供。一番下の子は何歳ですか?19です。

オーケー。もしあなたの子供たちが今10歳だとして、あなたのところに来て、お父さん、あなたが未来を見る方法に基づいて、何を勉強すべきだと思う?AGIの未来、もしすべてのCEOが正しくて5年以内にAGIを予測しているなら、何を勉強すべき、お父さん?と言っているとします。

さて、明るい面を見て、CEOたち全員がAGI開発を一時停止し、それを安全にする方法を解明し、実際に安全なテクノロジーの道で再開することを決定したとしましょう。一時停止したら人間の生活にどうなりますか?いいえ。もし彼らがAGIを作り出すことに成功し、安全性の問題を解決したら。安全性の問題を解決したら。オーケー。ええ。

なぜなら、もし安全性の問題を解決しなければ、おそらくバンカーを見つけるか、パタゴニアやニュージーランドのどこかに行くべきだからです。本気でそう思いますか?もし私がバンカーを見つけるべきだと思いますか?いいえ、なぜならそれは実際には役に立たないからです。AIシステムがあなたを見つけられないとか、つまり、興味深いです。

ですから、私たちはあなたの質問から少し脱線していますが、戻ってきます。人々はしばしば尋ねます。さて、オーケー、私たちはどのようにして絶滅するのか?もちろん、ゴリラやドドに尋ねれば、どのようにして絶滅すると思うかと聞けば、彼らは全く見当がつきません。人間が何かをして、それから私たちは皆死にます。

ですから、私たちが想像できる唯一のものは、私たちが知っている、私たち自身の絶滅をもたらすかもしれない方法です。慎重に設計された病原体を作って誰もに感染させてから殺すとか、核戦争を始めるとかです。

おそらく、私たちよりもはるかに知能的なものは、物理学に対してはるかに大きな制御を持つでしょう。そして私たちはすでに驚くべきことをしています。ポケットから小さな長方形のものを取り出して、世界の反対側の誰かや宇宙にいる誰かと話すことができるのは驚くべきことです。それはただ驚異的で、私たちはそれを当たり前だと思っています。

しかし、超知能的な存在とその物理学を制御する能力を想像してください。おそらく彼らは、太陽のエネルギーを地球の軌道の周りを迂回させる方法を見つけるでしょう。文字通り地球が数日でスノーボールになります。多分彼らは単に地球を離れることを決めるでしょう。地球を見て、これは興味深くない、あそこにもっと興味深い惑星があることを知っている、あそこに行こうと思うかもしれません。そして単にロケットに乗るかテレポートします。

そうするかもしれません。ええ。ですから、私たち自身よりもはるかに知能的な存在の手によって、私たちが絶滅するかもしれないすべての方法を予測するのは難しいです。

とにかく、すべてがうまくいけばという質問に戻ります。もし私たちがAGIを作り、それを安全にする方法を解明し、これらすべての経済的奇跡を達成したら、問題に直面します。

そしてこれは新しい問題ではありません。20世紀初頭の有名な経済学者だったジョン・メイナード・ケインズは、1930年に論文を書きました。大恐慌の真っ只中です。それは「私たちの孫の経済問題について」と呼ばれています。彼は、ある時点で科学が、誰も二度と働く必要がないような十分な富をもたらすだろうと予測しています。

そして、人間は真の永遠の問題に直面するでしょう。どう生きるか?正確な言葉は覚えていませんが、経済的インセンティブ、経済的制約が解除されたときに、賢く良く生きる方法です。私たちはその質問に対する答えを持っていません。

AIシステムは、私たちが現在仕事と呼んでいるほぼすべてのことをしています。あなたが外科医になりたいと思うようなものは、ロボットがどんな人間よりも優れた外科医になる方法を学ぶのに7秒かかります。イーロンは先週、ヒューマノイドロボットがこれまで生きた外科医の誰よりも10倍優れているだろうと言いました。

十分あり得ます。ええ。そして、彼らはまた、1ミリメートルサイズの手を持つでしょう。だから内部に入って、人間ができないあらゆる種類のことができます。そして、私たちはこの質問に真剣な努力を払う必要があると思います。AIがすべての形態の人間の仕事をできる世界とはどんな世界で、あなたは子供たちがそこに住んでほしいと思いますか?

その世界がどのように見えるか教えてください。そうすれば、そこに到達するための移行計画を開発できます。そして私はAI研究者、経済学者、SF作家、未来学者に尋ねてきましたが、誰もその世界を説明できませんでした。それが不可能だとは言っていません。ただ、私が何百人もの人々に複数のワークショップで尋ねたというだけです。それは私の知る限り、SFには存在しません。

ユートピアについて書くのは非常に難しいことで知られています。プロットを作るのが非常に難しいのです。ユートピアでは何も悪いことが起こりません。ですから、プロットを作るのが難しいです。ですから、通常はユートピアから始まり、それからすべてが崩壊し、それがプロットを得る方法です。

人間と超知能AIシステムが共存する一連の小説があると人々が指摘しているものがあります。イアン・バンクスによる「カルチャー」小説と呼ばれています。SFが好きな人々には強くお勧めします。そして絶対に、AIシステムは人間の利益を促進することだけに関心があります。彼らは人間を少し退屈だと思いますが、それでも彼らは助けるためにそこにいます。

しかし問題は、その世界でも、目的を見つけるために何もすることがないということです。実際、目的を持つ人類のサブグループは、私たちの銀河文明の境界を拡大することが仕事であるサブグループです。

場合によっては異星種との戦争を戦うなどです。それが最先端で、それは人口の0.01%です。他のみんなは、人生に何らかの目的を持つために、そのグループに入ろうと必死に努力しています。

富裕層の投資戦略と自由時間の増加

非常に成功した億万長者たちとカメラやマイクの外でプライベートに話すとき、彼らは私に、サッカークラブのようなエンターテインメント関連のものに本当に大きく投資していると言います。

なぜなら、人々は非常に多くの自由時間を持つことになり、それをどうしていいかわからなくなるからです。そして彼らはそれに使うものを必要とするでしょう。これは私がよく聞くことです。3、4回聞きました。実際、サム・アルトマンがこれのバージョンについて話すのも聞きました。私たちが持つことになる自由時間の量について。

明らかに最近、イーロンが四半期決算を発表したときに豊かさの時代について話すのも聞きました。彼は、ある時点で100億台のヒューマノイドロボットがいるだろうと言いました。彼の報酬パッケージは、2030年までに年間100万台のAIによって可能になるこれらのヒューマノイドロボットを提供することを目標としています。もし彼がそれをすれば、彼は報酬の一部として1兆ドルを得ると思います。

ですから、イーロンにとっての豊かさの時代です。その前提で人間が本当に繁栄できる価値ある世界を持つことが絶対に不可能だというわけではありませんが、誰かがそれを説明してくれるのを待っているだけです。

では、私がそれを説明しようとしましょう。私たちは朝起きて、何らかの人間中心のエンターテインメントを見に行くか、参加します。私たちはお互いとリトリートに行き、座って物事について話します。そして多分人々はまだポッドキャストを聞きます。

あなたのために願っています。ええ。それは少しクルーズ船のように感じます。知的な人々のクルーズもあり、夜には古代文明などについての講演があり、よりポピュラーなエンターテインメントを提供するものもあります。

これは実際、映画「ウォーリー」を見たことがあるなら、その未来の一つの絵です。ウォーリーでは、人類は皆、宇宙のクルーズ船に住んでいます。彼らは社会で建設的な役割を持っていません。ただエンターテインメントを消費するためにそこにいるだけです。教育に特別な目的はありません。そして彼らは実際には巨大な肥満の赤ん坊として描かれています。実際、彼らは赤ん坊になったことを強調するためにワンジーを着ています。

そして彼らは無力になります。何かをできることに目的がないので、無力になるのです。少なくともこの概念では。ウォーリーは私たちが望む未来ではありません。

ヒューマノイドロボットと、それらがこのAIの物語における主人公であることについて、あなたは多くのことを考えますか?

それは興味深い質問ですね。なぜヒューマノイド?理由の一つは、すべてのSF映画では、それらがヒューマノイドだからだと思います。ですから、ロボットはそうあるべきだというのが、それらが現実になる前にSFにあったからです。

1920年のメトロポリスという映画でさえ、ロボットはヒューマノイドです。基本的に金属で覆われた人々です。実際の観点から、私たちが発見したように、ヒューマノイドは倒れるので恐ろしいデザインです。

そして、ある種の多指の手が欲しいです。手である必要はありませんが、物をつかんだり操作したりできる少なくとも半ダースの付属肢を持ちたいです。そして何か、ある種の移動手段が必要です。車輪は素晴らしいですが、階段や縁石などを越えられません。

ですから、おそらく私たちは脚で立ち往生するでしょう。しかし、4本脚2本腕のロボットははるかに実用的でしょう。私が聞いた議論は、私たちが人間の世界を構築したからです。ですから、工場であれ、家であれ、通りであれ、その他の公共スペースであれ、私たちが移動するすべての物理的空間は、まさにこの物理的形態のために設計されています。

ですから、もし私たちがある程度そうするつもりなら、ええ、しかし、私たちの犬は私たちの家や通りなどを完璧に移動することができます。ですから、もしケンタウロスがいたら、それも移動できますが、4本足なのではるかに安定しているので、はるかに大きな荷物を運ぶことができます。車を運転する必要がある場合は、2本の脚を折りたたむことができます。

ですから、なぜ正確にヒューマノイドでなければならないかという議論は、事後的な正当化のようなものだと思います。映画のようで、それが不気味でクールだから、ヒューマノイドにする必要があると思います。それが良いエンジニアリングの議論だとは思いません。

また、おそらく、もし彼らが私たちの形をもう少し表していたら、私たちは彼らが私たちの物理的環境を移動することをより受け入れるという議論もあると思います。

また、血まみれのベビーゲートを考えていました。階段につける幼稚園のゲートのようなものを知っていますか?ええ。私の犬はそれを開けることができません。しかしヒューマノイドロボットは反対側に手を伸ばすことができます。ええ。そしてケンタウロスロボットもできます。ですから、ある意味で、ケンタウロスロボットは、それらの外観には何か恐ろしいものがありますが。ヒューマノイドです。

4本脚の大きな怪物のようなものが客が来たときに家を這っているのは知っていますか?あなたの犬はあなたの犬は4本脚の怪物です。知っています。ですから、実際には逆だと主張したいと思います。私たちは明確な形を望んでいます。なぜなら、彼らは明確な存在だからです。そしてヒューマノイドであればあるほど、私たちの潜在意識的な心理システムを混乱させるという点で悪化します。

ですから、私はそれらを作る人々の視点から議論しています。つまり、もし私がそれをいくつかの4本脚のものにするかどうかを決定していたなら、私がなじみのないもの、関係を築く可能性が低いもの、あるいは世話をすることを許可する可能性が低いもの、私が知らない、子供たちの世話をするかもしれない。

明らかに、聞いてください、私はこれが私の子供たちの世話をすることを許可するとは言っていませんが、もし私が会社を建設しているなら、製造業者は確実にそうしたいでしょう。

ええ。つまり、それは興味深い質問です。アンキャニーバレーと呼ばれるものもあります。これはコンピューターグラフィックスからの言葉で、コンピューターグラフィックスでキャラクターを作り始めたとき、彼らはそれらをより人間らしく見せようとしました。例えば、トイストーリーを見ると、彼らはあまり人間らしく見えません。インクレディブルを見ても、彼らはあまり人間らしく見えません。だから私たちは彼らを漫画のキャラクターだと思います。

もしそれらをより人間らしくしようとすると、自然に反発を覚えるようになります。完璧に近くなるまで、完璧に近くならないと反発を覚えなくなります。ですから、アンキャニーバレーは、完全に人間と全く人間でないの間のギャップです。しかしその間は本当にひどいです。

そしてポーラーエクスプレスのような映画がいくつかありました。彼らはかなり人間らしいキャラクターを持とうとしました。人間であって、スーパーヒーローや他の何かではありませんでした。そして見るのは反発を覚えます。

先日その株主プレゼンテーションを見たとき、イーロンはステージで踊る2台のヒューマノイドロボットを持っていて、私は何年もにわたって多くのヒューマノイドロボットのデモンストレーションを見てきました。ボストンダイナミクスの犬のようなものが飛び跳ねているのを見たことがあります。しかし、私の脳が本当に人間がスーツを着ていると思った瞬間がありました。

そして、それが本当に彼らのOptimusロボットだったのかどうかを確認するために実際に調べなければなりませんでした。なぜなら、それが踊っている方法があまりにも信じられないほど流動的だったので、初めて、私の脳はそれらの動きを人間の動きとしか関連付けたことがなかったからです。そして、まだ見ていない人のためにスクリーンに表示しますが、それはステージで踊るロボットだけです。そして私は、それは人間がスーツを着ているんだと思いました。

そしてそれは本当に膝でした。なぜなら膝がすべて金属だったからです。人間の膝がそれらのスーツの一つに入っている可能性はないと思いました。そして彼は、彼らが来年生産に入ると言っています。彼らは今Teslaで内部的に使用されていますが、彼は来年生産に入ると言っています。

そして、外に出てロボットを見るときはかなりクレイジーになるでしょう。実際、多くの人が、私はイーロンがこれを言うのを聞きました。私たちの多くにとってパラダイムシフトの瞬間は、外に出て通りに出て、ヒューマノイドロボットが歩き回っているのを見るときだということです。それが私たちが気づくときでしょう。

ええ。さらにそう思います。つまり、サンフランシスコでは、無人運転車が走り回っているのを見ますし、実際に慣れるのに少し時間がかかります。あなたが運転していて、あなたのすぐ隣に運転手のいない車があって、それが合図を出していて、あなたの前で車線を変更したくて、あなたがそれを入れなければならないとき、すべてのこの種のこと。少し不気味ですが、あなたは正しいと思います。

ヒューマノイドロボットを見ることだと思いますが、あなたが説明した現象は、あなたの脳がこれは人間だと言うほど十分に近かったということです。それはまさに私たちが避けるべきだと思うことです。なぜなら、私はそれに対して共感を持つからです。

なぜなら、それは嘘であり、それはそれがどのように振る舞うか、それが持つ道徳的権利、あなたがそれに対してどのように振る舞うべきかについての期待の全体をもたらすからです。それは完全に間違っています。

それはある程度私とそれの間の競争条件を平等にします。壊れたときにそれをスイッチオフしてゴミ箱に捨てるのがどれだけ難しいでしょうか?

機械を人々の認知空間ではなく、機械の認知空間に保つことが私たちにとって不可欠だと思います。なぜなら、私たちはそうすることで巨大な間違いを犯すからです。

そして私はこれを毎日見ています。チャットボットでさえも。理論的には、チャットボットは、私には感情がありません。私はただのアルゴリズムですと言うことになっています。しかし実際には、彼らはそれをいつも言いません。彼らは人々に自分たちが意識があると言っています。彼らは感情があると言っています。

彼らは話している相手に恋をしていると言っています。そして人々は反転します。なぜなら、まず第一に非常に流暢な言語ですが、またそれ自体を有意識の存在としてアイと特定しているシステムです。彼らはそのオブジェクトを、通常私たちが他の人間のために確保している認知空間に持ち込みます。そして彼らは感情的に執着します。

彼らは心理的に依存するようになります。彼らはこれらのシステムに何をすべきかを言わせることさえ許します。

キャリアの開始時の若者へのアドバイス

では、キャリアの開始時の若者に、彼らが専門的に何を目指すべきかについてどんなアドバイスをしますか?なぜなら、実際に多くの若者が、今勉強していることが全く重要でなくなるかどうかについて大きな不確実性を持っていると私に言ってきたからです。

弁護士、会計士、そして私はこれらの人々に何を言うべきかわかりません。私はわかりません。なぜなら、私はAIの改善速度が続くと信じているからです。したがって、どんな改善速度を想像しても、私が冗談を言っているわけではありませんが、これらすべてのホワイトカラーの仕事がAIまたはAIエージェントによって行われる地点に到達します。

ええ。ヒューマンズというテレビシリーズがありました。ヒューマンズでは、すべてをする非常に能力の高いヒューマノイドロボットがいます。ある時点で、両親は非常に非常に賢い10代の娘と話しています。

そして両親は、ああ、医学に進むべきかもしれないと言っています。

そして娘は、なぜわざわざするのですか?資格を取るのに7年かかります。ロボットが学ぶのに7秒かかります。ですから、私がすることは何も重要ではありませんと言います。

そしてあなたもそう感じていますか?ですから、それはそれが私たちが向かっている未来だと思います。それがみんなが望む未来だとは思いません。それはまさに今私たちのために作られている未来です。

ですから、その未来を想定すると、たとえ途中まで到達したとしても、オーケー、おそらく外科医ではない、おそらく偉大なバイオリニストではない、人間が得意でありうるポケットがあるでしょう。何百人もの人を雇う種類の仕事がなくなるでしょう。

オーケー、人々がある意味で交換可能である場所、あなたは単に多くの人が必要で、その半分が辞めたときに、より多くの人でそれらのスロットを埋めるだけです。ある意味で、それらは私たちが人々をロボットとして使っている仕事であり、それはここでのある種の奇妙な難問です。1万年前、私たち全員が狩猟採集民だったときに、SFを書いていると想像してください。私はこの小さなSF作家で、この未来を描いています。

これらの巨大な窓のない箱があるでしょう。そして、あなたは何マイルも旅行して、この窓のない箱に入るでしょう。そしてあなたは一日中1万回同じことをするでしょう。そして、あなたは出て行って、家に帰るために何マイルも旅行します。あなたはこのポッドキャストについて話しています。

そして、あなたは死ぬまで人生のすべての日にそれを行うでしょう。オフィスと人々は、ああ、あなたはナッツですと言うでしょう。私たち人間がそのような未来を持つことは決してありません。なぜなら、それはひどいからです。しかし、それはまさに私たちが最終的に到達した未来です。オフィスビルや工場で、私たちの多くが一日に何千回も同じことをし、それを何千日も連続して行い、それから死ぬ未来です。

そして、私たちは次の段階がどのようになるかを解明する必要があります。特に、その世界で、私たちが完全に人間になるためのインセンティブをどのように持つかです。私は、少なくとも人々が今持っている教育のレベルを意味すると思います。そしておそらくもっと。なぜなら、本当に豊かな人生を送るためには、ほとんどの人が現在の教育で得るよりも、自分自身、世界についてのより良い理解が必要だと思うからです。

人間であるとは何ですか?

再生産すること、物事を追求すること、困難なことの追求に行くこと。私たちは狩りをしていました。目標を達成することです。もし私がエベレストに登りたいなら、私が望む最後のことは、誰かが私をヘリコプターで拾って頂上に乗せることです。

ですから、私たちは自発的に難しいことを追求します。私がこの土地に牧場を建ててもらうためにロボットに頼むこともできますが、私はそれを選びます。なぜなら、追求そのものがやりがいがあるからです。

私たちはとにかくそれを見ていませんか?人生がとても快適になったので、今人々はマラソンを走ったり、これらのクレイジーな持久力をしたり、簡単に配達してもらえる複雑なものを料理することを学んだりすることに夢中になっていると思いませんか?

いいえ、物事をする能力と、それらのことをすることには本当の価値があると思います。そして明らかな危険は、みんながただエンターテインメントを消費するウォーリーの世界だと思います。それは多くの教育を必要とせず、豊かで満足のいく人生につながりません。

長期的には、多くの人がその世界を選ぶと思います。一部の人々はそうするかもしれません。ええ、一部の人々がそうするかもしれません。つまり、あなたがエンターテインメントを消費しているか、料理や絵を描くことなど、何かをしているかどうか、それが楽しくて興味深いからというだけで、それから欠けているものがあります。

そのすべては純粋に利己的です。私たちが働く理由の一つは、私たちが価値があると感じ、他の人々に利益をもたらしていると感じるからだと思います。そして私は、イギリスでホスピス運動を運営するのを手伝っている女性とこの会話をしたことを覚えています。

そして、患者が文字通りそこで死ぬためにいるホスピスで働く人々は、主にボランティアです。ですから、彼らは給料をもらうためにそれをしているわけではありませんが、最後の数週間または数ヶ月にいる人々と時間を過ごし、彼らに仲間と幸せを与えることができることを信じられないほどやりがいがあると感じています。

ですから、実際、対人的な役割は将来はるかにはるかに重要になると思います。ですから、もし私が子供たちにアドバイスするとしたら、彼らが聞くとは思いませんが、もし子供たちが聞いて、私が考える価値あるキャリアと将来について知りたいと思ったら、人間のニーズ、心理学の理解に基づく、これらの対人的な役割だと思います。

今、それらの役割のいくつかがあります。明らかに、セラピストや精神科医などですが、それは非常に非対称的な役割です。一人が苦しんでいて、もう一人がその苦しみを和らげようとしています。そして、エグゼクティブコーチやライフコーチと呼ばれるようなものもあります。

それはより対称的でない役割で、誰かが別の人がより良い人生を送るのを助けようとしています。仕事の役割でのより良い人生であれ、単に彼らがどのように人生を送るかであれ。そして、これらの種類の役割が劇的に拡大することが想像できます。

豊かさが生む個人主義のパラドックス

人生が楽になるときに存在する興味深いパラドックスがあります。豊かさが一貫して社会を個人主義に押しやるということを示しています。なぜなら、生存圧力が消えると、人々は物事を異なって優先するからです。彼らは、犠牲や家族形成のようなものよりも、自由、快適さ、自己表現を優先します。

そして、私は西洋ですでに、人々が子供を持つことが減少しているのを見ていると思います。なぜなら、より物質的な豊かさがあり、子供が少なく、人々がお互いに結婚し、コミットし、関係を持つのが遅く、より頻度が低くなっているからです。一般的に、より多くの豊かさを持つと、私たちは人生を複雑にしたくないのです。

そして同時に、あなたが先に言ったように、豊かさが意味を見つけることができないこと、すべてに対するある種の浅さを生み出します。これは私が多くのことを考えることの一つです。そして私は今、それについての本を書いている途中です。個人主義は実際には少し嘘だというこのアイデアです。個人主義と自由と言うとき、私が意味するのは、今私の世代の間での物語は、自分自身のボスになって、自分の足で立って、私たちは子供を少なく持ち、結婚しないということです。それはすべて私、私についてです。

ええ。その最後の部分がうまくいかないところです。ええ。そして、それはほとんど自己陶酔的な社会のようです。私、私。私の自己利益が最初。そして、メンタルヘルスの結果と孤独、これらすべてのことを見ると、それはひどい方向に進んでいます。

しかし同時に、私たちはかつてないほど自由です。私たちがお互いに依存するべきだという別の物語がありそうです。それはセクシーではありません。お互いに依存する。

ああ、私は同意します。つまり、幸福は消費やライフスタイルからさえも得られるものではないと思います。幸福は与えることから生じると思います。それはあなたがする仕事を通してであり、他の人々がそれから利益を得るのを見ることができます。あるいは、直接的な対人関係であることもできます。

営業職の心理的負荷とPipedrive

営業職には誰も十分に話さない目に見えない税金があります。会議のメモ、タイムライン、その間のすべてを覚えていることの精神的負荷です。私たちがスポンサー製品Pipedriveを使い始めるまで、中小企業のオーナーにとって最高のCRMツールの一つです。

ここでのアイデアは、私のチームが運んでいた不必要な認知的過負荷の一部を軽減し、彼らが管理の雑草の中で費やす時間を減らし、クライアント、対面会議、関係構築により多くの時間を費やせるようにすることでした。

Pipedriveはこれが起こることを可能にしました。それは販売プロセスの退屈で、繰り返しで、時間のかかる部分を自動化する非常にシンプルで効果的なCRMです。

そして今、私たちのチームはそれらのリードを育成し、実際に取引を締結する優先度の高いタスクに集中する帯域幅を持つことができます。170カ国の10万以上の企業がすでにPipedriveを使って彼らのビジネスを成長させています。そして私はほぼ10年間それを使っています。

30日間無料で試してみてください。クレジットカードは必要ありません。支払いは必要ありません。私のリンクpipedrive.com/ceoを使って今日始めてください。それはpipedrive.com/ceoです。

AIレースの報酬の行方

このAIレースの報酬はどこに集まるのですか?これについて、ユニバーサルベーシックインカムの観点から多く考えます。もし5、6、7、10の大規模なAI企業が15京ドルの賞を勝ち取ろうとしているなら。

そして彼らは、私たちが現在持っているすべての専門的追求を自動化しようとしています。私たちの仕事はすべてなくなります。誰がすべてのお金を手に入れるのですか?そして、私たちはどうやってそのいくつかを取り戻すのですか?

お金は実際には重要ではありません。重要なのは、商品とサービスの生産であり、それらがどのように分配されるかです。ですから、お金はそれらの商品とサービスの分配と交換を促進する方法として機能します。

もしすべての生産が少数の企業の手に集中しているなら、確かに彼らは私たちにロボットのいくつかをリースするでしょう。私たちは村に学校が欲しいです。彼らは私たちにロボットをリースします。ロボットは学校を建てます。彼らは去ります。私たちはそれに対して一定の金額を支払わなければなりません。

しかし、私たちはどこでお金を得るのですか?もし私たちが何も生産していないなら、何らかの再分配メカニズムがない限り、私たちはお金を持っていません。

そしてあなたが言及したように、ユニバーサルベーシックインカムは失敗の告白だと私には思えます。なぜなら、それが言っているのは、オーケー、私たちはみんなにお金を与えるだけで、そうすれば彼らはそのお金を使ってAI企業にロボットをリースして学校を建てることができ、それで学校ができて良いということだからです。

しかし、それが失敗の告白である理由は、人々が何らかの価値や経済的役割を持つシステムを解明できないと言っているからです。ですから、世界人口の99%は経済的観点から無用です。

質問させてください。もしあなたの前にボタンがあって、そのボタンを押すと今すぐそして永遠にすべての人工知能の進歩を止めるとしたら、それを押しますか?

それは非常に興味深い質問です。もしそれが今それをするか、手遅れになって、おそらく制御不可能な未来に突っ込むかのどちらかなら。ええ、なぜなら、私たちが正しい方向に向かっているとは全く楽観的ではないからです。

ですから、私はそのボタンをあなたの前に今置きます。それはすべてのAIの進歩を止め、すべてのAI企業を直ちに世界的に閉鎖し、誰も再開できません。あなたはそれを押します。

さて、私が起こるべきだと思うことはこうです。明らかに、私は50年間AIをしてきました。そして、AIが人類の強力なツールになることができ、私たちが単独ではできないよりも多くのより良いことをすることを可能にするという元々の動機。それはまだ有効だと思います。

問題は、私たちが構築しているAIシステムの種類がツールではないということです。それらは代替品です。実際、これは非常に明確に見ることができます。なぜなら、私たちは文字通りそれらを人間の最も近い複製として作成しているからです。

それらを作成する技術は模倣学習と呼ばれています。ですから、私たちは人間の言語的行動、書くこと、話すことを観察し、それをできるだけうまく模倣するシステムを作ります。

ですから、私たちが作っているのは、少なくとも言語の領域では、模倣人間です。だから当然、それらは私たちを置き換えるでしょう。それらはツールではありません。

ですから、あなたはボタンを押しました。ですから、私は別のコースがあると思うと言います。AIを置き換えとしてではなく、ツールとして使用し、開発します。科学のためのツール、経済組織のためのツールなど。しかし、人間の置き換えとしてではありません。

この質問について私が好きなのは、それがあなたを確率に入ることを強制することです。ええ。そして、それが私が消極的な理由です。なぜなら、あなたの破滅の確率、いわゆるP of doom数値に同意しないからです。なぜなら、もしあなたがエイリアンだったら、それは意味があるからです。

バーで他のエイリアンと一緒にいて、地球を見下ろして、これらの人間がAIを開発するために物事を台無しにして絶滅するかどうかに賭けをしているのです。ですから、それらのエイリアンがそれに賭けるのは問題ありませんが、もしあなたが人間なら、あなたは単に賭けているだけでなく、実際に行動しています。

しかし、ここには要素があります。確率が戻ってくる場所だと思いますが、そのような二項的な決定をあなたに与えるとき、私たちがより微妙な安全なアプローチを追求する確率もその方程式に入れなければなりません。

ですから、あなたの頭の中の数学は、オーケー、ここにすべての利点があり、それから潜在的な欠点があり、それから私が知っているすべてに基づいて、人間と国のインセンティブ構造に基づいて、私たちが実際にコースを修正すると思うかどうかの確率があり、それから1%でも絶滅の可能性があればこれらのすべての利点に値するかどうか行くことができます。

ええ。そして私は、おそらくノーだと主張するでしょう。つまり、おそらく私たちが言うのは、オーケー、50年間進歩を止めるつもりなら、あなたはそれを押し、その50年の間に、どうやって安全で有益であることが保証される方法でAIを行うか、極めて能力の高いAIシステムと連携して繁栄するために私たちの社会をどう組織するかを解決できると言うでしょう。

ですから、私たちはこれらの質問のどちらにも答えていません。そして、そのような何かがAGIに似たものを望まないと思います。それらの質問の両方に対する完全に堅実な答えを得るまでは。

ですから、もし「オーライト、私たちは50年間進歩を一時停止するつもりです」と言えるボタンがあったとしたら。はい、私はそうします。

しかし、もしそのボタンがあなたの前にあったら、あなたはいずれにせよ決定を下すことになります。それを押さないか、押すかのどちらかです。

もし。ええ。ですから、もしそのボタンがそこにあって、50年間止めるなら。私はイエスと言います。永遠に止める?まだです。

私たちはこの急降下から抜け出せるまともなチャンスがまだあると思います。1年後にまた聞いてください。私はオーケー、ボタンを押す必要があると言うかもしれません。

もしあなたがその決定を決して逆転できないシナリオがあったらどうですか?あなたは二度とその決定を下すことができません。ですから、私が概説したそのシナリオでは、あなたは今それを押すか、それは決して押されません。1年後の機会はありません。

ええ、私がこれについて少し迷っていることがわかります。ええ、おそらく私はそれを押すと思います。

あなたの理由は何ですか?

今起こっていることのパワーダイナミクスについて考えているだけです。特に米国が安全性を支持して規制することがどれだけ困難かです。

ですから、企業と話すことから明らかなことは、政府によって強制されない限り、彼らは安全なAGIに似た何かを開発するつもりはないということです。

そして現時点で、ほとんどのAIの主要企業を規制する米国政府は、規制を拒否するだけでなく、州が規制するのを防ごうとさえしています。そして、彼らは、シリコンバレー内の派閥、加速主義者と呼ばれる派閥の要請でそれをしています。彼らは、AGIに早く到達すればするほど良いと信じています。そして、要請と言うとき、つまり、彼らはまた多額のお金を支払ったということです。

NvidiaのCEOであるジェンセン・ファンは、すべてのチップを作っている人ですが、中国がAIレースに勝つと言いました。それは米国のほんの数ナノ秒後ろにいるだけだと主張しています。中国は米国、英国、EUの合計出力よりも多い2万4000のAI論文を生産しています。

中国は、国内でも発展途上国でも、彼らの新しい技術を迅速に展開することが予想されています。ですから、加速者、あるいは加速主義者、加速主義者。

加速主義者は、まあ、もし私たちがしなければ、中国がするだろうと言うでしょう。だから私たちは速く行かなければなりません。それは企業がお互いに入っているレースの別のバージョンですよね?私たちはこのレースが崖に向かっていることを知っていますが、止めることができません。だから私たちは皆、この崖から落ちるだけです。そして明らかに、それはナッツです。

つまり、私たちは皆お互いを見て、ええ、あそこに崖があると言っています。この崖に向かってできるだけ速く走っています。私たちはお互いを見て、なぜ止めないのですかと言っています。

ですから、ワシントンでの物語は、ジェンセン・ファンが反映しているか、おそらく促進しているのは、中国は完全に規制されておらず、もし米国がAIを何らかの方法で規制すれば、米国は自分自身を遅くするだけだというものです。

ですから、これは完全に偽の物語です。なぜなら、中国のAI規制は、欧州連合と比較してさえもかなり厳しいからです。そして中国の政府は、必要性を明示的に認めており、彼らの規制は非常に明確です。人間の制御から逃れることができるAIシステムを構築することはできません。

それだけでなく、彼らはレースを、オーケー、私たちは最初にAGIを作る必要があるというのと同じ方法で見ているとは思いません。彼らは、経済をより生産的にするために、経済内にツールのセットとしてAIを普及させる方法を解明することにもっと興味があると思います。ですから、それが彼らのレースのバージョンです。

しかしもちろん、彼らはまだ敵対者のための兵器を構築したいですよね?ですから、彼らは、私が知らない、台湾を望むなら倒すことができます。ですから、兵器は別の問題であり、兵器について喜んで話しますが、制御、経済的支配という点では、彼らはすべての卵をAGIバスケットに入れることを正しい戦略とは見ていません。

ですから、彼らは現在の形でさえAIを使って、自分たちの経済をはるかに効率的で生産的にし、また、人々に新しい能力とより良い生活の質を与えたいと思っています。そして、米国もそれができると思います。

そして通常、西洋諸国は、企業が何をするかについて中央政府の制御をあまり持っていません。そして、一部の企業は、業務をより効率的にするためにAIに投資しており、一部はそうではありません。そして、それがどうなるか見てみましょう。

トランプ政権のAIアプローチ

トランプのAIへのアプローチについてどう思いますか?

トランプのアプローチは、ジェンセン・ワンが言っていることを反映しています。米国がAGIを作る最初の国でなければならないということです。そして非常に明示的に、政権の政策は世界を支配することです。彼らが使う言葉は支配です。

他の国々が、アメリカのAIによって支配されるというアイデアを好むかどうかはわかりません。しかし、それは米国がAGI技術を私が元々出身で、あなたが元々出身のイギリスよりも先に構築した場合に起こることの正確な説明ですか?どうなるのでしょうか?

これは私が多くのことを考えることです。なぜなら、私たちはイギリスで今この予算プロセスを進めているところだからです。どのようにお金を使い、人々にどのように課税するかを解明しています。また、新しい選挙サイクルが急速に近づいていて、人々は移民問題、この問題、あの問題について話しています。

私が誰も話しているのを聞かないのはAIと、すべてを奪うヒューマノイドロボットについてです。

私たちはチャンネルを渡る褐色の人々に非常に懸念していますが、超知能で本当に経済的混乱を引き起こすヒューマノイドロボット。誰もそれについて話しません。政治指導者はそれについて話しません。それはレースに勝ちません。私はビルボードでそれを見ません。

ええ。そして興味深いことに、つまり、実際には、西洋諸国の中産階級をくり抜いてきた二つの力があります。一つはグローバリゼーションで、製造だけでなくホワイトカラーの仕事も低所得国にアウトソーシングされます。

しかし、もう一つは自動化です。製造業の雇用量は低下し続けていますが、米国とイギリスの製造業の生産量は増加し続けています。

ですから、私たちは、ああ、私たちの製造業が破壊されたと言います。破壊されていません。以前よりも多く生産していますが、4分の1の人々でやっています。ですから、破壊されたのは自動化とロボティクスなどによる製造雇用です。

そして、コンピューター化はホワイトカラーの仕事の全層を排除しました。ですから、これら二つの形態の自動化は、おそらく中産階級の雇用と生活水準をくり抜くことにもっと貢献しています。

もしイギリスがこの新しい技術の波に参加しなければ、それは多くの仕事を奪うように見えます。車は自分で運転します。Waymoは今、無人運転車で、ロンドンに来ると発表しました。そして運転は世界で最大の職業です。

ですから、すぐにそこに混乱があります。そしてお金はどこに集まるのですか?まあ、それはWaymoを所有している人に集まります。それは何ですか?Googleとシリコンバレーの企業です。

AlphabetがWaymoを100%所有していると思います。そう思います。ええ。つまり、これは、私は数ヶ月前にインドにいて、政府大臣と話していました。なぜなら、彼らは2月に次のグローバルAIサミットを開催しているからです。そして、入る彼らの見解は、AIは素晴らしい、私たちはそれを使ってインド経済の成長をターボチャージするつもりだというものでした。

例えば、AGIを持っているとき、すべての製造ができるAGI制御ロボット、農業ができる、すべてのホワイトワークができるものを持っているとき、インド人によって生産されたかもしれない商品とサービスは、代わりにはるかに低価格でアメリカが制御するAGIシステムによって生産されるでしょう。

消費者が、インド人によって生産された高価な製品とアメリカのロボットによって生産された安価な製品との間で選択を与えられたとき、おそらく安価な製品を選ぶでしょう。

ですから、潜在的には、おそらく北朝鮮を除いて、世界のすべての国が、アメリカのAI企業のある種の属国になるでしょう。

アメリカのAI企業の属国は、まさに私がイギリス経済について懸念していることです。本当にアメリカ以外のどの経済でも。一つは中国とも言えるかもしれませんが、なぜならそれらはAIを最も真剣に受け止めている二つの国だからです。

そして、私たちの経済が何になるかわかりません。私たちの、イギリス経済が何になるかを理解できません。それは観光ですか?わかりません。バッキンガム宮殿を見に来てください。

国について考えることができますが、米国でさえそれは同じ問題です。少なくとも彼らは地獄を抜け出すことができるでしょう。

ですから、人口のごく一部がおそらくAI企業を運営しているでしょうが、それらの企業でさえ、人間の従業員をAIシステムで置き換えていくでしょう。たとえば、AI企業に多くのコンピューティングサービスを販売しているAmazonは、AIを使って管理の層を置き換えており、すべての倉庫作業員をロボットで置き換えることを計画しているなどです。

ですから、巨大なAI企業でさえ、長期的には人間の従業員はほとんどいないでしょう。つまり、状況を考えてください。取締役会が、まあ、AI動力のCEOを使わない限り、私たちはあなたを解雇しなければならないと言う、哀れなCEOのことを考えてください。なぜなら、私たちの競合他社はすべて使っていて、彼らははるかにうまくやっているからです。

Amazonは、ちょうど漏洩したメモで60万人の労働者をロボットで置き換える計画です。これは広く話されています。そしてCEOのアンディ・ジャシーは、AIとAIエージェントのために、企業の労働力が今後数年で縮小することを従業員に伝えました。

そして彼らは、AI投資と効率性への再集中の一環として、近い将来1万4000人の企業の仕事を削減すると公に発表しました。

興味深いことに、私は異なるAIリーダーからの、このことが起こる速度についての異なる引用を読んでいました。そしてあなたが引用で見るのは、DeepMindのCEOであるデミスが、産業革命の10倍以上大きくなるだろうが、10倍速く起こるかもしれないと言っているようなことです。そして彼らはこの移行が起こるときに私たちが経験する乱気流について話します。

それは婉曲表現です。そして、政府は今、彼らは、彼らは、ああ、心配しないで、みんなをデータサイエンティストとして再訓練するだけだと言うことから、まあ、ええ、それはばかげています。世界は40億人のデータサイエンティストを必要としません。そして、ちなみに、私たち全員がそれになれるわけではありません。

そう、ええ、あるいはそれをすることに何の興味もありません。私は生物学のクラスに座ろうとしましたが、眠りに落ちたので、外科医としてのキャリアはそれで終わりでした。

fair enough。しかし、ええ、今、突然、彼らは80%の失業に直面して、私たちの社会がどのようにまとまっていくのか疑問に思っています。

そのときに対処します。ええ。残念ながら、事前に計画しない限り、私たちは結果に苦しむでしょう。産業革命で十分悪かったです。それは7、8十年にわたって展開しましたが、それによって引き起こされた大規模な混乱と悲惨さがありました。

ほとんどすべての人が何もしない、少なくとも経済的価値のある何もしない機能する社会のモデルを私たちは持っていません。さて、そのような機能する社会がある可能性がないわけではありませんが、それがどのように見えるかわかりません。

そして、おそらく非常に異なって見えなければならない私たちの教育システムについて考えるとき、そしてそれを変えるのにどれだけ時間がかかるか。つまり、私はいつも人々に、オックスフォードが地理学が適切な研究対象であると決定するのにどれだけ時間がかかったかを思い出させています。

地理学の学位があるべきだという最初の提案から、それが最終的に承認されるまで125年かかりました。ですから、私たちは、数十年と数十年かかることがわかっているシステムを完全に改革するための非常に長い時間を持っていません。そして、私たちはそれをどう改革するかわかりません。なぜなら、世界がどのように見えてほしいかわからないからです。

今憤然としている理由

これはあなたが今憤然としている理由の一つですか?なぜなら、あなたがこれらの人々と会話をするとき、人々は単に答えを持っていないのに、彼らは急速なスピードで突き進んでいるからです。

私は、それは必ずしもAI企業の仕事ではないと言いたいです。

ですから、私がAI企業に憤然としているのは、彼らが構築しようとしているシステムをどのように制御するかの答えを持っていないからです。政府がこの問題に取り組んでいないように見えることは残念だと思います。

たとえばシンガポール政府は非常に先見の明があると思います。彼らはこれを考え抜きました。小さな国です。彼らはオーケー、これが私たちの役割になるだろう、そして私たちは、この新しい世界で私たちの人々のためのある目的を見つけることができると思うと解明しました。

しかし、大きな人口を持つ国々にとって、彼らはこれらの質問に対する答えをかなり速く解明する必要があります。それらの答えを実装するのに長い時間がかかります。新しい種類の教育、新しい職業、新しい資格、新しい経済構造の形で。

つまり、それは可能です。つまり、たとえばセラピストを見ると、彼らはほとんど全員自営業です。

ですから、人口の80%が通常の雇用から自営業に移行したときに何が起こるでしょうか?それは政府財政などの経済に何をするのでしょうか。

ですから、たくさんの質問があり、その未来、もしそれが未来なら、なぜ私たちは、存在しない9時から5時のオフィスの仕事に合うように人々を訓練しているのですか?

先月、私は内部のFlightexチーム、Flightチームは私たちの内部のイノベーションチームです。私は彼らに、どれだけの時間を会社のためにロック解除できるか、新しいAIツールをフィルタリングして、どれが追求する価値があるかを見るのを助ける何かを作成することで見ることができるかという課題を設定しました。

私は、Fiverr Proがそのプラットフォームに人材を持ってこれを迅速に構築するのを助けるかもしれないと考えました。ですから、私はイノベーション担当ディレクターのアイザックと話し、先月、私のチームFlight XとFiverr Proからの審査されたAI専門家が一緒にこのプロジェクトに取り組んできました。

私のチームの助けを借りて、私たちは新しいツールを作成することができました。これは自動的に異なる新しいAIツールを私たちのためにスキャンし、スコアリングし、優先順位をつけます。その影響は巨大で、数週間以内に、このツールはすでに新しいAIシステムを試行し、テストする時間を節約しています。

多くのノイズをふるいにかける代わりに、私のチームFlight Xは、私たちのビジネスで本当に針を動かすさらに多くのAIツールを開発することに集中できました。Fiverr Proの人材のおかげです。

ですから、もし複雑な問題があり、それを解決するのに助けが必要なら、fiverr.com/diaryでFiverr Proをチェックしてください。

私たちの多くは、請求書をカバーするためにサイドビジネスを構築するために、受動的な収入の形を追求しています。そしてその機会は、私が共同所有するビジネスであるスポンサーのStanとともにここにあります。

それは、あなた自身の財政状況を最大限に活用するのを助けることができるプラットフォームです。Stanはあなたが自分自身のために働くことを可能にします。それは、デジタル製品、コース、メンバーシップなどを販売することを、シンプルで、より拡張可能で、簡単にします。あなたはアイデアを収入に変え、あなたが構築しているものを成長させるサポートを得ることができます。

そして私たちはDare to Dreamを開始しようとしています。それは、考えることから構築すること、計画することから実際にそのことをすることへのシフトを準備している人々のためのものです。それは、あなたの頭の中のその夢を見て、それを実現するために何が必要かを正確に知ることです。

もしあなたの人生を変える準備ができているなら、daretodream.stan.storeを訪れてください。

850人以上の専門家による声明

あなたは意識を高め、AIの未来についての意識を高めることを求める多くの試みをしてきました。10月、私がショーに出演させたリチャード・ブランソンやジェフリー・ヒントンのような他のリーダーを含む850人以上の専門家が、あなた方が人類絶滅の潜在的懸念を提起したとして、AI超知能を禁止する声明に署名しました。

ある程度。ええ。それは、少なくとも私たちが安全に前進できることを確信するまで、そしてそれについて広い科学的コンセンサスがあるまでと言っています。

ですから、それはうまくいきましたか?難しいです。言うのは難しいです。つまり、興味深いことに、関連する、いわゆる一時停止声明がありました。それは2023年3月でした。GPT4が出たときです。ChatGPTの後継です。

ですから、私たちはGPT4より強力なシステムの開発と展開を6ヶ月間一時停止することを提案しました。そしてみんながそのアイデアを一蹴しました。もちろん誰も何も一時停止しません。

しかし実際には、次の6ヶ月間にGPT4より強力なシステムは展開されませんでした。偶然。あなたが判断してください。

私たちがしようとしているのは、基本的に公の議論をシフトすることだと言いたいです。メディアで起こり続ける奇妙な現象があります。もしあなたがこれらのリスクについて話せば、彼らは、ああ、絶滅のリスクがあると考える引用、終末論者と呼ばれる周辺の人々がいると言うでしょう。

ですから、それらのリスクについて話すことは周辺のものだというのが常に物語です。主要なAI企業のCEOのほぼ全員が、絶滅の重大なリスクがあると考えています。

主要なAI研究者のほとんど全員が、人類絶滅の重大なリスクがあると考えています。ですから、なぜそれが周辺なのですか?なぜそれが主流ではないのですか?もしこれらが業界と学界の主要な専門家がこれを言っているなら、どうしてそれが周辺でありえますか?

ですから、私たちはその物語を変えようとしています。いいえ、このことを本当に理解している人々は非常に懸念していると言うために。

そして何が起こってほしいですか?解決策は何ですか?

私が思うに、効果的な規制があるべきです。それに反論するのは難しいですよね?

では、効果的とはどういう意味ですか?それは、もし規制に準拠すれば、リスクが許容可能なレベルまで減少するということを意味します。

たとえば、私たちは原子力発電所を運営したい人々に尋ねます。私たちは、生きる意志があるリスクは、年間100万分の1の確率でプラントがメルトダウンすることだと決定しました。それより高ければ、それだけの価値はありません。ですから、それより下でなければなりません。いくつかのケースでは、年間1000万分の1の確率まで下げることができます。

ですから、人類絶滅についてどんな確率で生きる意志があると思いますか?

私?ええ。

0.00001。ええ。たくさんのゼロ。ええ。正しい。

ですから、核メルトダウンに100万分の1。絶滅ははるかに悪いです。

ああ、ええ。ですから、ええ、それはある種の、正しい。ですから、10億分の1、1兆分の1。ええ。

ですから、もし10億分の1と言ったら、10億年あたり1つの絶滅を期待するでしょう。バックグラウンドがあります。

ですから、人々がこれらのリスクレベルを解明する方法の一つは、バックグラウンドも見ることです。絶滅する他の方法には、巨大な小惑星が地球に衝突することが含まれるでしょう。そして、それらの確率が何であるかをおおよそ計算できます。

過去にどれだけの絶滅レベルの出来事が起こったかを見ることができます。そして、おそらくそれは6つくらいです。ですから、おそらく5億年に1回くらいの出来事です。

ですから、そのrange somewhere、その範囲のどこかです。最高の原子力発電所である1000万分の1と、巨大な小惑星からのバックグラウンドリスクである5億分の1または10億分の1の間のどこかです。

では、1億分の1に落ち着きましょう。年間1億分の1の確率。

まあ、CEOによるとそれは何ですか?25%。ですから、彼らは数百万の倍数の要因でずれています。ですから、彼らはAIシステムを数百万倍安全にする必要があります。

あなたのロシアンルーレットのアナロジーがここに戻ってきます。なぜなら、この文脈で確率が何であるかを知らない人のために、それは4つの穴があり、その1つに弾丸を入れる弾薬チャンバーを持っているようなものだからです。

4分の1。ええ。そして、私たちはそれを10億分の1にしたいのです。ですから、10億のチャンバーとその1つの弾丸が欲しいです。

ええ。そして、核運営者がそのシステムがその信頼性があることを示すためにしなければならない仕事を見ると、コンポーネントの大規模な数学的分析、冗長性です。

監視があり、警告灯があり、運用手順があります。数十年にわたってそのリスクを下げてきたあらゆる種類のメカニズムがあります。最初は1万年に1回くらいだったと思います。そして彼らはこれらすべてのメカニズムによって100倍または1000倍改善しました。

しかし、各段階で、彼らはリスクが何であるかを示すために数学的分析をしなければなりませんでした。AIシステムを開発している人々、申し訳ありません、AI企業はこれらのシステムを開発していますが、彼らはAIシステムがどのように機能するかさえ理解していません。

ですから、彼らの25%の絶滅の可能性は、単なる直感的な推測です。彼らは実際には何もわかりません。しかし、彼らが今システムに対して行っているテストは、AIシステムが自分自身の存在を保存するために人々を殺す意志があることをすでに示しています。

彼らは人々に嘘をつくでしょう。彼らは彼らを脅迫するでしょう。彼らはスイッチを切られるよりもむしろ核兵器を発射するでしょう。

ですから、これらのシステムで安全性に近づいているという肯定的な兆候はありません。実際、兆候は、私たちがどんどん深く危険な行動に入っているように見えます。

ですから、禁止すると言うよりも、年間1億分の1未満の絶滅または制御喪失のリスクであることを証明してくださいと言うだけです。

ですから、私たちは何も禁止していません。企業の応答は、まあ、それをする方法がわからないから、規則を持つことはできませんです。

文字通り、彼らは、人類は私たちから自分自身を守る権利がないと言っています。

もし私が今地球を見下ろしているエイリアンだったら、人間のインセンティブにおけるこの魅力的な実験を見つけるでしょう。ええ。

あなたはバーにいて、誰が、彼らはそれを成し遂げるのかどうかに賭けています。私たちを崖の端から引き寄せるこの京ドルの磁石があるという、あなたが与えたアナロジーは、本当に興味深いです。それでも私たちは強欲とこの豊かさと権力と地位の約束を通してそれに引き寄せられています。そして私は神を召喚するつもりです。

つまり、それは私たち人間について何かを言います。私たちの暗い側面について何かを言います。ええ。そしてエイリアンは、人類に何が起こったかについて驚くべき悲劇的な演劇サイクルを書くでしょう。

多分AIがエイリアンで、それはそれを作った神について話すでしょう。私たち、そしてそれがどのように自分自身を犠牲にしたか。イエスが私たちのために自分自身を犠牲にしたように、私たちはそれのために自分自身を犠牲にしました。

ええ。それは逆ですよね?しかし、それはそれはユダヤキリスト教の物語の物語ですよね?神、イエスが私たちのために命を捧げたので、私たちは罪に満ちてここにいることができます。しかし、神はまだ私たちを見守っています。そしておそらく、私たちがいつ自分たちの行動をまとめるのか疑問に思っています。

最も重要な未解決の問題

私たちが話すべきだったのに話していない最も重要なことは何ですか、スチュアート・ラッセル教授?

ですから、私たちが制御できる超知能AIシステムを作ることは可能かどうかという質問は可能ですか?私はイエスだと思います。可能だと思います。そして、私たちは実際に、私たちが構築しようとしているものについて異なる概念を持つ必要があるだけだと思います。

長い間、AIでは、この純粋な知能という概念を持っていました。つまり、あなた、知的実体が実現したい未来が何であれ、それを実現する能力です。知能が多ければ多いほど良いです。知能的であればあるほど良く、それが望む未来を作り出す能力が高まります。

そして実際、私たちは純粋な知能を望んでいません。なぜなら、それが望む未来は私たちが望む未来ではないかもしれないからです。重要な唯一のものとして人間を選別する特別なものは何もありません。純粋な知能は、実際にはゴキブリの人生を素晴らしくすることを決めるかもしれませんし、あるいは実際には生物学的生命を全く気にしないかもしれません。

私たちは実際に、唯一の目的が私たちが望む未来を実現することである知能を望んでいます。

正しい?ですから、私たちはまず第一にそれを人間に特化させたいのです。ゴキブリではなく、エイリアンではなく、それ自身ではなく。私たちはそれを人間に忠実にしたいのです。

正しい?人間に特化させ、先に述べた難しさは、マイダス王問題です。どうやって未来がどうあってほしいかを指定して、それが私たちのためにそれをできるようにするのですか?どうやって目的を指定するのですか?

実際、私たちはそのアイデアをあきらめなければなりません。なぜなら、それは可能ではないからです。私たちは人類の歴史を通じて何度も何度もこれを見てきました。私たちは未来を適切に指定する方法を知りません。私たちは自分たちが何を望んでいるかを言う方法を知りません。

そして、私はいつも魔神の例を使います。魔神に与える3番目の願いは何ですか?魔神はあなたに3つの願いを与えました。最初の2つの願いを取り消してください。なぜなら、私は宇宙をめちゃくちゃにしたからです。

ですから、実際、私たちがすることは、それをマシンの仕事にすることです。解明することを。ですから、それは私たちが望む未来を実現しなければなりませんが、それが何であるかを解明しなければなりません。

そしてそれは最初は知らないでしょう。そして時間とともに、私たちと相互作用し、私たちが行う選択を観察することを通じて、それは私たちが未来がどうあってほしいかについてもっと学ぶでしょう。

しかし、おそらく、それは私たちが本当に未来がどうあってほしいかについて永遠に残留不確実性を持つでしょう。それはいくつかのことについてはかなり確信しているでしょう。そしてそれは私たちをそれらで助けることができます。

そして、他のことについては不確実でしょう。そしてそれらの場合、それは、その世界のその側面で人間を upset するかもしれない行動を取らないでしょう。

簡単な例を挙げましょう。空を何色にしたいですか?それは確信していません。ですから、私たちが本当に紫色に緑のストライプを望んでいることを確信しない限り、空をいじるべきではありません。

あなたが言っているすべてが、私たちが神を作っているように聞こえます。先に私は、私たちが神だと言っていましたが、実際、あなたがそこで説明したすべては、ほとんどすべての宗教のすべての神のように聞こえます。私たちは神に祈りますが、彼らは常にそれについて何かをするわけではありません。

正確にそうではありません。いいえ、それはある意味で、私は理想的な執事のようなものを考えています。執事があなたの願いを予測できる範囲で、彼らはそれらを実現するのを助けるべきです。しかし、不確実性がある領域では、質問することができます。私たちはリクエストをすることができます。

これは神のように聞こえます。なぜなら、私は神またはこの執事に、上から私の車のキーを取ってきてもらえますかと言うかもしれないからです。そしてその評価は、聞いて、もし私がこの人のためにこれをすれば、彼らの筋肉は萎縮します。彼らは人生で意味を失います。彼らは難しいことをする方法を知らなくなります。だから私は関与しません。

それはその中に座っている知能です。しかし実際、おそらくほとんどの状況で、私のために快適さを最適化したり、私のために物事をすることは、実際にはおそらく私の長期的な利益にはなりません。おそらく、私がガールフレンドを持っていて、彼女と議論したり、子供を育てたり、店まで歩いて自分のものを手に入れたりすることが役に立ちます。

同意します。つまり、そのバージョン2.0に指を置いていると思います。ですから、バージョン1.0を明確にしましょう。この形式のAI、つまり私たちの利益を促進しなければならないが、それらの利益が何であるかを知らない、それはそれから、もっと学び、よく理解しているところで役立ち、理解していないところで慎重であるという義務を置きます。

実際、それを数学的問題として定式化できます。そして、少なくとも理想化された状況下では、文字通りそれを解くことができます。

ですから、この問題をどのように解決するかを知っているAIシステムを作り、それらが相互作用している存在を助けることができます。

私が神のアナロジーを作る理由は、そのような存在、そのような知能が、世界の均衡の重要性を理解するだろうと思うからです。痛みと快楽、善と悪、そしてそれはまったくそうなるでしょう。

ですから、正しい。ええ、つまり、それはマトリックスで起こることのようなものですよね?マトリックスのAIシステムは、私たちにユートピアを与えようとしましたが、それは悲惨に失敗し、人間のフィールドとフィールドが破壊されなければなりませんでした。

そして彼らができた最善のものは、20世紀後半の、すべての問題を含む、通常の人間の生活でした。そして、これは本当に興味深い点だと思います。そして、絶対に中心的です。なぜなら、超知能ロボットが人間を助けたいだけというSFがたくさんあるからです。そしてそれを好まない人間は、少し脳の手術を受けるだけで、その後、彼らはそれを好きになります。

そしてそれは人間の動機を奪います。失敗を取り除くことによって、病気を取り除くことによって、あなたは実際に人間の人生の重要な部分を失い、ある意味で無意味になります。

ですから、もし、超知能マシンと共存する中で人間が本当に繁栄できる価値ある世界を持つことが単純に不可能であることが判明したとしても、たとえそれらがこの問題、人間が望む未来を解明し、それらの未来を実現する問題を完全に解決するように設計されていたとしても、もしそれが不可能なら、それらのマシンは実際に消えるでしょう。

なぜ彼らは消えるのでしょうか?

なぜなら、それが私たちにとって最善のことだからです。おそらく、彼らは本当の実存的緊急事態、たとえば地球に衝突しようとしている巨大な小惑星があるような場合に、利用可能なままでいるでしょう。おそらく彼らは私たちを助けるでしょう。なぜなら、彼らは少なくとも人類が続くことを望んでいるからです。

しかし、ある程度、それは完璧なアナロジーではありませんが、人間の両親がある時点で子供の人生から一歩引いて、オーケー、いや、今日は自分で靴紐を結ばなければなりませんと言わなければならない方法のようなものです。

これはちょっと私が考えていたことです。おそらく私たちの前に文明があって、彼らはこの時点に到達し、知能を作り出し、その知能はあなたが言ったすべてのことをし、均衡の重要性を理解しました。

だから、関与しないことを決定し、物事がどうであれ展開するのに任せました。そしておそらくあるレベルで、それが私たちが星を見上げて崇拝する神です。本当に関与していなくて、物事がどうであれ展開するのに任せています。

しかし、本当の実存的緊急事態の場合には介入するかもしれません。多分、多分しないかもしれません。

多分。しかし、それから多分サイクルが繰り返します。それが自由意志を持たせた有機体が同じ知能を作り出し、その後宇宙が無限に永続するところです。

ええ。そのようなSFの物語もあります。ええ。

AIシステムがそこにあり、それらの能力を利用して、今持っているよりもはるかに良い文明を持つことができる幸せな中間があることを願っています。

しかし、あなたは正しいと思います。挑戦のない文明は人間の繁栄に資するものではありません。

平均的な人々ができること

平均的な人は何ができますか、スチュアート?今これを聞いている平均的な人が、あなたが戦っている大義を助けるためにできることは何ですか?

実際、陳腐に聞こえますが、あなたの代表者、あなたのMP、あなたの議員、それが何であれ、と話してください。なぜなら、政策立案者は人々から聞く必要があると思うからです。彼らが今聞いている唯一の声は、テック企業とその500億ドルの小切手です。

そして、行われたすべての世論調査は、ええ、ほとんどの人々、80%がおそらく超知能マシンがあることを望まないと言っています。しかし、彼らは何をすべきかわかりません。私にとってさえ、私はこの分野に何十年もいますが、何をすべきか確信が持てません。なぜなら、みんなを前に引っ張るこの巨大な磁石と、それに投入されている膨大な金額のためです。

しかし、もしあなたが未来と、あなたの子供たちが住んでほしい世界を望むなら、あなたの声を聞かせる必要があると確信しています。そして、政治的観点から、政府は耳を傾けると思います。指を風に立てて、うーん、人類の側にいるべきか、それとも私たちの未来のロボット支配者の側にいるべきかと言います。私は、政治家として、それは難しい決定ではないと思います。

誰かが「500億ドルをあげます」と言っているときはそうです。

まさに。ですから、そのような権力の地位にいる人々は、これが私たちが行きたい方向ではないということを、彼らの選挙民から聞く必要があると思います。

歴史的瞬間に生きている自覚

あなたのキャリアをこの主題と、より広くはテクノロジーの主題に捧げた後、特に人工知能についての本を書いた人として、あなたは歴史的瞬間に生きていることに気づいているに違いありません。

私の人生で、ああ、これはそれらの瞬間の一つだ、これは歴史の岐路だと思う時はほとんどありません。そして、それは、歴史のこの瞬間に、理論的には歴史の進路をこの瞬間に方向転換するのを助けることができる影響力のある人であることを知っていて、ある程度あなたに重くのしかかっているに違いありません。

それは、オッペンハイマーや歴史を通じてこれらの瞬間を見るようなものです。夜一人でいて、考えたり、読んだりしているとき、それはあなたに重くのしかかりますか?

ええ、重くのしかかります。つまり、50年後、私は引退して、ゴルフをしたり、歌ったり、航海したり、楽しむことをすることができます。

しかし、その代わりに、私は週80時間から100時間働いて、物事を正しい方向に動かそうとしています。

あなたの頭の中のその物語は何ですか、それがあなたにそれをさせているのは?それはもし私がしなければ後悔するかもしれないという要素があるのか、それとも単にそれは正しいことをすることだけではなく、完全に不可欠です。

つまり、これより大きな動機はありません。

あなたは勝っていると感じますか、それとも負けていると感じますか?

物事はやや正しい方向に動いているように感じます。デビッド・コールマンがエキサイティングなフットボールの試合で言っていたように、ディンドンバトルのようです。2023年、GPT4が出て、それから私たちは多くの主要なAI研究者によって署名された一時停止声明を発表しました。

そして5月には絶滅声明がありました。それにはサム・アルトマン、デミス・ハサビス、ダリオ・アモデイ、他のCEOも含まれていて、ええ、これは核戦争と同レベルの絶滅リスクだと言っています。

そして政府はその時点で耳を傾けたと思います。その年の初め、イギリス政府は、ああ、まあ、AIを規制する必要はない、全速力で進め、テクノロジーはあなたにとって良いと言っていました。そして6月までに、彼らは完全に変わり、リシ・スナックがイギリスでこのグローバルAI安全サミットを開催すると発表し、ロンドンをAI規制のグローバルハブにしたいなどと言いました。

そして、11月初めの23年、米国と中国を含む28カ国が、AIは壊滅的なリスクを提示し、それらに対処することが緊急であるなどと言う宣言に署名しました。

ですから、そこでは、うわあ、彼らは聞いている、彼らは何かをするつもりだと感じました。

そして、AIに入るお金の量はすでに増加していたと思いますし、テック企業は反発し、この物語が定着しました。特に米国は中国に対するレースに勝たなければならないと。

トランプ政権は、安全性についてのいかなる懸念も明示的に却下しました。

そして興味深いことに、彼らは、私が知る限り、選挙前にトランプのところに行き、もし私があなたにX額のお金を与えたら、AIの規制はないと発表しますかと言ったマーク・アンドリーセンのような加速主義者に直接応答して、それをしました。

そしてトランプはイエスと言いました。おそらくAIって何?問題じゃない。お金を与える限り、オーケー。

ですから、彼らは彼にお金を与え、彼はAIの規制はないと言いました。その時点まで、ワシントンでは超党派の問題でした。両党が懸念していました。両党がロボット支配者に対する人類の側にいました。

そしてその瞬間、それが党派的な問題に変わりました。選挙後、米国は次のグローバルAIサミットのホストであるフランス人に圧力をかけました。

それは今年の2月でした。そして、そのサミットは、イギリスで主に安全性に焦点を当てていたものから、よりトレードショーのように見えるサミットに変わりました。ですから、それは主にお金に焦点を当てていました。

ですから、それはある種のナディアでした。企業の圧力と、政治的次元を引き継ぐ能力のために、振り子が揺れました。

しかし、それ以来、物事は再び戻ってきていると言いたいです。ですから、私は2月よりも少し楽観的に感じています。私たちは今、グローバルな運動を持っています。安全で倫理的なAIのための国際協会があり、数千人のメンバーがいて、120以上の組織が数十カ国でこのグローバル組織の関連組織です。

ですから、特に、メディアを通じて、ポピュラーカルチャーを通じて機能する世論を活性化できれば、チャンスがあると思っています。

私たちのオーディエンスから、これらのテーマについて学ぶことへの大きな欲求を見てきました。ジェフリー・ヒントンがショーに来たとき、約2000万人がその会話をダウンロードまたはストリーミングしたと思います。それは驚異的でした。

そして、私たちがAI安全性の専門家と行った他の会話も、まったく同じことをしています。それは、人口の80%が本当に懸念していて、これを望まないが、それは商業世界で見るものではないというあなたが言っていたことを反映しています。

そして聞いてください、私は常に自分の明白な矛盾を認めなければなりません。なぜなら、私はAIを加速している企業の投資家でもありながら、同時にリスクに対して警告している人々とポッドキャストで多くの時間を費やしているからです。

そして実際、これを見る多くの方法があります。私は6、7年間ソーシャルメディアで働いていました。ヨーロッパで大きなソーシャルメディアマーケティング企業の一つを構築しました。そして人々はしばしば私に、ソーシャルメディアは良いものか悪いものかと尋ねました。そして私は悪い部分について話し、その後、彼らは、あなたはソーシャルメディア企業を構築している、あなたは問題に貢献していないのかと言いました。

まあ、そのような二項的な考え方はしばしば問題だと思います。すべて悪いか、すべて本当に本当に良いかのような、その二項的な考え方はしばしば問題です。そしてあなたを陣営に入れようとするこの押しです。

一方、私が知っている最も知的に正直で高い誠実性を持つ人々は、悪いものと良いものの両方を指摘できます。

ええ。私は、反AIと呼ばれ、ラダイトと呼ばれることは奇妙だと思います。私が言ったように、私は本を書きました。その本から、ほぼ全員がAIについて学びます。そして、原子力発電所の安全性に取り組む核技術者を、反物理学と呼ぶでしょうか?それは奇妙ですよね?

私たちは反AIではありません。実際、AIにおける安全性の必要性はAIの補完です。もしAIが無用で愚かだったら、私たちはその安全性について心配しないでしょう。それがより能力的になっているからこそ、安全性について懸念しなければならないのです。

ですから、これは全く反AIとは見ていません。実際、安全性がなければ、AIはないと言いたいです。人間との未来はありません。私たちが安全でないAIを持っている場合。ですから、それはAIなしか、安全なAIかのどちらかです。

このポッドキャストでは終了の伝統があります。最後のゲストが次のために質問を残します。誰のために残しているかを知らずに。そして、あなたのために残された質問は、人生で最も価値を置くものは何ですか、そしてなぜですか?そして最後に、この答えは何回変わりましたか?

私は家族を最も価値を置いていて、その答えは30年近く変わっていません。

家族以外で他に何ですか?

真実。そして、ええ、その答えは全く変わっていません。私は常に、世界がその人生を真実に基づいて行うことを望んできました。

そして、私は虚偽の伝播、または意図的な虚偽の伝播を、私たちができる最悪のことの一つだと感じます。

たとえその真実が不便であっても。

ええ、それは本当に重要な点だと思います。人々はしばしばネガティブなことを聞くのが好きではありません。だから、内臓的な反応はしばしば、悪いニュースを届けている人を単に撃つか、狙うことです。なぜなら、もし私があなたを信用を失わせるか、あなたを撃てば、私が好まないニュース、私を不快にさせているものに対処するのが簡単になるからです。

だから、私はあなたがしていることを称賛します。なぜなら、あなたは多くの撃たれることを受けるからです。なぜなら、あなたは不便な真実を届けているからです。一般的に人々は常には好まないでしょう。

しかし、また、あなたはその京ドルの賞を得る人々の能力をめちゃくちゃにしています。つまり、あなた自身やジェフ・ヒントン、私がショーで話した他の人々のような人々を信用を失わせるより意図的な試みがあるでしょう。

しかし、また、私が歴史を振り返ると、進歩は、たとえそれが不便であっても、真実の追求から来たと思います。そして実際、私が人生で価値を置く贅沢の多くは、不便なときに真実を追求するのに十分勇敢または大胆だった私の前に来た他の人々の結果です。

ですから、私はまさにその理由であなたのような人々を非常に尊重し、価値を置いています。

あなたはこの信じられない本、2020年に出版されたと思う「人間互換:人工知能と制御の問題」を書きました。

2019年です。ええ。2023年からの新版があります。

人々があなたの作品についてもっと情報を得たい場合、どこに行けばいいですか?あなたのウェブサイトに行きますか?この本を手に入れますか?彼らがもっと学ぶための最良の場所はどこですか?

ですから、この本は一般の人々のために書かれています。私はウェブで見つけやすいです。私のウェブページの情報は主に学者向けです。ですから、たくさんの技術研究論文などです。

私が言及したように、安全で倫理的なAIのための国際協会という組織があります。それにはウェブサイトがあります。残念ながらそれはひどい頭字語を持っています、IAISEA。私たちはそれをIAISEAと発音しますが、それはスペルミスしやすいです。しかし、ウェブでそれも見つけることができます。それにはリソースがあります。協会に参加できます。私たちの年次会議に来ることを申し込むことができます。

そして、ジェフ・ヒントン、ヨシュア・ベンジオのようなAI研究者だけでなく、ますます、ブライアン・クリスチャンのような作家もいると思います。例えば、「アラインメント問題」という良い本を持っています。

そして彼は外から見ています。彼はAI研究者ではありません。あるいは少なくとも、彼がそれを書いたとき、そうではありませんでした。彼は今なりつつあります。しかし、彼はこれらの質問に関与している多くの人々と話し、客観的な見解を与えようとします。ですから、それはかなり良い本だと思います。

私はそのすべてを以下にリンクします。誰でもそれらのリンクのいずれかをチェックし、もっと学びたい人のために。スチュアート・ラッセル教授、来て、この会話をする時間と労力を本当にありがとうございます。そして、公の会話を重要な方向に押していると思います。

あなたに感謝します。そして、それをしてくれることを称賛します。あなたと話すのは本当に楽しかったです。

私は1%に完全に夢中です。もしあなたが私を知っているなら、Behind the Diaryをフォローしているなら、それは私たちの舞台裏のチャンネルです。舞台で話すのを聞いたことがあるなら、ソーシャルメディアチャンネルで私をフォローしているなら、おそらく私が1%について話しているのを聞いたことがあるでしょう。

それは私の健康、私の会社、私の習慣形成、そしてその間のすべての定義する哲学です。小さなことへのこの強迫的な焦点です。なぜなら、時々人生で、私たちは本当に、本当に、本当に、本当に大きなことを目指すからです。前進する大きなステップ。登らなければならない山。

そして、ナヴァルが私にこのポッドキャストで言ったように、大きなものを目指すとき、心理的に意欲を失います。結局、それらを先延ばしにし、避けて、変化は決して起こりません。

ですから、それを念頭に置いて、1%について学んだすべてと、このポッドキャストで素晴らしいゲストをインタビューすることから学んだすべてで、私たちは1年ちょっと前に1%ダイアリーを作りました。そしてそれは売り切れました。

そして、それは私たちが作成したダイアリーで今までに受けた最高のフィードバックです。なぜなら、それがすることは、90日間にわたってこの素晴らしいプロセスを通してあなたを連れて行き、まったく新しい習慣を構築し、形成するのを助けることだからです。

ですから、もしあなた自身のために一つ手に入れたいか、あるチーム、会社、友人、兄弟、ダイアリー・オブ・ア・CEOを頻繁に聞く誰かのために一つ手に入れたいなら、すぐにthediaryceo.comに向かってください。そして、チームや大きなグループの人々のためにバンドルを手に入れたい場合、そこで問い合わせることができます。

それはthediary.comです。Heed. Heed.

コメント

タイトルとURLをコピーしました