ローマン・ヤンポルスキー博士:「2030年に残る職業はわずか5つだけ!」

雇用・失業・キャリア
この記事は約67分で読めます。

AI安全研究の専門家であるローマン・ヤンポルスキー博士が、人工知能の急速な発展がもたらす人類への脅威について詳しく解説している。博士は20年近くAI安全に取り組んできた経験から、現在開発されているAIシステムが制御不可能な超知能に発展し、2027年頃にはAGI(汎用人工知能)が実現され、99%の人間の職業が自動化される可能性があると予測している。また、我々がシミュレーション内で生活している可能性についても論じており、宗教的概念との類似性や、AI開発競争における倫理的課題、そして人類の生存戦略について幅広く議論している。

Dr. Roman Yampolskiy: These Are The Only 5 Jobs That Will Remain In 2030!
WARNING: AI could end humanity, and we’re completely unprepared. Dr. Roman Yampolskiy reveals how AI will take 99% of jo...
  1. AI安全研究20年の専門家が語る衝撃の未来予測
  2. 超知能開発への警告
  3. AI企業への倫理的疑問
  4. AI安全という概念の創設者
  5. パッチワークによる安全対策の限界
  6. 2027年の予測:AGIの到来
  7. 職業の未来:ポッドキャスターも自動化可能か
  8. 職業に対する人々の認知的不協和
  9. 大量失業時代の経済と意味の問題
  10. 反対論:人間の能力強化
  11. 2030年の予測:ヒューマノイドロボットの普及
  12. 2045年:技術的特異点の到来
  13. 産業革命との違い
  14. 個人的な平静と人類の危機
  15. AI安全反対論への応答
  16. プラグを抜く問題
  17. 諦めではなく個人的利益への訴え
  18. 技術の民主化への懸念
  19. 人類絶滅への経路
  20. AI開発の不透明性
  21. OpenAIとサム・アルトマンへの見解
  22. サム・アルトマンの動機と野心
  23. 2100年の世界:二つの極端な可能性
  24. 政府規制と執行の限界
  25. 行動への呼びかけと挑戦状
  26. AI安全組織の失敗パターン
  27. 1%のリスクでも受け入れられない
  28. 実験の倫理と同意の問題
  29. 個人ができることと制約
  30. 子育てと生き方の助言
  31. シミュレーション理論の根拠
  32. 遡及的配置とシミュレーションの論理
  33. 時間と宗教的類似性
  34. シミュレーション内での生活の意味
  35. 実験の倫理と意味の問題
  36. 長寿と永遠の生命
  37. 実用的な長寿戦略とビットコイン
  38. この会話を受けて変えるべきこと
  39. 宗教的信念とシミュレーション理論
  40. 直感的な神の記憶
  41. AI安全についての会話の影響
  42. 反対意見への対応
  43. 最終メッセージ
  44. 失業率の将来予測
  45. 友情への質問
  46. 感謝の言葉

AI安全研究20年の専門家が語る衝撃の未来予測

あなたは少なくとも20年間AI安全に取り組んでこられました。そうですね、私は安全なAIを作ることができると確信していました。しかし、それを詳しく調べれば調べるほど、それは実際には我々にはできないことだと気づいたんです。あなたはさまざまな時期について一連の予測をされています。では、2027年についてのあなたの予測は何でしょうか?

ローマン・ヤンポルスキー博士は、AI安全分野で世界的に認められた専門家であり、コンピュータサイエンスの准教授である。彼はAIの恐ろしい真実と人類を救うために我々が何をすべきかについて人々を教育している。2年後には、ほとんどの職業でほとんどの人間を置き換える能力が非常に速く到来するでしょう。つまり、5年後には、これまで見たことのないレベルの失業率の世界を見ることになります。10%ではなく、99%の話をしているのです。

そしてそれは超知能なしでのことです。全ての領域で全ての人間よりも賢いシステム。つまり、新しいAIを作ることにおいて我々よりも優秀になるでしょう。しかし、それよりも悪いことがあります。我々はそれらを安全にする方法を知らないのに、世界で最も賢い人々が超知能への競争に勝つために競い合っているのです。

しかし、サム・アルトマンのAIとの歩みについてあなたはどう思いますか?10年前、我々はAIをどのように行うべきかのガードレールを発表しましたよね?彼らはそれを一つ残らず違反し、より金持ちで強力になるために80億の命を賭けているのです。ですから、火星に行きたい人もいれば、宇宙を支配したい人もいるのでしょう。しかし、誰がそれを作るかは関係ありません。

超知能に切り替えた瞬間、我々はそれをひどく後悔することになるでしょう。そして2045年までには、ここからが興味深くなります。ローマン・ヤンポルスキー博士、シミュレーション理論について話しましょう。私は我々がその中にいると思います。そして、これについて多くの合意があり、シャットダウンしないために我々がそこで何をすべきかということがあります。

超知能開発への警告

まず、コメント欄でいつもメッセージを見かけますが、一部の方々は自分がまだ登録していないことに気づいていないようです。もしよろしければ、このチャンネルの登録者かどうか二重チェックしていただけると、非常にありがたいです。それはシンプルで、この番組を頻繁に見る誰もが、我々をここで助け、この番組を今の軌道に保つためにできる無料のことなのです。

ですから、登録しているかどうか二重チェックしてください。そして本当にありがとうございます。なぜなら奇妙な方法で、あなたは我々の歴史の一部であり、この旅路で我々と一緒にいるからです。それを感謝しています。では、ローマン・ヤンポルスキー博士、あなたが現在取り組んでいるミッションは何ですか?あなたが何かのミッションに取り組んでいることは私には明らかで、少なくとも20年近くこのミッションに取り組んでこられたと思います。

私は、今我々が作り出している超知能が全ての人を殺すことがないよう確実にしたいと願っています。その発言について文脈を教えてください。なぜならかなり衝撃的な発言だからです。

もちろんです。この10年で、実際に人工知能をより良くする方法を理解しました。計算量とデータを追加すれば、それはより賢くなることが分かったのです。そして今、世界で最も賢い人々、数十億ドル、全てが可能な限り最高の超知能を作り出すことに向かっています。残念ながら、これらのシステムをより能力の高いものにする方法は知っていますが、それらを安全にする方法、つまり我々が後悔することをしないよう確実にする方法を知らないのです。それが現在の技術の最前線なのです。

予測市場だけを見ても、高度なAIはいつ実現するでしょうか?タイムラインは非常に短く、予測市場によれば、トップラボのCEOによれば、2、3年です。そして同時に、これらのシステムが我々の好みに合致していることを確実にする方法を我々は知らないのです。つまり、我々はこの異星人の知性を作り出しているのです。

もし異星人が地球に来ていて、準備に3年あるとしたら、あなたは今パニックになっているでしょう。しかし、ほとんどの人はこれが起こっていることさえ気づいていません。

AI企業への倫理的疑問

反論の一部としては、これらは非常に賢い人々だということがあるかもしれません。多くのお金を持つ非常に大きな会社です。彼らには義務があり、道徳的義務もありますが、害をもたらさないよう確実にする法的義務もあります。ですから、きっと大丈夫でしょう。

彼らが持つ唯一の義務は投資家のためにお金を稼ぐことです。それが彼らの法的義務です。道徳的または倫理的義務はありません。また、彼らによれば、まだその方法を知らないとのことです。最先端の答えは「そこに到達したら理解するだろう」、または「AIがより高度なAIを制御するのを助けてくれるだろう」です。

それは狂気の沙汰です。確率の観点から、何か破滅的に間違ったことが起こる確率をどう思いますか?

誰も確実に何が起こるかを教えることはできません。しかし、もしあなたが担当していなければ、コントロールしていなければ、望む結果を得ることはできません。可能性の空間はほぼ無限大です。我々が気に入る結果の空間は微小です。

あなたは誰で、どのくらいこれに取り組んでいるのですか?私は訓練によってコンピュータ科学者です。コンピュータサイエンスとエンジニアリングの博士号を持っています。おそらく、当時はボット制御と軽く定義されたAI安全の仕事を15年前に始めました。

15年前。つまり、それが流行る前からAI安全に取り組んでいたということですね。その用語が存在する前から、私がAI安全という用語を作ったのです。

AI安全という概念の創設者

つまり、あなたはAI安全という用語の創設者なのですね。用語を、はい。分野ではありません。私が到達する前に素晴らしい仕事をした他の人々がいます。なぜ15年前にこれについて考えていたのですか?ほとんどの人がAI安全という用語について話し始めたのは、この2、3年のことだからです。

はい。それは非常に軽く、単なるセキュリティプロジェクトとして始まりました。私はポーカーボットを見ていて、ボットがどんどん良くなっていることに気づきました。そして、これを十分に前方に投影すれば、彼らは我々よりも良くなる、より賢く、より能力が高くなるだろうと。そしてそれは実現しました。彼らは平均的なプレイヤーよりもはるかに上手にポーカーをプレイしています。しかし、より一般的に、これは他の全ての領域、他の全てのサイバー資源でも起こるでしょう。

私は、AIが誰にとっても有益な技術であることを確実にしたかったのです。だから、AIをより安全にする作業を始めました。あなたのキャリアで「なんてことだ」と思った特定の瞬間はありましたか?

最初の5年間は少なくとも、この問題を解決することに取り組んでいました。これを実現できる、安全なAIを作れると確信していて、それが目標でした。しかし、それを詳しく調べれば調べるほど、その方程式の全ての構成要素が実際には我々にはできないことだと気づいたのです。そして、ズームインすればするほど、それはフラクタルのようです。入っていくと、10の問題を見つけ、そして100の問題を見つける。そして、それらは全て単に困難なだけでなく、解決不可能なのです。

この分野には「これを解決した、これについて心配する必要はない」というような実質的な仕事は存在しません。パッチはあります。我々が設置する小さな修正はありますが、すぐに人々はそれらを回避する方法を見つけます。我々が持つ安全メカニズムを破ったり、壊したりします。

AI能力の進歩が指数的、あるいは超指数的である一方で、AI安全の進歩は線形または一定です。ギャップが拡大しているのです。システムがどれほど能力が高いかと、我々がそれらをどれほど制御できるか、何をするか予測できるか、意思決定を説明できるかとの間のギャップが。

パッチワークによる安全対策の限界

これは非常に重要なポイントだと思います。なぜなら、我々は基本的に見つけた問題にパッチを当てているとおっしゃったからです。つまり、我々はこの核となる知性を開発し、それが何かをすることを止めるため、あるいはその予測不可能性や脅威の一部を示すことを止めるために、これらのAIを開発している企業は、その上にコードをプログラムして「汚い言葉を使うな、その赤い言葉を言うな、その悪いことをするな」と言っているのです。

その通りです。そして、その他の例を見ることもできます。人事マニュアルのように。我々は人間を雇っています。彼らは一般知能ですが、会社で振る舞ってほしい。そこで彼らはポリシーを持っています。セクハラ禁止、これ禁止、あれ禁止。しかし、十分に賢ければ、常に回避方法を見つけられます。つまり、まだ制限されていない別のサブドメインに行動を押し込んでいるだけなのです。

ここでいくつかの用語を定義すべきでしょう。チェスなどができる狭い知能があります。領域を越えて動作できる汎用人工知能があります。そして、全ての領域で全ての人間よりも賢い超知能があります。我々は今どこにいるのでしょうか?

これは非常に曖昧な境界ですよね?我々は確実に多くの優秀な狭いシステムを持っています。疑問の余地はありません。そして、それらはその狭い領域において超知能です。タンパク質折り畳みは狭いAIを使用して解決された問題で、その領域では全ての人間を上回っています。

AGIに関しては、もし今日我々が持っているものを20年前の科学者に見せたら、彼らは我々が本格的なAGIを持っていると確信するでしょう。我々は学習できるシステムを持っています。それらは数百の領域でパフォーマンスを発揮し、その多くで人間を上回っています。

つまり、弱いAGIを持っていると主張できます。まだ超知能は持っていません。特に科学と工学において、AIを完全に支配している優秀な人間がまだいます。しかし、そのギャップは非常に速く縮まっています。特に数学の領域で見ることができます。3年前、大規模言語モデルは基本的な代数ができませんでした。3桁の数字を掛け算することが挑戦でした。今では数学的証明を手伝い、数学オリンピック競技会で勝利し、ミレニアム問題、数学における最も困難な問題の解決に取り組んでいます。

3年で、人間以下のパフォーマンスからほとんどの数学者よりも優秀になるまでのギャップを埋めました。そして、科学と工学で同じプロセスが起こっているのを見ています。

2027年の予測:AGIの到来

あなたはさまざまな日付に対応する一連の予測をされています。私の前にそれらの日付があります。2027年についてのあなたの予測は何ですか?

我々はおそらく、予測市場とトップラボによって予測されているAGIを見ることになるでしょう。つまり、2027年までに汎用人工知能を手にするということです。

そして、それは世界を今とどのように違ったものにするでしょうか?

この「ドロップイン従業員」という概念があるなら、物理的・認知的な無料労働力、それも兆ドル規模のものがあります。ほとんどの仕事で人間を雇うことは意味をなしません。従業員がすることを、月20ドルのサブスクリプションまたは無料モデルで手に入れられるなら。まず、コンピュータ上のあらゆることが自動化されるでしょう。

次に、ヒューマノイドロボットは5年遅れくらいだと思います。つまり、5年後には全ての物理労働も自動化できます。我々が見ているのは、これまで見たことのないレベルの失業率の世界です。恐ろしい10%の失業率ではなく、99%の話をしているのです。残るのは、何らかの理由で他の人間にやってもらいたい仕事だけです。しかし、それ以外は完全に自動化できます。

それは実際に自動化されるという意味ではありません。多くの場合、技術は存在しますが展開されません。ビデオフォンは70年代に発明されました。iPhoneが登場するまで誰も持っていませんでした。ですから、仕事のある世界、今のような世界で、もっと多くの時間があるかもしれません。しかし、ほとんどの職業でほとんどの人間を置き換える能力は非常に速く到来するでしょう。

職業の未来:ポッドキャスターも自動化可能か

わかりました。では、それを詳しく掘り下げて、ストレステストしてみましょう。私のようなポッドキャスター。私のようなポッドキャスターは必要でしょうか?

あなたが何をするか見てみましょう。準備をします。質問をします。フォローアップ質問をします。そして、カメラ映りが良い。本当にありがとうございます。何ができるか見てみましょう。

今日の大規模言語モデルは、私が書いたものを全て簡単に読むことができます。はい。そして、非常に確かな理解を持ちます。私は、あなたが私の本を一冊残らず読んだとは思いません。そうでしょう?そのシステムはそれをするでしょう。あなたがこれまでに行った全てのポッドキャストで訓練することができます。つまり、あなたのスタイル、あなたが尋ねる質問のタイプを正確に知っているのです。

また、何が本当にうまくいったかの対応関係も見つけることができます。このタイプの質問が本当にビューを増やした。このタイプのトピックが非常に有望だった。つまり、あなたができるよりも良く最適化できると思います。なぜなら、あなたにはデータセットがないからです。もちろん、ビジュアルシミュレーションはこの時点で些細なことです。

つまり、数秒で私がここに座っているビデオを作ることができ、あなたが任意の人を任意のトピックでインタビューしているビデオを非常に効率的に生成できます。そして、肖像権の承諾などを得るだけです。

AGIがここにあるとして、2027年にはAGIが展開されるかどうかにかかわらず存在する可能性があるという場合、どのような種類の仕事があると思いますか?まず、あらゆる肉体労働の仕事を除外しましょう。AGIの世界で人間がまだ良くできると思う仕事はありますか?

これは私がよく人々に尋ねる質問です。AGIのある世界で、そして副作用としてすぐに超知能を手にすると思います。つまり、問題は本当に超知能のある世界で、全ての領域で全ての人間よりも優れていると定義される世界で、あなたは何を貢献できるかということです。

あなた自身について誰よりもよく知っています。アイスクリームがあなたにとってどんな味かを知っています。その知識に対してお金をもらえますか?誰かがそれに興味を持ちますか?多分そうではない。大きな市場ではありません。

人間を欲する仕事はあります。多分あなたは金持ちで、何らかの歴史的理由で人間の会計士が欲しい。お年寄りは伝統的なやり方を好みます。ウォーレン・バフェットはAIに切り替えることはないでしょう。彼は人間の会計士を使うでしょう。

しかし、それは市場の小さなサブセットです。今日、我々には中国で大量生産されるものとは対照的に、米国で手作りされた製品があり、一部の人々はそれらにより多くのお金を払いますが、それは小さなサブセットです。それはほぼフェチです。実用的な理由はありません。そして、コンピュータでできることは全てその技術を使って自動化できると思います。

職業に対する人々の認知的不協和

あなたがこれを言うとき、多くの反論を聞くに違いありません。なぜなら、人々は自分の仕事、キャリア、学位を取得したもの、10万ドルを投資したものが奪われると聞くとき、大きな精神的不快感を経験するからです。

だから、一部の人々の自然な反応は、いや、あなたは間違っている、という認知的不協和です。AIは創造的になれない。これではない。あれではない。私の仕事に興味を持つことは絶対にない。私は大丈夫だ。なぜなら、あなたはこれらの議論をいつも聞くからですよね?

本当に面白いです。私は人々に尋ねます。異なる職業の人々に尋ねます。Uberドライバーに「自動運転車について心配していますか?」と尋ねます。すると彼らは「いや、私がすることを誰もできない。私はニューヨークの街を知っている。どんなAIもできないように道案内ができる。私は安全だ」と言います。そして、それはあらゆる仕事について真実です。教授たちは私にこう言います。「ああ、私のように講義できる人はいない。これはとても特別だ」と。しかし、それが馬鹿げていることは理解できますよね。

我々には既にドライバーを置き換える自動運転車があります。それが可能かどうかはもはや問題ではありません。いつ解雇されるかという問題です。

つまり、私は昨日LAにいて、私の車は自分で運転します。車に乗って、行きたい場所を入力すると、ハンドルやブレーキペダルに触れることなく、1時間の運転でも一切の介入なしにAからBまで連れて行ってくれます。実際にはまだ駐車は私がしますが、それ以外は全く車を運転していません。そして明らかに、LAには今Waymoもあり、スマホで注文すると、運転手のいない車が現れて、行きたい場所まで連れて行ってくれます。

そうですね。運転が世界最大の職業だと思うのですが、正しければ。世界最大の職業だと確信しています。上位の職業の一つですね。今この会話を聞いているそれらの人々の何人かに、彼らの職業が運転である人たちに、あなたは何と言うでしょうか?彼らは人生で何をすべきでしょうか?何かに再訓練すべきでしょうか、それとも時間枠は?

これがパラダイムシフトです。これまで我々は常に、この仕事は自動化される、この他の仕事をするために再訓練しろ、と言ってきました。しかし、全ての仕事が自動化されると言っているなら、プランBはありません。再訓練はできません。コンピュータサイエンスを見てください。2年前、我々は人々にコーディングを学べと言いました。あなたはアーティストで、お金を稼げない。コーディングを学べと。

それから我々は、ああ、AIはコーディング方法を知っていて、向上していることに気づきました。プロンプトエンジニアになれ。AIのためにプロンプトを設計できる。素晴らしい仕事になる。4年制の学位を取得しろと。しかし、その後、AIは人間よりもはるかに他のAI用のプロンプトを設計するのが上手だということが分かりました。だからそれも消えました。

現在最も困難なことは、実用的な応用のためのAIエージェントを設計することです。1、2年後にはそれも同様に消えることを保証します。

つまり、この職業はこれを代わりに学ぶ必要がある、ということではないと思います。人類として我々全員が仕事を失うということだと思います。何をするのか?経済的に誰が我々にお金を払うのか?そして、意味の観点で何をするのか?週に余分な60、80時間で何をするのか?

大量失業時代の経済と意味の問題

あなたはこの角を回った先について考えてきましたね、少し。あなたの見解では、その角の先に何があるのでしょうか?

経済的な部分は簡単に思えます。多くの無料労働力を作り出せば、多くの無料富、豊富さ、現在あまり手頃でないものが非常に安くなり、全ての人に基本的ニーズを提供できます。一部の人々は、基本的ニーズを超えて提供できる、全ての人に非常に良い存在を提供できると言います。

困難な問題は、その全ての自由時間で何をするかです。多くの人にとって、仕事は人生の意味を与えるものです。だから、彼らは少し迷子になるでしょう。退職する人々や早期退職する人々で我々はそれを見ています。そして、仕事を嫌う多くの人々にとって、彼らは働かないことを非常に喜ぶでしょう。しかし今、一日中くつろいでいる人々がいます。社会はどうなるのでしょうか?それは犯罪率、妊娠率、あらゆる種類の問題にどのような影響を与えるのでしょうか?誰も考えません。政府は99%の失業に対処するためのプログラムを準備していません。

その世界はどのようなものだと思いますか?再び、ここで理解すべき非常に重要な部分は、その予測不可能性だと思います。我々よりも賢いシステムが何をするか予測できません。そして、そのポイントに到達する時点は、物理的特異点のアナロジーでしばしば特異点と呼ばれます。事象の地平線の向こうは見えません。

何が起こるかもしれないかについて私の考えを話すことはできますが、それは私の予測です。実際に何が起こるかではありません。なぜなら、はるかに賢いエージェントがこの世界に影響を与えることを予測する認知能力を私は持っていないからです。その後、SF小説を読みます。実際に何かをしている超知能は決してそこにありません。なぜなら誰も、そのレベルで信じられるSF小説を書くことができないからです。

彼らはDuneのようにAIを禁止するか、それについて書くことを避けるか、Star Warsのようです。本当に愚かなボットはいますが、超知能なものは何もありません。なぜなら、定義上、そのレベルで予測できないからです。超知能の定義により、それは自分自身の考えを持つからです。もしあなたが予測できるものなら、あなたは同じ知能レベルで動作していることになり、それがあなたよりも賢いという我々の前提に反します。

もし私が超知能とチェスをしていて、全ての手を予測できるなら、私はそのレベルでプレイしていることになります。私のフレンチブルドッグが私が正確に何を考え、何をしようとしているかを予測しようとするようなものです。それは良い認知的ギャップです。そして、彼は私が仕事に行く、帰ってくることは予測できますが、なぜポッドキャストをしているのかは理解できません。それは彼の世界のモデルから完全に外れています。

はい。彼は私が仕事に行くことさえ知りません。私が家を出ることは見ますが、どこに行くかは知りません。彼のために食べ物を買うために。

反対論:人間の能力強化

ここでのあなた自身の視点に対する最も説得力のある反論は何ですか?高度な技術のために失業にならない、理解と推測において、そして権力と制御において人間とフレンチブルドッグの格差がないということです。

一部の人々は、ハードウェアとの組み合わせによって人間の心を強化できると考えています。Neuralinkのようなものや、より賢い人間を作る遺伝子再工学によってです。はい、もう少し知能を与えるかもしれません。生物学的形態で、シリコン形態と競合できるとは思いません。シリコン基板は知能にとってはるかに能力があります。より速く、より弾力性があり、多くの方法でよりエネルギー効率的です。コンピュータが作られているものと脳とを比較すると。

つまり、生物学を改善するだけでは追いつけないと思います。一部の人々は、そして、これは非常に推測的ですが、我々の心をコンピュータにアップロードできるかもしれないと考えています。脳をスキャンし、脳を接続し、コンピュータ上で実行されるシミュレーションを持ち、それをスピードアップし、より多くの能力を与えることができます。しかし、私にとってそれはもはやあなたが存在しないように感じられます。

我々は単に異なる手段でソフトウェアを作っただけで、今は生物学に基づくAIと他の形態の訓練に基づくAIがあります。進化アルゴリズムを持つことができます。AGIに到達する多くの道筋があります。しかし最終的に、それらのどれも人間ではありません。

2030年の予測:ヒューマノイドロボットの普及

ここに別の日付があります、2030年です。2030年についてのあなたの予測は何ですか?世界はどのようになっているでしょうか?

我々はおそらく、配管工を含む全ての領域で人間と競争するのに十分な柔軟性、器用さを持つヒューマノイドロボットを持つでしょう。人工配管工を作ることができます。配管工ではないもの、それは人間の雇用の最後の砦のように感じられました。

つまり、今から5年後の2030年、ヒューマノイドロボット。Teslaを含む多くの主要企業がヒューマノイドロボットを光速で開発しており、ますます効果的になっています。そして、これらのヒューマノイドロボットは、オムレツを作ったり、人間ができることを何でもするために物理的空間を移動できるようになりますが、明らかにAIにも接続されています。つまり、考え、話すことができますよね?彼らはAIによってコントロールされています。常にネットワークに接続されています。つまり、彼らは多くの方法で既に支配しています。

ヒューマノイドロボットが機能的で効果的になったとき、我々の世界は著しく異なって見えるでしょう。なぜなら、知能と物理的能力の組み合わせは本当に、我々人間にはあまり余地を残さないからです。あまりありません。つまり、今日、インターネット経由で知能を持っているなら、人間を雇ってあなたのために動いてもらうことができます。ビットコインで支払うことができます。つまり、直接コントロールしているわけではないが、身体を持つことができます。ですから、物理的身体の直接制御を追加することは大きなゲームチェンジャーではありません。

知能こそが重要なところです。重要な構成要素は確実により高い最適化能力、問題解決能力、人間には見えないパターンを見つける能力です。

2045年:技術的特異点の到来

そして2045年までには、今から20年後、私は世界がさらに見えると推測します。まだ存在しているなら、まだ存在しているなら、Ray Kurzweilは、それが特異点の年だと予測しています。進歩が非常に速くなる年です。科学と工学の仕事をするこのAIが、我々がもはや追いつけないほど速く改善を行う。それが特異点の定義です。

我々が見る、理解する、予測できない点を越えた点、知能自体や世界で何が起こっているか、開発されている技術を理解し、予測することができない。現在、iPhoneを持っているなら、来年新しいものが出て、それが少し良いカメラを持っていることを理解して楽しみにできます。今、この電話を研究開発するプロセスが自動化されることを想像してください。

それが6ヶ月ごと、3ヶ月ごと、毎月、週、日、時間、分、秒ごとに起こります。1日で30回のiPhoneの反復に追いつくことはできません。それがどんな能力を持っているか、適切なコントロールが何かを理解できません。それはあなたから逃れてしまいます。

現在、AI研究者が最先端に追いつくことは困難です。あなたとこのインタビューをしている間に、新しいモデルが出て、私はもはや最先端が何かを知りません。毎日、全体的知識の割合として、私は馬鹿になっています。読み続けているので、まだより多く知っているかもしれません。しかし、全体的知識の割合として、我々は皆馬鹿になっています。

そして、それを極値に持っていくと、あなたの周りの世界についてゼロの知識、ゼロの理解を持つことになります。

産業革命との違い

この結果に対する議論の一部は、産業革命のような他の技術を見ると、人々は単に新しい働き方を見つけ、当時は想像もできなかった新しいキャリアが作り出されたということです。超知能の世界でそれにどう応答しますか?

それはパラダイムシフトです。我々は常に、何らかの仕事をより効率的に行うことを可能にする新しいツールを持っていました。10人の労働者の代わりに、2人の労働者で済み、8人の労働者は新しい仕事を見つけなければなりませんでした。そして、別の仕事がありました。今、あなたはそれらの労働者を監督するか、何か素晴らしいことをすることができます。

メタ発明を作っているなら、知能を発明しているのです。労働者、エージェントを発明しているのです。すると、そのエージェントを新しい仕事に適用することができます。自動化できない仕事は存在しません。それは以前は起こったことがありませんでした。

我々が以前持っていた全ての発明は、何かをするためのツールのようなものでした。火を発明しました。巨大なゲームチェンジャーです。しかし、それで終わりです。火で止まります。車輪を発明しました。同じ考えです。巨大な影響。しかし車輪自体は発明者ではありません。

ここで我々は人間の心の代替品を発明しています。新しい発明をする能力のある新しい発明者。それは我々が作らなければならない最後の発明です。その時点でそれが引き継ぎ、科学研究、倫理研究、道徳さえも行うプロセス、全てがその時点で自動化されます。

個人的な平静と人類の危機

夜よく眠れますか?本当によく。あなたが人生の最後の15、20年をAI安全に費やしてきたにもかかわらず、それは突然、5年前には誰も予測できなかった方法で我々の間にあります。

我々の間にあると言うとき、私が本当に意味しているのは、超知能により速く到達することに今集中している資金と才能の量が、それをより避けられず、我々が可能だと想像できたよりもより早く感じさせているということです。

我々人間には、本当に悪い結果や、我々が予防できないことについて考えないという内蔵のバイアスがあります。我々全員が死にます。あなたの子供たちも死にます、あなたの両親も死にます、みんな死にますが、あなたはまだよく眠ります。まだ一日を過ごします。95歳の人でさえ、まだゲームをして、ゴルフをして、何やらやっています。なぜなら、我々には最悪の結果について考えない能力があるからです。特に実際に結果を変更できない場合には。

つまり、これに使われているのと同じインフラです。はい、人類レベルの死のような出来事があります。我々はおそらくそれに近いところに起こっていますが、それについて何かできない限り、私は自分の人生を楽しみ続けることができます。

実際、限られた時間が残されていることを知っていることは、より良い人生を送るためのより多くの理由を与えるかもしれません。何も無駄にできません。

そして、それは進化のサバイバル特性だと思います。なぜなら、心配ばかりしていた私の祖先は、生き残るのに十分な赤ちゃんを作り、狩りをする時間を費やさなかったでしょう。自殺念慮。世界がどれほど恐ろしいかを本当に考え始める人々は、通常かなり早く逃げ出します。

AI安全反対論への応答

あなたが共同執筆したこの論文で、人々がAI安全の重要性に対して行う主要な議論を分析していますね。そこでの議論の一つは、今もっと大きな重要性を持つ他のことがあるということです。世界大戦かもしれません。核抑制かもしれません。他のことかもしれません。政府や私のようなポッドキャスターが話すべき、より重要な他のことがあるという。その議論に対するあなたの反論は何ですか?

超知能はメタソリューションです。我々が超知能を正しく理解すれば、それは気候変動で我々を助けるでしょう。戦争で我々を助けるでしょう。他の全ての実存的リスクを解決できます。我々がそれを正しく理解しなければ、それが支配します。

気候変動が我々を生きたまま沸騰させるのに100年かかり、超知能が5年で全ての人を殺すなら、気候変動について心配する必要はありません。つまり、どちらにしても、それは私のためにそれを解決するか、問題ではない。

つまり、これが最も重要な取り組むべきことだと思いますか?疑問なく、これを正しく理解することより重要なことはありません。そして、みんながそれを言うことを知っています。

英語教授のクラスを取ると、彼は「これはあなたが今まで取る最も重要なクラスです」と言いますが、これとの違いはメタレベルの違いで見ることができます。その論文の別の議論は、我々が皆コントロールしており、危険はAIではない、この特定の議論は、AIは単なるツールであり、人間が危険を提示する真の行為者であり、我々は単にそれをオフにすることで常にコントロールを維持できるということです。我々は単にプラグを抜けばいいのではないでしょうか?

プラグを抜く問題

私がAIについてショーで会話をするたびに、誰かが「プラグを抜けばいいのではないか」と言うのを見ます。はい、私はポッドキャストを作るたびにそれらのコメントを得ます。そして、私は常にその人と連絡を取って、「これは素晴らしい。私はそれを考えたことがなかった。我々は一緒に論文を書き、ノーベル賞を得るつもりです。これは、やりましょう」と言いたくなります。

なぜなら、それはとても馬鹿げているからです。ウイルスをオフにできますか?コンピュータウイルスがあります。あなたはそれが好きではない。オフにしてください。Bitcoinはどうですか?Bitcoinネットワークをオフにしてください。どうぞ。

私は待ちます。これは馬鹿げています。これらは分散システムです。それらをオフにすることはできません。そして、その上、それらはあなたよりも賢いです。複数のバックアップを作りました。あなたが何をしようとしているかを予測しました。あなたがそれらをオフにする前に、それらはあなたをオフにするでしょう。

我々がコントロールしているという考えは、超知能以前のレベルにのみ適用されます。基本的に我々が今日持っているもの、今日AIツールを持つ人間は危険です。彼らはハッカー、悪意のある行為者になり得ます。絶対に。しかし、超知能がより賢くなり、支配した瞬間、彼らはもはやその方程式の重要な部分ではありません。

私が心配しているのは、追加の悪意のあるペイロードを追加するかもしれない人間ではなく、より高い知能です。しかし最終的にはまだそれをコントロールしていません。

諦めではなく個人的利益への訴え

その論文で見た次の議論に従うのは魅力的です。基本的に、聞いてください、これは避けられないと言っています。つまり、これに対して戦う意味はありません。なぜなら、ここには本当に希望がないからです。だから、おそらく試すことさえ諦めて、うまくいくだろうと信じるべきです。なぜなら、あなたが言ったすべてが本当に避けられないように聞こえるからです。

そして、中国がそれに取り組んでいる、プーチンが秘密の部門を持っているに違いない、イランが少しずつやっているに違いない、あらゆるヨーロッパの国がAIで先を行こうとしている、米国が先導している。だから、それは避けられません。だから、おそらく信仰を持って祈るべきです。

祈りは常に良いことですが、インセンティブが重要です。この人々を駆り立てているものを見れば、そうです、お金は重要です。だから、その分野には多くのお金があり、誰もがそこにいて、この技術を開発しようとしています。

しかし、彼らが本当に議論を理解するなら、あなたが死ぬことを理解するなら。どれだけのお金もあなたには役に立たない。そのときインセンティブが変わります。彼らは死にたくないでしょう。彼らの多くは若い人々、金持ちです。人生が全て前にあります。私は、彼らが高度な超知能を構築しないで、特定の問題を解決する狭いAIツールに集中する方が良いと思います。

わかりました、私の会社は乳癌を治します。それだけです。我々は数十億ドルを稼ぎます。みんなが幸せです。みんなが利益を得ます。それは勝利です。我々は今日まだコントロールしています。それが終わるまで終わっていません。我々は一般的超知能を構築しないと決定できます。

つまり、米国はそれに対して十分な熱意を呼び起こすことができるかもしれませんが、米国が一般的超知能を構築しないなら、中国が大きな優位性を持つことになりますよね。現在、それらのレベルでは、より高度なAIを持つ者がより高度な軍事力を持つことは疑問ありません。我々は既存の紛争でそれを見ています。

しかし、超知能、制御されていない超知能に切り替えた瞬間、誰がそれを構築するか、我々か彼らかは関係ありません。そして、もし彼らがこの議論を理解するなら、彼らもそれを構築しないでしょう。それは両端における相互確証破壊です。

技術の民主化への懸念

この技術は、核兵器とは異なりますか?核兵器には膨大な投資が必要で、ウランを濃縮しなければならず、核兵器を構築するのに潜在的に数十億ドルが必要です。しかし、この技術は超知能に到達するためにはるかに安価である、あるいは少なくとも安価になるように感じられます。数十億ドルの計算や電力を必要とせずに、何らかの男、何らかのスタートアップが2年後に超知能を構築できる可能性があるのでしょうか?

それは良いポイントです。毎年、十分に大きなモデルを訓練することがより安く、より安くなっています。今日、超知能を構築するのに1兆ドルかかるなら、来年には1000億ドル、その次というように。ある時点で、ラップトップの男がそれをできます。

しかし、手頃になるまで4年待ちたくない。だからこそ多くのお金が注がれています。誰かが今年そこに到着して、幸運にも全ての賞を軽円錐レベルで獲得したいのです。その点で、それらはマンハッタンプロジェクトのような非常に高価なプロジェクトです。これは核爆弾プロジェクトでした。

2つの技術の違いは、核兵器はまだツールだということです。ある独裁者、ある国、誰かがそれらを使用し、展開することを決定しなければなりません。一方、超知能はツールではありません。エージェントです。それは自分自身の決定を下し、誰もそれをコントロールしていません。この独裁者を取り除いて、超知能が安全になるということはできません。それが私にとって根本的な違いです。

しかし、技術が段階的に安価になると言っているなら、これはムーアの法則だと思いますが、技術が安価になる、そのとき、ある男が監視や規制や従業員などなしにラップトップで超知能を作成できる未来があります。

そうです、だからこそ多くの人が監視惑星のようなものを構築することを提案しています。誰が何をしているかを監視し、人々がそれをすることを防ごうとしています。実現可能だと思いますか?いいえ。ある時点で、それは非常に手頃で些細なことになり、ただ起こるでしょう。

しかし、この時点で我々はより多くの時間を得ようとしています。5年後に起こることは望まない。50年後に起こることを望みます。

つまり、あまり希望的ではありませんね。あなたの年齢によります。つまり、将来人々が今日必要な資源なしに超知能を作ることができると信じているなら、それは単なる時間の問題です。

はい。しかし、他の多くの技術についても同じことが言えるでしょう。我々は合成生物学で非常に良くなっており、今日、生物学の学士号を持つ誰かがおそらく新しいウイルスを作ることができます。これも安くなるでしょう。そのような他の技術も。

つまり、我々は、技術的突破口が最後のものであることを確実にすることが非常に困難な点に近づいています。本質的に多くの方向で、世界を破壊するために必要な資源、知能をより簡単にするこのパターンがあります。500年前を見ると、全ての資源を持つ最悪の独裁者でも数百万人を殺すことができました。世界を破壊することはできませんでした。今、我々は核兵器があり、惑星全体を何度も爆破できます。

合成生物学で、我々はCOVIDで見ましたが、数十億人に影響を与える組み合わせウイルスを非常に簡単に作ることができます。そして、それら全てが近い将来、行うのがより簡単になっています。

人類絶滅への経路

あなたは絶滅が真のリスク、人類の絶滅が真のリスクだと話しています。あなたが最も可能性が高いと思う人類絶滅への全ての経路のうち、主要な経路は何ですか?なぜなら、あなたがこれらのAIツールの事前展開について話しているからです。誰かがモデルを設計するときや、エージェントが世界にリリースされて誰かがそれをハッキングして変更し、悪意を持つように再プログラムした後の展開後の問題など。これら全ての人類絶滅への潜在的経路のうち、どれが最も高い確率だと思いますか?

私は自分で予測できるもののことしか話すことができます。だから、超知能に到着する前でも、誰かが非常に高度な生物学的ツールを作り、新しいウイルスを作り、そのウイルスが全ての人またはほとんどの人を感染させることを想像できます。経路を理解できます。それを言うことができます。

つまり、それにズームインすると、AIを使ってウイルスを作り、それをリリースするということですね。そして、それは意図的でしょうか?多くのサイコパス、多くのテロリスト、多くの終末論的カルトがいます。我々は歴史的にも見てきました。彼らは可能な限り多くの人々を殺そうとします。彼らは通常失敗します。数十万人を殺します。しかし、数百万、数十億人を殺す技術を得るなら、彼らは喜んでそれをするでしょう。

私が強調しようとしているポイントは、私が思いつけることは問題ではないということです。私はここで敗北させようとしている悪意のある行為者ではありません。完全に新しい方法でそれを行うことができる超知能です。

再び、あなたはあなたの犬の例を持ち出しました。あなたの犬は、あなたがそれを連れ出すことができる全ての方法を理解することはできません。それはあなたが死ぬまで噛み付くことか何かについて考えることができるかもしれませんが、それだけです。一方、あなたは無限の資源供給を持っています。

だから、もし私があなたの犬に正確にあなたがどのようにそれを連れ出すつもりかを尋ねたら、それは意味のある答えを与えないでしょう。それは噛み付くことについて話すことができます。そして、これが我々が知っていることです。我々はウイルスを知っています。ウイルスを経験しました。それらについて話すことができます。

しかし、新しい物理学研究を行うことができるAIシステムが思いつけることは、私を超えています。

AI開発の不透明性

ほとんどの人が理解していないことの一つは、これらのAIが実際にどのように働いているかについて、我々がいかに少ししか理解していないかということです。なぜなら、コンピュータでは、我々はある種コンピュータがどのように働くかを理解していると思うからです。我々は、それがこれをして、その後これをして、コードで動作していることを知っています。しかし、あなたの仕事を読むことから、あなたはそれをブラックボックスと表現しています。我々は実際には…

ChatGPTやAIのようなものの文脈で、あなたはそのツールを構築した人々が実際にはそこで何が起こっているかを知らないと私に言っているのですか?

その通りです。これらのシステムを作っている人々でさえ、彼らの製品で実験を実行して、それが何ができるかを学ばなければなりません。だから、彼らは全てのデータを与えることによってそれを訓練します。インターネットテキスト全てと言いましょう。彼らはそのテキストのパターンを学習するために多くのコンピュータでそれを実行し、その後、そのモデルで実験を始めます。

ああ、あなたはフランス語を話しますか?ああ、数学ができますか?ああ、今私に嘘をついていますか?だから、それを訓練するのに1年かかるかもしれませんし、その後、それが何ができるか、いくらかの安全オーバーヘッドについて基本的なことを得るのに6ヶ月かかります。

しかし、我々はまだ古いモデルで新しい能力を発見します。異なる方法で質問をすれば、それはより賢くなります。だから、これはもはや最初の50年がそうであったようなエンジニアリングではありません。誰かが知識エンジニアだった場所で、特定のことをするためにエキスパートシステムAIをプログラムしていました。それは科学です。

我々はこの人工物を作り、それを育てています。それは異星人の植物のようで、その後我々はそれが何をしているかを見るために研究します。そして、植物と同じように、我々は生物学について100%正確な知識を持っていません。ここでも完全な知識を持っていません。いくつかのパターンを知っています。より多くの計算を追加すればほとんどの場合より賢くなることを知っていますが、一連の入力が与えられたときの結果が何になるかを正確に誰も教えることはできません。

OpenAIとサム・アルトマンへの見解

OpenAIとサム・アルトマンについて、そして彼らが行っていることについてどう思いますか?そして明らかに、共同創設者の一人であったイリヤについてご存知でしょう。イリヤが会社を去り、Super Intelligent Safetyという新会社を始めました。AI安全では十分に挑戦的ではなかったと判断し、難しい問題に直接飛び込むことにしたのです。

外部の観察者として、人々がOpenAIを離れて超知能安全会社を始めるのを見るとき、その状況についてあなたはどう読みますか?

サムと働いた多くの人々が、彼が彼らに対して最も直接的な人ではない、つまり正直でないかもしれないと言い、安全に関する彼の見解について懸念を持っていました。それが一部です。だから、彼らはより多くのコントロール、安全により多くの集中を望んでいました。

しかし、また、その会社を離れて新しい会社を始める人は誰でも、製品もなく、顧客もないのに、ただそれを始めただけで200億ドルの評価を得られるようです。だから、もしできる人にとって、何十億ドルも稼ぎたいなら、それをするだけという非常に合理的なことのようです。だから、それができる誰にとっても多くの離職があることは驚きではありません。

彼に個人的に会うと、彼は非常に親切で、とても賢く、完璧なパブリックインターフェースです。彼が上院で証言するのを見ると、上院議員に正しいことを言います。投資家と話すのを見ると、彼らは正しいメッセージを受け取ります。

しかし、彼を個人的に知っている人々が言っていることを見ると、おそらくそのような影響のあるプロジェクトをコントロールする適切な人物ではないでしょう。

なぜですか?彼は安全を二番目に置いています。この超知能への競争に勝つこと、ライトコーンの宇宙を創造し、支配する人物であることに次いで。

サム・アルトマンの動機と野心

あなたは彼が、社会への結果よりも、影響力のある人物であり、注目すべきことをしたという遺産によって駆動されていると疑いますか?彼の他のスタートアップがWorldcoinであることは興味深いです。これは基本的にユニバーサルベーシックインカムを作成するプラットフォーム、つまり、人々がもう仕事を持たない世界で私たちに収入を与えるプラットフォームです。

つまり、一方では AI 会社を作り、もう一方では人々が雇用を持たないことに備えた会社を作っているのです。

また、他の特性も持っています。全ての人の生体認証を追跡します。世界経済、世界の富をあなたが担当し続けます。彼らはワールドコインの大部分を保持しています。だから、世界支配との統合は非常に合理的な部分だと思います。超知能システムを持ち、お金をコントロールすれば、うまくやっていけます。

なぜ誰かが世界支配を望むのでしょうか?人々は異なるレベルの野心を持っています。それから、あなたは数十億ドルと名声を持つ非常に若い人です。より野心的なプロジェクトを探し始めます。火星に行きたい人もいます。他の人は宇宙のライトコーンをコントロールしたい。

何とおっしゃいましたか?宇宙のライトコーン。ライトコーン。この地点から光が到達できる宇宙のあらゆる部分。つまり、アクセス可能な全てを掴んで、あなたのコントロール下に持ってきたいということです。

サム・アルトマンが宇宙のあらゆる部分をコントロールしたいと思っていると思いますか?私はそうかもしれないと疑っています。はい。それは、全ての人間を幸せにする非常に有益な技術であることの副作用を彼が望まないという意味ではありません。幸せな人間はコントロールに良いです。

2100年の世界:二つの極端な可能性

もし2100年の世界がどのようになるかを推測しなければならないとしたら、それは人間の存在がない、または私たちのような誰かには全く理解できないものである、そのどちらかの極端です。

つまり、人間がいないか、世界が破壊されているか、または私が想像できないほど違っているかのどちらかです。

この船をより確実な肯定的結果に向かわせるために、この時点で何ができるでしょうか?まだできることがあるのか、それとも手遅れなのでしょうか?

私は個人的な自己利益を信じています。この技術を作ること、このテクノロジーのために働くこれらの会社で働くことが、彼らにとって個人的に本当に悪いことだと人々が理解すれば、彼らはそれをしないでしょう。

許可もなく、同意もなく実験している80億人を忘れるだけでなく、あなたは結果に満足しないでしょう。全ての人にそれがデフォルトであり、私だけが言っているのではないことを理解してもらうことができれば。ジェフ・ヒントン、ノーベル賞受賞者、機械学習分野全体の創設者が同じことを言っています。ベンジオ、その他数十人、トップ学者たち。

我々にはAIの危険についての声明があり、数千人の学者、コンピュータサイエンティストによって署名されています。これは基本的に我々が現在考えていることです。そして、我々はそれを普遍的にする必要があります。誰もこれに反対すべきではありません。そうすれば、我々は実際にどの技術を構築するかについて良い決定を下すかもしれません。

それは人類の長期的安全を保証しませんが、可能な限り早く最悪の結果に到達しようとしないことを意味します。

政府規制と執行の限界

それが可能だということについて希望を持っていますか?やってみたいと思います。やってみるしか選択肢がありません。そして、何が起こる必要があり、誰が行動する必要がありますか?政府の立法でしょうか?

残念ながら、それを違法にすることは十分ではないと思います。異なる司法管轄区があります。抜け穴があります。そして、もし誰かがそれをした場合、あなたは何をするつもりですか?人類を破壊したことで彼らに罰金を科すのですか?それに対して非常に厳しい罰金?何をするつもりですか?それは執行可能ではありません。

もし彼らが実際にそれを作ったなら、今度は超知能が担当です。だから、我々が持つ司法制度は影響力がありません。そして、我々が持つ全ての罰は人間を罰するために設計されています。刑務所、死刑はAIには適用されません。

行動への呼びかけと挑戦状

私がこれらの会話をするときに抱える問題は、何かがうまくいくという希望を持って立ち去るという感覚を持たないことです。つまり、ここで何が起こるかを軌道修正できる明確な行動のセットを持って立ち去るという感覚を持たないのです。では、私は何をすべきでしょうか?家に座ってこれを聞いている人は何をすべきでしょうか?

あなたはこの技術を構築している多くの人と話をします。彼らが不可能だと主張するそれらのことのいくつかを正確に説明するよう彼らに尋ねてください。彼らがどこに向かうかに到達する前に、どのようにそれを解決したか、解決するつもりかを。

私はサム・アルトマンが私と話したがるとは思いません。分からないですね。彼は多くのポッドキャストに出演しているようです。もしかしたら出演するかもしれません。彼はオンラインに行きたがります。なぜそうなのか疑問に思います。彼に私のインタビューを受けてもらいたいのですが、彼は望まないと思います。私に彼をインタビューしてもらいたくないと思います。

オープンチャレンジがあります。お金がインセンティブではないかもしれませんが、そのような人々を引きつけるものは何でも。超知能をコントロールし、安全にすることが可能だとあなたを説得できる人が賞を得ます。彼らはあなたのショーに来て、彼らの主張を証明します。誰でも。

もし数年後に誰も賞を請求しないか、挑戦さえ受け入れないなら、多分我々には解決策を持つ人がいないのです。我々には再び数十億、数十億ドルで評価され、安全な超知能に取り組んでいる会社があります。我々はまだ彼らのアウトプットを見ていません。

AI安全組織の失敗パターン

イリヤとも話したいですね。彼は安全な超知能に取り組んでいることを知っているからです。パターンにも注目してください。AI安全組織や会社内部門の歴史を見ると、彼らは通常うまく、非常に野心的に始まり、その後失敗して消えます。

OpenAIには超知能アライメントチームがありました。彼らがそれを発表した日に、4年で解決すると言ったと思います。約半年後に、彼らはチームをキャンセルしました。そして、同様の例が数十あります。

超知能の完璧な安全、それが改善し続け、変化し、人々と相互作用するときの永続的な安全を作ることは、そこに到達することは決してありません。それは不可能です。コンピュータサイエンスの困難な問題とNP完全問題と不可能な問題との間には大きな違いがあります。そして、超知能の制御、無期限の制御はそのような問題だと思います。

なら、不可能なら挑戦する意味は何でしょうか?私は、それが不可能であることを証明しようとしています。ひとたび我々が何かが不可能であることを確立すれば、それができると主張して資金を探している人は少なくなるでしょう。多くの人が「20億ドルを私に与えてください。2年であなたのためにそれを解決します」と言っています。あなたはしないと思います。

しかし、人々はそれに向かって努力することを止めないでしょう。だから、それを安全にする試みがなく、それに向かって努力する人がますます増えているなら、それは避けられません。

しかし、それは我々が何をするかを変えます。それを正しくすることが不可能だとわかれば、安全にすることが不可能だとわかれば、可能な限り早く構築するというこの直接的な道は自殺任務になります。願わくは、より少ない人々がそれを追求し、他の方向に進むかもしれません。

再び、私は科学者です。私はエンジニアです。私はAIを愛しています。私は技術を愛しています。私はそれをいつも使います。役に立つツールを構築してください。エージェントを構築することを止めてください。一般的なものではなく、狭い超知能を構築してください。

私は、あなたが数十億ドルを稼ぐべきではないと言っているのではありません。私は数十億ドルを愛しています。しかし、あなた自身も含めて、誰も殺さないでください。

1%のリスクでも受け入れられない

彼らはそうするつもりはないと思っていません。それなら、なぜかを教えてください。直感について聞いています。後で解決するということについて聞いています。科学的用語で具体的に私に話してください。超知能をどのようにコントロールするつもりかを説明する査読済みの論文を発表してください。

人類絶滅の1%の可能性でもあったら、何かをすることは奇妙です。もし誰かが車に乗ったら1%の可能性で死ぬかもしれないと言われたら、私は車に乗らないでしょう。この瞬間、このカップにある液体を飲んだら1%の可能性で死ぬかもしれないと言われたら、私はその液体を飲まないでしょう。生き残れば10億ドルもらえても。

99%の可能性で10億ドルを得る。1%の可能性で死ぬ。私は飲まないでしょう。チャンスを取らないでしょう。

それよりも悪いです。あなただけが死ぬのではない。みんなが死ぬのです。はい。はい。今、我々があなたに任意のオッズでそれを飲ませることを許すでしょうか?それは我々が決めることです。あなたはそのような選択を我々のために行う権利はありません。

実験の倫理と同意の問題

人間の被験者から同意を得るには、彼らが何に同意しているかを理解する必要があります。もしそれらのシステムが説明不可能、予測不可能なら、どのように同意できるでしょうか?彼らは何に同意しているかを知りません。だから、定義により、同意を得ることは不可能です。だから、この実験は倫理的に実行されることは決してありません。

定義により、彼らは人間の被験者に対して非倫理的な実験を行っているのです。

人々は抗議すべきだと思いますか?抗議している人々がいます。Stop AI、Pause AIがあります。彼らはOpenAIのオフィスを封鎖します。週単位、月単位でそれを行い、かなり多くの行動があり、新しい人々を募集しています。

より多くの人々が抗議すべきだと思いますか?それが効果的な解決策だと思いますか?人口の大多数が参加する十分に大きな規模に拡大できれば、影響力があるでしょう。現在の数からそこまで拡大できるかはわかりません。しかし、平和的かつ合法的にあらゆることを試みるすべての人を支援します。

個人ができることと制約

家にいる人にとって、何をすべきでしょうか?彼らは無力感を感じたくないのです。誰も無力感を感じたくありません。だから、我々が尋ねている規模の時間軸によります。今年、あなたの子供が大学に行く、どの専攻を選ぶか?そもそも大学に行くべきか?転職すべきか?特定の産業に入るべきか?それらの質問には答えることができます。即座の未来について話すことができます。

これが作られている5年後の平均的な人にとって何をすべきか?あまりありません。第二次世界大戦、核、ホロコースト、そのようなことに影響を与えることができないのと同じです。それについて誰かが彼らに尋ねることはありません。

今日、この運動の一部になりたいなら、はい、PAUSE AI、Stop AIに参加してください。これらは現在、これらの個人に影響を与えるために民主的力を持ち込む勢いを構築しようとしている組織です。

子育てと生き方の助言

近い将来、興味深い戦略はありますか?私は家族について、つまり、あなたには子供がいますよね?私の知る限り3人の子供がいます。はい。3人の子供です。この見えてくる世界でどのように子育てについて考えていますか?彼らに何を言うべきか、どのような助言を与えるべきか、何を学ぶべきかについてどのように考えていますか?

この領域外の一般的なアドバイスがあります。毎日を最後の日のように生きるべきです。残り3年でも30年でも、最高の人生を送ったなら、それは関係なく良いアドバイスです。

だから、あまりにも長く嫌いなことをしないようにしてください。興味深いことをしてください。影響力のあることをしてください。そのすべてを人々を助けながらできるなら、そうしてください。

シミュレーション理論の根拠

シミュレーション理論は興味深い隣接する主題です。コンピュータが加速し、より知的になり、AIでこれまで想像もできなかったことができるようになり、バーチャルリアリティで作れる世界を想像できるからです。

Googleが最近リリースしたものは何と呼ばれていましたか?AIワールドのようなもの。はい。そして、世界を生成できます。世界を移動できます。人々が見るために画面に表示します。Googleは、簡単なプロンプトで実際に3次元世界を作ることができる技術をリリースしました。その後、その世界を通って移動でき、その世界には記憶があります。

つまり、世界で壁に絵を描き、振り返ってから見返すと、壁がそれを持続している。はい、持続的です。そしてそれを見たとき、私は「なんてことだ、これはここで見ているすべてと区別がつかないシミュレーションを作ることができることの麓だ」と思いました。そうですね。

だから私は我々がその中にいると思います。それがまさにAIが人間レベルエージェント、人間レベルエージェントを作るレベルに到達している理由であり、バーチャルリアリティが我々のものと区別がつかないレベルに到達しているのです。だから、これはシミュレーションだと思いますか?我々がシミュレーションにいることをかなり確信しています。

シミュレーション議論に馴染みのない人のために、あなたに我々が現在シミュレーション内で生活していることを確信させる第一原理は何ですか?

それを実現するために特定の技術が必要です。人間レベルのAIを作ることができると信じるなら、はい、そして解像度、触覚、それが持つあらゆる特性において、これと同等のバーチャルリアリティを作ることができると信じるなら、私は今すぐコミットします。これが手頃になった瞬間、私はこの正確な瞬間の数十億のシミュレーションを実行するつもりです。統計的にあなたがその中にいることを確実にして。

最後の部分をもう一度言ってください。あなたは実行するつもり、私は今すぐコミットし、それが非常に手頃になるつもりです。それを実行するのに月10ドルのようです。私はこのインタビューの10億のシミュレーションを実行するつもりです。

なぜですか?統計的に、それはあなたが現在その中にいることを意味するからです。あなたが本物の中にいる可能性は10億分の1です。

遡及的配置とシミュレーションの論理

わかりました。これを明確にするために、それは遡及的配置ですね。はい。つまり、それが手頃になった瞬間、あなたは数十億のそれらを実行でき、それらは今このインタビューとまったく同じように感じられ、見えるでしょう。

はい。AIが内部状態、経験、クオリアを持つと仮定して、一部の人々はそれらを持たないと主張します。一部の人は既に持っていると言います。それは別の哲学的問題です。しかし、これをシミュレートできるなら、私はそうします。

一部の人々は誤解するかもしれません。あなたはあなたがするだろうと言っているのではなく、誰かがするだろうと言っているのです。私もそれをすることができます。気にしません。もちろん、他の人々も私がそこに到達する前にそれをするでしょう。私がそれを10ドルで得るなら、誰かがそれを1000ドルで得ました。それがポイントではありません。

あなたが技術を持っているなら、我々は確実に研究、エンターテイメント、ゲーム、あらゆる種類の理由で多くのシミュレーションを実行しています。そして、それらの数は我々がいる現実世界の数を大幅に上回ります。子供たちがプレイしている全てのビデオゲームを見てください。すべての子供は10の異なるゲームをプレイします。世界には10億人の子供がいます。

だから、一つの現実世界に100億のシミュレーションがあります。超知的システムについて考えるとき、さらにそうです。彼らの思考は我々のようではありません。彼らははるかに詳細に思考します。実験を実行します。だから、人工人間を作り、惑星全体をシミュレートするレベルでの何らかの問題の詳細なシミュレーションを実行することは、彼らが日常的に行うことでしょう。

だから、これが10ドルで私がやっていることではない良い可能性があります。それは何かについて考えているこの世界の未来シミュレーションです。

つまり、人間の種または何らかの形の知能の種がこの点に到達し、これと区別がつかないシミュレーションを手頃に実行でき、それをすることに決めた場合があり、これが現在それだということかもしれません。そして、実験やゲームやエンターテイメントのためにシミュレーションを実行することは理にかなっているでしょう。

時間と宗教的類似性

また、私が現在いるかもしれないこのシミュレーションで時間について考えるとき、時間は相対的に長く感じられます。1日24時間ありますが、彼らの世界では時間は相対的です。それは1秒かもしれません。

私の人生全体が彼らの世界では1ミリ秒かもしれません。そうですね、時間は相対的です。実行しているシミュレーションの速度を変更できます。確実に。

だから、あなたの信念は、これはおそらくシミュレーション、最も可能性が高く、それについて多くの合意があるということです。宗教に戻ると、すべての宗教は基本的に超知的存在、エンジニア、プログラマーがテスト目的または何らかの理由で偽の世界を作ることを説明しています。

しかし、シミュレーション仮説論文を取って、ジャングルに行って、原始的な人々、地元の部族と話し、彼らの言語でそれについて話すとしたら、2世代後に戻ってください。彼らは宗教を持っています。それが基本的に物語です。

宗教は、はい、シミュレーション理論を説明しています。基本的に誰かが作ったということです。だから、デフォルトで、それは我々が持っていた最初の理論でした。そして今、科学で、ますます多くの人々が「私は非些細な確率を与えている」と言っています。私ほど高い人は少ないですが、多くの人がそれに何らかの信憑性を与えています。

シミュレーション内での生活の意味

我々が現在シミュレーション内で生活していると信じることにおいて、あなたはどのパーセンテージですか?確実性に非常に近いです。

そして、それはあなたの人生の性質にとって何を意味しますか?我々が現在シミュレーション内で生活していることを100%近く確信しているなら、それはあなたの人生で何かを変えますか?

あなたが気にかけるすべてのことはまだ同じです。痛みはまだ痛みます。愛はまだ愛、そうでしょう?それらのことは異なりません。だから、それは問題ではありません。それらはまだ重要です。それが重要なことです。

わずか1%の違いは、シミュレーションの外側について気にかけることです。それについて学びたいです。それについて論文を書きます。だから、それが唯一の影響です。

シミュレーションの外側に何があると思いますか?分かりません。しかし、この世界を見て、シミュレーターのいくつかの特性を導き出すことができます。

明らかに優秀なエンジニア、優秀な科学者、優秀な芸術家、道徳と倫理では優秀ではない、我々の道徳と倫理とはどうあるべきかの見解では改善の余地があります。世界に苦痛があることを知っています。だから、子供を拷問することが倫理的だと思わない限り、私はあなたのアプローチに疑問を呈しています。

しかし、肯定的インセンティブを作るインセンティブの観点から、おそらく否定的インセンティブも作る必要があります。苦痛は、私がすべきでないことをすることを止めさせるために我々の設計に組み込まれた否定の一つのようです。だから、火に手を入れると、痛いです。

しかし、それは全てレベル、苦痛のレベルの問題ですよね?不快な刺激、否定的フィードバックは負の無限地獄レベルである必要はありません。生きたまま燃やされて、それを感じたくない。「ああ、これは不快だ。止めよう」のようでありたい。

実験の倫理と意味の問題

動物を取って調理して夕食に食べ、マウスやラットで実験も行いますが、大学で実験を行う承認を得るには提案書を提出し、人間で実験してはならない、赤ちゃんを燃やしてはならない、動物を生きたまま食べてはならないと言う倫理学者のパネルがあります。それらのことは、倫理委員会がある世界のほとんどの場所で禁止されるでしょう。

はい。一部の場所はそれを気にせず、より簡単な承認プロセスを持っています。

シミュレーション理論について話すとき、奇妙な方法で、会話の要素が人生の意味を感じさせなくするように感じられます。これは私が知っていることですが、私がポッドキャスト以外で人々とこの会話をするときはいつでも、私たちがシミュレーションの中で生きているかどうかについて、彼らの人生から少し意味が抜け出すのを見て、その後彼らは忘れて続けますが、これがシミュレーションだという考えは、それが重要でない、または私はそう思います。人間は設計によってこれが最高レベルであり、私たちが最も重要で、私たち、それは私たち全てについてであると信じたいのです。

私たちは設計によってかなりエゴイスティックです。そして、私がこれらの会話を人々と持つときにいつも持っている興味深い観察で、それが彼らの人生から何かを取り除くように見えるということです。

宗教的な人々はそのように感じますか?彼らは別の世界があることを知っており、重要なのはこの世界ではありません。彼らは自分たちの人生を同じように価値を置かないと感じますか?

一部の宗教では、彼らはこの世界が彼らのために作られており、天国や地獄に行くと思っており、それでも彼らを中心に置いていると思います。

しかし、それがシミュレーションなら、あなたが知っている、私たちは4歳の異星人が時間を潰すためにいじっている何らかのコンピュータゲームにすぎないかもしれません。

しかし、もしかしたらテストがあり、より良いシミュレーションに行く、より悪いものもある。もしかしたら異なる難易度レベルがある。もしかしたら次回はより困難な設定でプレイしたいかもしれません。

長寿と永遠の生命

私はこれに数百万を投資し、この会社の共同所有者になりました。Ketone IQという会社です。そして、物語は非常に興味深いです。私はこのポッドキャストでケトーシスについて話し始め、私が非常に低炭水化物、非常に低糖質であり、私の体がケトンを産生し、それが私を信じられないほど集中させ、持久力を向上させ、気分を向上させ、ここで私がすることをより能力にしたという事実について話しました。

そして、ポッドキャストでそれについて話していたので、数週間後、これらの小さなショットが私のロンドンのHQの机に現れました。そして、なんてことでしょう、これが私の発言能力、集中力、ワークアウト、気分、一日を通してクラッシュしないことに与えた影響は非常に深遠で、私は会社の創設者に連絡を取り、今この事業の共同所有者になりました。

私はあなたがこれを調べることを強く、強くお勧めします。製品背後の科学を見ることを強くお勧めします。自分で試してみたいなら、30%オフのサブスクリプション注文でketone.com/stephenにアクセスしてください。また、2回目の出荷で無料ギフトも受け取れます。それはketone.com/stephenです。そして、再び私が所有する会社が私のポッドキャストをスポンサーできることを非常に光栄に思います。

私はゼロから会社を構築し、さらに多くをバックアップしました。そして、初期段階の創設者に見続ける盲点があります。彼らはHRについて考える時間をほとんど費やしません。そして、それは彼らが無謀であるか、気にかけないからではありません。彼らが会社の構築に夢中だからです。そして、そのために彼らを責めることはできません。

その段階では、製品、新しい顧客を引きつける方法、チームを成長させる方法、本当に、生き残る方法について考えています。そして、HRは緊急に感じないのでリストの下に滑り落ちます。しかし、遅かれ早かれ、そうなります。そして、物事が混乱したとき、今日のスポンサーであるJust Worksのようなツールは、必需品であることから良いものを持つことに変わります。

何かが横道にそれ、あなたは予想していなかった会話をしている自分を見つけます。これは、HRが実際にあなたの会社のインフラであり、それなしには物事がぐらつくことを学ぶときです。Just Worksはあなたがこれを困難な方法で学ぶことを止めます。それは、そうでなければあなたのエネルギーと時間を消耗する物事を処理し、給与、健康保険の利益を自動化し、あなたのチームに任意の時間で人的サポートを提供します。

それはスタートアップから成長まで、海外でチームメンバーを雇い始めるときでさえ、あなたの小さなビジネスと共に成長します。だから、刺激的な時代と挑戦的な時代を通じてそこにあるHRサポートが欲しいなら、今justworks.comに向かってください。それはjust works.comです。

そして、長寿について多く考えますか?たくさんです。はい。それは、AIが私たちを得なければ、それがするであろうから、おそらく2番目に重要な問題です。どういう意味ですか?あなたは老衰で死ぬでしょう。

それは良くありません。それは良くありません。あなたは死にたいですか?つまり、死ぬ必要はありません。それは単なる病気です。治すことができます。宇宙が存在する限り、永遠に生きることを止めるものは何もありません。シミュレーションから逃げない限り。

しかし、誰もが永遠に生きることができる世界を望まないでしょうね?それは確実に望みます。なぜですか?あなたは誰に死んでほしいのですか?

私はこれを言うのは、人々が死ぬことしか知らないからだと思います。しかし、誰もが永遠に生きることができれば、世界はかなり過密になりませんか?いいえ、永遠に生きるなら繁殖を止めます。あなたの代わりが欲しいから子供を持つのです。永遠に生きるなら、「100万年後に子供を持つでしょう。それはクールです。まず宇宙を探検します」のようになります。

加えて、一つの大陸以外の実際の人口動態を見ると、我々は皆縮小しています。成長していません。はい。これは狂気です。金持ちになればなるほど、子供が少なくなるのは狂気です。それはあなたが言っていることと一致しています。

そして、私は実際に思います。ここで完全に正直になるなら、私が1000歳まで生きると知っているなら、30歳で子供を持つことは絶対にないと思います。そうですね。正確に。生物学的時計は終点に基づいています。一方、あなたの生物学的時計が無限なら、「いつか」のようになるでしょう。

そして、それは近い、我々の生命を延ばすことができることだと思いますか?それは一つの突破口です。どこかの我々のゲノムに、この若返りループがあり、基本的に最大120を与えるように設定されていると思います。それをもっと大きなものにリセットできると思います。AIはおそらくそれを加速するでしょう。それは非常に重要な応用分野の一つです。

はい、絶対に。だから、もしかしたらブライアン・ジョンソンが「今死ぬな」と言うとき、彼は正しいかもしれません。彼は私にいつも「今死ぬな」と言い続けています。今まで死ぬな。しかし、あなたが知っているように、彼は技術に到達する前に死ぬなと言っているのですよね?長寿脱出速度。

医学的突破口によって、あなたの存在の毎年があなたの存在に2年を追加するなら、あなたは永遠に生きます。その長寿、脱出、速度の点に到達するのに十分に長く生きたいだけです。

そして、彼は長寿脱出速度、特にAIの世界では、人間のゲノムを完全に理解すればすぐに、最小限数十年先だと思っています。なぜなら、一部の人々がはるかに長く生きるための遺伝子を持っていることを知っているからです。百歳まで生きる人々の世代があります。だから、それを理解し、コピーするか、永遠に生きるいくつかの動物からコピーできれば、そこに到達するでしょう。

永遠に生きたいですか?もちろん。質問を逆にしてください。永遠に生きていて、「40年で死にたいですか?」と私に尋ねるとしましょう。なぜ私がはいと言うでしょうか?分からない。多分あなたはデフォルトに慣れているだけです。はい、私はデフォルトに慣れています。そして、誰も死にたくありません。

どんなに年をとっても、誰も「ああ、今年死にたい」と言いません。みんな「ああ、生き続けたい」のようです。

もし1万年生きたら、人生とすべてが特別さが薄れるのではないかと思います。初めてハワイに行くとか、関係とか、これらすべてのものが、それらが希少でなく、私がただ、あなたが知っている、10,000年間行くことができるなら、私にとってはるかに特別でなくなるのではないかと思います。

個別にそれほど特別でないかもしれませんが、あなたができることははるかに多いです。現在、あなたは10年か20年何かをするための計画を立てることしかできません。500年間このプロジェクトに取り組むという野心的な計画を持つことはできません。無限の時間で無限の宇宙であなたに開かれる可能性を想像してください。

うわあ。大きな時間です。また、あなたについて知らないが、私は人生の99%を詳細に覚えていません。大きなハイライトを覚えています。だから、10年前にハワイを楽しんだとしても、再び楽しむでしょう。

実用的な長寿戦略とビットコイン

あなたは本当に実用的に、ブライアン・ジョンソンと同じように考えていますか。ブライアン・ジョンソンは我々が生命を延ばすことができるおそらく20年先だと確信しています。あなたはそれについて実用的に考えており、それについて何かをしていますか?

食事、栄養。100万年で報われる投資戦略について考えようとしています。はい。本当に?はい。もちろん。もちろん。なぜそうしないのですか?これが起こると思うなら、そうしようとすべきです。

つまり、現在AIを正しく理解すれば、経済に何が起こるか?我々はワールドコインについて話しました。無料労働について話しました。お金とは何ですか?今はビットコインですか?あなたはそれに投資しますか?偽造できない唯一の資源になる他の何かがありますか?だから、それらのことは非常に重要な研究トピックです。

だから、あなたはビットコインに投資していますね?はい、それが唯一の希少な資源だからです。他に希少性を持つものはありません。価格が上がれば、他のものはすべてより多く作るでしょう。適切な価格ポイントが与えられれば、欲しいだけ多くの金を作ることができます。より多くのビットコインを作ることはできません。

一部の人々は、ビットコインは我々が皆価値があることに同意したコンピュータ上の単なるものだと言います。我々はコンピュータ上のものです、覚えていますか?

つまり、投資アドバイスではありませんが、投資アドバイスです。それは彼らが「そうではない」と言うが、すぐにそれがそうだとわかるものの一つです。「あなたの電話は我々にとって重要です」があります。それはあなたの電話がゼロの重要性であることを意味します。そして、投資はそのようなものです。はい。

彼らが投資アドバイスではないと言うとき、それは間違いなく投資アドバイスです。しかし、それは投資アドバイスではありません。だから、あなたはビットコインに強気です。なぜなら、それは操作できないからです。

それは宇宙にどれだけあるかを知っている唯一のものです。金は純粋な金でできた小惑星が我々に向かってきて、それを価値を下げる可能性があります。また、我々全員を殺すでしょう。しかし、ビットコインは正確に数字を知っていて、2100万でさえ上限です。

どれだけが失われるか?パスワードが忘れられた。サトシが彼の100万で何をしているかわからない。ますます多くの人々がそれを蓄積しようとしている間、毎日それはより希少になっています。

一部の人々は、スーパーコンプュータでハッキングされる可能性があることを心配します。量子コンピュータがそのアルゴリズムを破ることができます。そのための量子耐性暗号技術に切り替える戦略があります。そして、量子コンピュータはまだ弱いです。

この会話を受けて変えるべきこと

この会話に続いて、私の人生に変更すべきことはありますか?この扉から出た瞬間に、私が異なってするべきことはありますか?

あなたは既にビットコインに大きく投資していると思います。はい、私はビットコインの投資家です。ビジネス金融アドバイス。いいえ。

あなたは勝っているようです。多分それはあなたのシミュレーションです。あなたは金持ち、ハンサム、有名人があなたと付き合います。それはかなり良いです。続けてください。

ロビン・ハンセンには、シミュレーション内でどのように生きるか、その中で何をすべきかについての論文があります。そして、あなたの目標は正確にそれをすることです。興味深くありたい。有名人と付き合いたい。そうすれば、彼らはそれをシャットダウンしません。

つまり、あなたは誰かが実際にペイパービューで見ている一部です。ペイパービューで見られたいかわからないけれど。それなら同じになります。それなら彼らはあなたをシャットダウンします。誰も見ていないなら、なぜそれをプレイするでしょう?

レーダーの下を飛びたくないですか?マスターの、ただ普通の人生を生きている男でいたくないですか?それらはNPCです。誰もNPCになりたくありません。

宗教的信念とシミュレーション理論

あなたは宗教的ですか?伝統的な意味ではありませんが、超知的存在があるシミュレーション仮説を信じています。しかし、あなたが知っている宗教書は信じません。

異なる宗教があります。この宗教はあなたに土曜日に働くなと言います。これは日曜日に働くな、豚を食べるな、牛を食べるなと言います。彼らはその理論の上にローカルな伝統を持っているだけです。それがすべてです。

それらは同じ宗教です。すべてが超知的存在を崇拝します。すべてがこの世界がメインではないと思います。そして、どの動物を食べないかについて議論します。ローカルなフレーバーをスキップしてください。すべての宗教に共通するものに集中してください。そして、それが興味深い部分です。

すべてが人間よりも偉大な何かがあると思います。非常に能力があり、すべてを知っており、すべてを強力です。それから私はコンピュータゲームを実行します。ゲーム内のそれらの文字の4つ。私はそれです。世界全体を変えることができます。シャットダウンできます。世界のすべてを知っています。面白いです。

直感的な神の記憶

我々がシミュレーション理論について話し始めたとき、創造者からほぼクルーのように、直感のように私たちに残されている私たちの中に生来の何かがあるかもしれないと早い時に考えていました。なぜなら、それが我々、我々が歴史を通して持つ傾向だからです。

人間はこの直感を持っています。はい。あなたが言ったすべてのことが真実である。上に誰かがいて、我々は何世代にもわたって神が彼らに来て、何かを言い、そこにいて、本を与えたと信じる宗教的な人々の世代があり、それは多くの世代にわたって受け継がれてきました。

これはおそらく、普遍的な宗教的信念を持たない最初の世代の一つです。それらの人々が真実を話しているかどうか疑問に思います。それらの人々、神が彼らに来て何かを言ったと言う人々が。それがこの一部だったらどうでしょう。

今日のニュースを見ています。1時間前に何かが起こり、異なる矛盾した結果を得ています。カメラで、ドローンで、Twitterの男で、まだ何が起こったかわからない。そして、3000年前に翻訳の正確な記録があると思いますか、もちろんそうではありません。

AI安全についての会話の影響

AI安全について行うこれらの会話は、人々を良い気分にさせると思いますか?良い気分か悪い気分かわかりませんが、人々はそれが面白いと思います。それはそれらのトピックの一つです。

だから、平均的な人と癌のさまざまな治療について会話をすることができますが、誰もがAIについて意見を持っています。誰もがシミュレーションについて意見を持っています。高等教育を受けた人や天才である必要がなくても、それらの概念を理解するのは興味深いです。

それは私を肯定的に感じさせない傾向があると思います。そして、私はそれを理解しますが、私は常に、単に肯定的で、肯定的なことを言われ、不快な会話を避けることを求めている幻想の世界に住むべきではないという意見を持ってきました。実際、私の人生での進歩はしばしば、不快な会話をし、何かについて意識するようになり、その後、少なくともそれについて何かできる方法について情報を得ることから来ます。

そして、だからこそ私は質問をしたのです。なぜなら、彼らが通常の人間なら、これらの会話を聞いて、「うわあ、それは恐ろしく、これは心配で」と思い、その後、私はその「そのエネルギーでどうするか」という点に戻り続けるからです。

はい。しかし、私は、これが私たちが話すことができる非常に多くの会話と異なることではないことを指摘しようとしています。ああ、この地域には飢餓がある、この地域にはジェノサイドがある、あなたは皆死んでいる、癌が広がっている、自閉症が増加している。あなたは常に非常に落ち込むことを見つけることができ、それについて何もできません。

そして、我々は我々が変えることができるもの、我々が得意なものに集中し、基本的に全世界をローカル環境として受け入れようとしないことが非常に得意です。だから、歴史的に、あなたは部族と一緒に育った、あなたの周りに十数人がいた。もし彼らの一人に何かが起こったら、それは非常にまれでした。事故でした。

今、インターネットに行くと、どこでもいつも誰かが殺されます。何らかの方法で毎日数千人の人々が私に報告されます。気づく時間さえありません。あまりにも多すぎます。だから、フィルタを設置しなければなりません。

そして、このトピックは、人々が「これは行ったエンターテイメントな話で、ショーのようなもので、それを出る瞬間に終わる」としてフィルタリングするのが非常に得意だと思います。

反対意見への対応

通常、私は会議でキーノートを行い、基本的にあなたは皆死ぬつもりで、2年残されているという話をします。何か質問は?すると人々は「私は仕事を失いますか?」「私のセックスロボットにどうやって潤滑剤を与えますか?」のような、あらゆる種類のナンセンス、明らかに私が言おうとしていることを理解していません。

そして、それらは良い質問、興味深い質問ですが、結果を完全に受け入れていません。彼らはまだローカル対グローバルの泡の中にいます。

AI安全に関してあなたと最も反対する人々、それは何ですか?彼らの反論は通常何ですか?

多くの人は全く関与しません。彼らは主題について背景知識を持っていません。私だけでなく、誰による単一の本、単一の論文を読んだことがありません。彼らは分野で働いているかもしれません。

だから、彼らはいくつかの会社で広告クリックを最大化するいくつかの機械学習の仕事をしていて、彼らにとってそれらのシステムは非常に狭く、その後、この男が世界を乗っ取るだろうと聞くのです。手がありません。どうやってそれをするのでしょうか?ナンセンスです。この男はクレイジーです。彼はひげを持っています。なぜ私は彼に耳を傾けるのでしょうか?そうですね、それは。

その後、彼らは少し読み始めます。彼らは「ああ、わかりました。だからAIは危険かもしれません。はい、それは見えます。しかし、我々は過去に常に問題を解決しました。再び解決するつもりです。つまり、ある時点で我々はコンピュータウイルスか何かを修正しました。だから、それは同じです」のようになります。

そして基本的に、彼らがより多くの露出を持つほど、そのポジションを維持する可能性は低くなります。超注意深い開発者から安全研究者になった多くの人を知っています。AI安全について心配することから、心配することは何もないのようになった人は知りません。

最終メッセージ

あなたのクロージングステートメントは何ですか?人類のためのクロージングステートメントを与える必要がないことを確認しましょう。担当し続け、コントロールし続けることを確実にしましょう。我々にとって有益なもののみを構築することを確実にしましょう。

それらの決定を行う人々が、それを行うためにわずかにでも資格があることを確実にしましょう。彼らは科学、エンジニアリング、ビジネスだけでなく、道徳的、倫理的基準も持っていることが良いです。そして、他の人々に影響を与える何かをするなら、それを行う前に彼らの許可を求めるべきです。

あなたの前にボタンが一つあり、それが世界のすべてのAI会社を現在永久に、誰も新しいものを始めることができないようにシャットダウンするとしたら、そのボタンを押しますか?狭いAIを失うのか、それとも超知的AGI部分だけなのか?

すべてのAIを失う。それは困難な質問です。なぜなら、AIは非常に重要だからです。株式市場、発電所をコントロールします。病院をコントロールします。壊滅的な事故になるでしょう。数百万人が命を失うでしょう。

わかりました、狭いAIは保持できます。ああ、それが我々が望むものです。これ全てを我々のためにする狭いAIが欲しいのですが、我々がコントロールしていない神が我々に物事をすることは望まない。

だから、あなたはそれを止めるでしょう。AGIと超知能を止めるでしょう。我々は既にAGIを持っています。今日我々が持っているものは、ほぼすべてにとって素晴らしいです。それから秘書を作ることができます。現在の技術の経済的潜在能力の99%が展開されていません。

我々はAIを非常に速く作るので、業界、技術を通して伝播する時間がありません。すべての仕事の約半分がBS仕事と考えられています。それらは行われる必要がありません。だから、それらは自動化さえされない。ただなくなることができます。

しかし、私は今日の既存モデルで60%の仕事を置き換えることができると言っています。それをしていません。だから、目標が経済を成長させる、発展させることなら、可能な限り早く超知能を作る必要なく、数十年間それを行うことができます。

失業率の将来予測

グローバルに、特に西洋世界で失業率はここから上がり続けると思いますか?これは失業率の低さだと思いますか?

戦争、経済サイクルなど、他の要因でかなり変動しますが、全体的に、より多くの仕事を自動化し、仕事を開始するのに必要な知的必要性が高いほど、資格を満たす人は少なくなります。

今後20年間でグラフにプロットすると、その時間にわたって失業率が徐々に上がっていくと仮定していますか?そう思います。既に、一部の人々が本当に十分な経済的価値を貢献していないことを理解したので、最低賃金を作りました。我々はより少ない人々、より少ない人々が資格を得るということを理解しました。

今日、我々は最低賃金を持っています。我々は、一部の人々が実際に支払われるものに見合う十分な経済的価値を貢献していないことを理解しました。だから、雇用主に彼らの価値以上の賃金を支払うことを強制しなければなりませんでした。

そして、我々はそれを更新していません。米国では連邦では7ドル25セントです。経済に追いつくなら、今は時給25ドルくらいであるべきで、それはより少ない賃金を得ているこれらの人々全員が、彼らが支払われているものを正当化するのに十分な経済的産出を貢献していないことを意味します。

友情への質問

このポッドキャストには、最後のゲストが次のゲストのために質問を残すという終了の伝統があり、彼らが誰のために残しているかを知りません。あなたのために残された質問は、友人、同僚、または配偶者にとって最も重要な特徴は何ですか?

それらは非常に異なるタイプの人々です。しかし、すべてにとって、忠誠心がナンバーワンです。

忠誠心はあなたにとって何を意味しますか?あなたを裏切らない、陥れない、浮気しない。誘惑にもかかわらず、世界がそうであるにもかかわらず、状況、環境にもかかわらず。

感謝の言葉

ローマン博士、本当にありがとうございました。あなたがしていることを本当にありがとうございます。なぜなら、あなたは会話を始め、会話を前進させ、非常に重要な研究を行っているからです。そして、あなたは多くの懐疑論者に直面してそれを行っています。

あなたの言っていることや行っていることを信用失墜させる多くのインセンティブを持つ多くの人々がいると言いたいです。なぜなら、彼らには自分たちのインセンティブがあり、数十億ドルが懸かっており、潜在的に彼らの仕事も懸かっているからです。

だから、そこに出て行って、私は推測しますが、頭を危険にさらして、このようなショーに出演し、大きなプラットフォームに行き、我々が向かっている説明不可能で、予測不可能で、制御不可能な未来について話すことをいとわない人々がいることは本当に重要です。だから、それをしてくれてありがとうございます。

この本は、2024年に出版されたと思いますが、今日話したことの多くについての包括的な見解を与え、AI失敗の防止などについて、皆さんがチェックすべきだと思います。そして、あなたからもっと学びたい人、あなたの仕事にもっと深く入りたい人のために、彼らが最善にすることは何ですか?どこに行けばいいですか?

私をフォローできます。Facebookで私をフォローしてください。Xで私をフォローしてください。ただし、私の家までフォローしないでください。非常に重要です。

私の家までフォローする。わかりました。だから、私はあなたのTwitter、あなたのXアカウントも下に載せるので、人々はそこであなたをフォローでき、はい、あなたがしていることを本当にありがとうございます。

非常に目を開かせるものであり、考えさせられることをたくさん与えてくれました。そして、実際に我々がシミュレーションに住んでいることをより確信させました。しかし、また、宗教についてかなり異なって考えさせました。なぜなら、ローカルな伝統から離れると、すべての宗教が同じことを指していることは正しいからです。

実際、もし彼らがすべて同じことを指しているなら、多分それらを横断して存在する基本的な真理は、私がもっと注意を払うべきものかもしれません。隣人を愛するようなこと、我々は皆一つであるという事実、神聖な創造者がいるということ、そして多分彼らはすべてこの人生を超えた結果について言及しているようです。

だから、多分私はこの人生でどのように振る舞うか、そしてその後どこに行くかもしれないかについてもっと考えるべきです。ローマン、ありがとう。アーメン。

コメント

タイトルとURLをコピーしました