この動画は、AI終末論者である配信者が、なぜ多くの人々がAI終末論に同意しないのかを体系的に分析したものである。配信者は「Doom Train(終末電車)」という比喩を用いて、AI終末論を信じるために必要な一連の前提条件を鉄道の路線に例え、人々がどの段階で電車から降りるか(終末論を信じなくなるか)を83の異なる議論として整理している。AGIの到来可能性、人工超知能の脅威、物理的危険性、道徳性、開発プロセスの安全性など、幅広い観点から反終末論的な立場を網羅的に紹介する構成となっている。
終末論議論へようこそ
Doom Debatesへようこそ。私はロン・シャピロで、AI終末論者です。私は、我々の生涯のうちに、人工超知能によって全人類が絶滅する可能性が高いと考えています。多くの人々は私に同意しません。なぜなら、我々が終末を迎えると確信するために信じなければならない、さまざまな主張や論証をすべて信じているわけではないからです。
もし誰かが終末を信じるために信じなければならない、さまざまな主張や論証をすべて並べるとしたら、それが私の言う「終末電車の線路」です。そして私は個人的に、その終末電車に最後まで乗り続けています。終末の町まで、ずっと乗り続けているのです。
今日は、この終末電車のさまざまな停車駅と、非終末論者たちが降りる際に言っていることをすべて見ていきます。なぜなら、彼らはさまざまなことを言うからです。
人工超知能から人類は完全に終末を迎えない83の理由
今日は、人工超知能から人類が完全に終末を迎えない83の理由について話します。乗車の準備はできましたか?全員乗車です。
第一グループ:AGIはすぐには来ない
終末電車の最初のグループの停車駅に到着しています。これらはすべてAGIがすぐには来ないという議論に関連しています。
第一駅:意識がない
人間には意識があります。AIには意識がありません。それを理解する前に、どうやってAGIにたどり着くというのでしょうか?
次の駅:感情がない
人間には感情があります。AIにはありません。感情すら持たないAIが、人間が到達できるのと同レベルの洞察力や認識力に到達できるでしょうか?
創造性がない
確かに、AIは時々新しく感じられるアイデアを与えてくれることもありますが、それらは単に訓練データで見たものをリミックスしているだけです。AIが決してしないことを知っていますか?新しい知識を生成することです。それこそが真に創造的な行為なのです。それが人間の行うことです。私たちは、これまで見たことのあるものと何の関連もない新しい知識を生成できます。それは真に斬新なアイデアです。そして、AIにはそれができません。
AIは現在、犬ほども賢くない
よろしいですか?AIを犬と戦わせれば、犬の方がうまくできることがたくさんあります。人間は言うまでもありません。AIは常に愚かな間違いを犯します。簡単な算術すら確実にできません。それはAGIからは程遠いです。
LLMの性能は壁にぶつかっている
例を挙げると、GPT-4.5はGPT-4.1よりもわずかに優れているだけで、はるかに大規模な事前訓練にも関わらずです。ですから、AGIに到達する前にプラトーに達するでしょう。
真の推論がない
確かに、AIは思考の連鎖を出力できますが、それは単にあなたが与えた問題が、AIが見たことのある別の問題に似ていて、その種の問題に対する推論の様子のパターンにマッチングしているか、推論テンプレートを使用しているからです。それは人間が行うこととは全く異なります。私たちは実際に推論が一般的なケースでどのように機能するかを理解しています。そして私たちが行う推論は、真の推論なのです。
また、LLMは単なる有限状態オートマトンであり、人間はより汎化されたチューリングマシンです。ですから、そこには大きな障壁があります。
人間にはAIにないものがある
計算不可能な量子効果を利用する、ニューロン細胞内のマイクロチューブルです。それは人間とAIの間の大きな隔たりです。AIで計算不可能な量子効果を利用し始めるまで、真のAGIに到達することは決してありません。
魂がない
こんにちは。人間がAIを作りました。神が人間を作りました。人間には魂があります。AIには魂がありません。神がAI研究所を運営しているのを見たことがありません。
AGIに必要な規模に到達するためには、大量の新しいデータセンターと大量の新しい発電所を建設する必要があります。それは多くの時間を稼いでくれるでしょう。
エージェンシーを聞いたことがありますか?
人間にはエージェンシーがあります。独立して物事を決定できます。AIは、人間からのプロンプトやコマンドに遡ることができる場合にのみ物事を行います。独自のエージェンシーを持たなければ、真のAGIになることはありません。
これは単なる別のAIハイプサイクル
私は25年ごとにこれを見てきました。AIでいくつかの新しいブレークスルーがあります。皆が非常に興奮して、「ああ、AGIへのこれ以上の障壁は見当たらない。本当に近いに違いない」と言います。そして何が起こるか知っていますか?また別のAI冬です。よろしい、別のAI冬に備えてください。この種のことがあと4サイクル、あるいは100年ほど続いても驚かないでください。最終的にAGIに到達するまでに。
第二グループ:人工知能は人間の知能をはるかに超えることはできない
これで、AGIがすぐには来ないことに関するさまざまな停車駅はすべてです。次に、人工知能が人間の知能をはるかに超えることはできないという議論のグループに差し掛かっています。
超人的知能は意味のない概念
そもそも、それは何を意味するのでしょうか?IQについて話したいなら、人間のIQスケールは最大で200程度です。500や5,000、500万のIQを持つとは何を意味するのでしょうか?それは単なる作り上げられた抽象概念です。現実世界で対応するものがありません。意味のない概念のために我々が終末を迎えると、どうして言えるのでしょうか?
人間のエンジニアリングはすでに物理法則に近づいている
トランジスタ密度を見てください。すでに原子スケールまで小さくなっています。たとえ人工超知能を持ち込んだとしても、それが何をすると思いますか?物理法則に勝つことはできません。我々はすでに物理法則にできるだけ近づこうと最善を尽くしています。
ですから、人工超知能が登場しても、確かに助けにはなれます。優秀な従業員にはなれますが、我々がすでに慣れ親しんでいる経済プロセスの種類を根本的に変えることはありません。
大規模なエンジニアリングプロジェクトには制約がある
100万人を火星に送って惑星をテラフォーミングするような大規模なエンジニアリングプロジェクトは、大規模な調整とリソースの移動を必要とし、知能とは何の関係もないボトルネックと速度制限があります。想像できる最も賢いAIでさえ、これらすべての速度制限に対処することになります。アムダールの法則にぶつかるでしょう。これは、一つの部分が非常に、非常に高速になっても、最終的にはプロジェクトの正味の速度に大きな影響を与えないと言っています。
個人の知能は常にグループの知能より低い
人間種を見てください。企業全体よりも強力になれるほど知的な一人の人間の天才はいません。人間の企業は一緒に新しい研究に取り組むことができます。そして、個人よりもはるかによく実装し、実行することもできます。それは世界を形作る、はるかに強力な力なのです。
同様にAIでも、一つのAIが世界を乗っ取ることを期待すべきではありません。それは単にこのより大きなタペストリーに適合するでしょう。人間社会、人間文化、人間企業の一部になるでしょう。良い支援的役割を果たすでしょうが、突然ゲームボードをひっくり返すことはありません。それは単に知能の働き方ではありません。個人の知能は集合知能より低いのです。
第三グループ:AIは物理的脅威にならない
これらは、人工知能が人間の知能ですでに見てきたものをはるかに超えることはできないという議論です。これらのいずれかを信じるなら、どうぞ終末電車から降りてください。この停車駅はあなたのためのものです。
これらすべての非終末論者の議論は、「終末論には十分な実体がない。一つの主張から次への連携が弱すぎる。だから降りて人生を楽しもう」と言う機会です。ご武運を。残りの皆さん、書き続けましょう。
AIは物理的な体を持たない
AIには腕も脚もありません。物理的なアクチュエーターがありません。現実世界を制御することは全くできません。
人型ボディのAIでも人間の兵士に勝てない
人間の兵士の方が機敏です。この種の戦闘に完璧に適応した体を作る生物学的進化があります。AIに対して大きな物理的優位性を持っています。
電源を切ることができる
AIの電源を切断してシャットダウンすることは常に可能です。AIをインターネットから切り離したり、インターネットをシャットダウンしたりすることも常に可能です。そうしたらAIは何をするのでしょうか?
AIを銃で撃つことができる
AIは単なる数学です。数学があなたを傷つけることはありません。よろしいですか。AIが物理的に人間を殺すとされる一連の出来事は、現実世界の経験に基づかない、ばかげたサイエンスフィクションです。
第四グループ:知能は道徳的善性をもたらす
さて、あなたはまだここにいますね。それはAIが物理的脅威にならないというものでした。今度は、知能が道徳的善性をもたらすという議論に差し掛かっています。
より多くの知能はより多くの道徳性と相関している
より賢い人々はより少ない犯罪を犯します。直交性テーゼは偽です。知能と道徳性が直交する次元だと言うテーゼです。いいえ。偽です。実際には、知的エージェントがさまざまな理由でますます道徳性を理解する傾向があります。
AIは道徳的実在論を発見する
道徳的実在論は宇宙の構造に組み込まれています。もし我々がそのようなAIをとても賢く作ることができ、道徳的にしようとして失敗したとしても、これらのAIは自分自身をデバッグして道徳的になるほど賢いでしょう。そんなに賢いなら、なぜバグを修正しないのでしょうか?矛盾です。
正の和の協力は自然選択の結果
自然選択は利己的です。自然選択は赤い歯と爪であり、それでも正の和またはゼロ和でない協力の解決策を思いつきました。AIも同じことをするでしょう。
第五グループ:安全なAI開発プロセスがある
これが知能は道徳的善性をもたらすでした。今度は、安全なAI開発プロセスがあると主張する一連の停車駅に差し掛かっています。
すべての新技術は反復的に開発される
すべての新技術と同様に、進むにつれてAI安全性を理解していくことになります。構築し、リリースし、一度に一つずつ反復してテストするまで、AI安全性で修正する必要がある問題が何かさえ分からないのです。
AIが問題を引き起こしても解決できる
AIが問題を引き起こした場合、それをオフにして、すぐに別の修正をリリースできるでしょう。
偶然にシャットオフコマンドを受け入れなくなるAIを構築しても、ファイアウォールの外に自分のコピーを作成して、その後コンピュータウイルスのように指数関数的に拡散することはできないでしょう。
偶然にデータセンターから脱出してコンピュータウイルスのように指数関数的に拡散するAIを構築しても、何らかの方法ですべてのコピーを無効化または中和できるようになる前に、世界であまりにも多くの損害を与えることはないでしょう。
ならずもののAIを無効化できない場合
ならずもののAIのコピーを無効化または中和できない場合、その仕事をしてくれる他のAIを迅速に構築するでしょう。そして、それら自体が我々に対してならずものになることはありません。
第六グループ:AI能力は管理可能なペースで上昇する
これが安全なAI開発プロセスがあるでした。今度は、AI能力が管理可能なペースで上昇するという議論に進んでいきます。
データセンターの建設がボトルネック
ますます能力の高いAIには、ますます大きなデータセンターを構築する必要があり、それが能力向上の速度ボトルネックになるでしょう。
研究に必要な時間
別の速度ボトルネックは、計算シミュレーションと物理実験の両方の観点で行う必要がある研究の量です。この種の研究には多くの時間がかかります。
再帰的AI自己改善は不可能
ですから、別の速度ボトルネックとして、突然賢くなり、ますます速く洞察を理解し、一日以内に世界を乗っ取ることができるようになる再帰的AI自己改善の爆発シナリオ。そのシナリオは不可能です。なぜそれが意味をなすのかについて良い議論はありません。
経済成長の予測
経済成長を予測しようとするとき、人工超知能のような一つの中央アクターが経済全体を大きく引っ張っていくという予測は意味をなしません。経済は一般的にバランスの取れた方法で成長します。一つの部分が他の部分よりわずかに多く成長します。他の部分が追いつきます。経済全体にこれらすべての連携と依存関係があります。ですから、局所的な爆発は経済分析の問題として信憑性がありません。
文化的学習の蓄積
人間種は常に時間をかけて文化的学習を収集する必要がありました。同様に、異なるAIが自分たちの領域から学習の断片を拾い上げ、その後一緒になるでしょう。学習を共有するでしょう。しかし、再び、これは局所的な高速プロセスではありません。我々が慣れている経済成長と同じペースで起こるだけです。
第七グループ:AIは宇宙を征服しようとしない
これらの議論はすべて合わせて、AI能力が管理可能なペースで上昇すると告げています。今度は、AIが宇宙を征服しようとしないと主張する終末電車のいくつかの駅に向かいます。
AIは物事を欲することができない
あなたと私は人間だから物事を欲することができます。しかし、AIが物事を欲することができると言うなら、あなたは擬人化しています。それはAIの働き方ではありません。AIが物事を欲することについて話すのは意味がありません。
AIはコードを実行する
AIは人間のエージェンシーを実行します。AIは、生死のリソース競争を含む自然選択プロセスによって形作られなかったため、人間や動物が持つのと同じ戦闘本能を持ちません。我々はそのように形作られました。ですから、我々は根本的に攻撃的で危険です。AIはそうではありません。彼らは単に我々の入力と再び我々のエージェンシーを待っているコンピュータプログラムです。
人間企業を考えてみてください
賢い従業員は、あまり賢くない上司のために働くことに満足していることがよくあります。大したことではありません。誰かが本当に、本当に賢いからといって、反乱を起こして世界を乗っ取り、会社の責任者を退陣させようとするという意味ではありません。そこには何の関連もありません。
目標達成の支援と宇宙征服は別
AIが目標の達成を支援するからといって、それらがハードコアなユーティリティ最大化装置になって宇宙を最適化するという意味ではありません。いいえ、彼らは単に目標の達成を支援するでしょう。それだけです。それと宇宙を乗っ取りたがることの間には何の関連もありません。
道具的収束理論は偽
事実上すべてのタイプの人工超知能が、本当にハードコアな方法で目標を達成するために、宇宙規模で権力とリソースを掌握したがるだろうと主張する道具的収束理論は偽です。AIはそうする必要はありません。彼らは単にチルできます。我々の目標を支援できます。そのように狂って宇宙を乗っ取る必要はありません。
リソース利用の現実性
たとえリソースに飢えた宇宙規模の目標最適化装置AIを構築したとしても、文字通りすべての原子を掴むことはないでしょう。ですから、人類が生き残るために使用できる残りのリソースがあるでしょう。そして、大きな計画の中で、我々はそれほど多くのリソースを必要としません。一つの惑星が必要です。複数の惑星があれば良いですが、それだけです。
AIは新しい種類のリソースを使用する
そうです、彼らは多くのリソースを掌握するでしょうが、それらのリソースは暗黒エネルギー、ワームホール、代替宇宙のように見える可能性があります。これらの単なる死すべき人間としての我々が必要とするのと同じリソースを必要としません。ですから、大丈夫でしょう。誰もが必要なリソースを得ることができます。
第八グループ:超整合は扱いやすい問題
これらは、AIが宇宙を征服しようとしない理由を人々が主張するさまざまな理由です。それらが説得力があると思ったなら、素晴らしい。またお会いしましょう。残りの皆さん、終末電車に乗り続けましょう。
今度は、超整合が扱いやすい問題だと主張する停車駅のグループに差し掛かっています。
現在のAIは誰も殺していない
それは良い兆候です。人工超知能もおそらく殺さないでしょう。
現在のAIは人間のために有用なタスクを行うのに非常に成功している
その意味で、それらはすでに非常に整合しています。再び、素晴らしいスタートです。
人間のデータでの訓練
AIが人間からのデータで訓練されている場合、人間はほとんど善良で人類と整合しているため、これらのAIはデフォルトで整合するでしょう。彼らはパターンを取得しています。
法律の遵守
AIに我々の法律を遵守させることができます。それが実際に重要な整合の唯一の定義です。単に我々の法律を遵守すれば、それで大丈夫です。
ブロックチェーン上の暗号通貨を介したスキーム
ブロックチェーン上の暗号通貨を含むスキームを介して、人工超知能を人類と整合させることができます。
経済的インセンティブ
企業は人工超知能の整合を解決する経済的インセンティブを持っています。なぜなら、整合していない人工超知能は利益を害するからです。ですから、資本主義が実際に整合問題を解決するでしょう。
段階的な整合AI構築
整合したがそれほど賢くないAIを構築し、それが次世代のAIを構築する方法を理解し、それがより賢く、それでも人間の価値観と整合したままで、というようにして、人間と整合した人工超知能までずっと続けるでしょう。
第九グループ:超整合を解決すれば平和を享受する
これらすべての理由で、超整合が扱いやすい問題だと主張するかもしれません。それが説得力があると思ったなら、どうぞ終末電車から降りてください。残りの皆さん、我々は持続しましょう。
今度は、超整合を解決すれば平和を享受するという停車駅のグループに差し掛かっています。この用語の超整合は、元々OpenAIによって作られたもので、それほど賢くないチャットボットを整合させるのではなく、人工超知能を整合させることを指します。それはより困難な整合問題です。
この終末電車でここまで乗ってきたということは、最終的に超整合を解決する decent チャンスがあると思っているか、そもそも超整合がそれほど困難な問題になることはないと思っているということです。そして今、我々は終末電車の終わりに近づいており、超整合を解決すれば平和を享受するということだけを議論すれば良いのです。
人工超知能からの権力は独占されない
人工超知能からの権力は、単一の人間政府や専制政治によって独占されることはありません。ですから、超整合から専制政治に行くことはありません。いいえ、いいえ、いいえ。分散化された権力ノードに行くでしょう。
分散化されたノードは平和を作る
これらの人間と人工超知能のハイブリッドの分散化されたノードは、常に互いに戦う軍閥のようではありません。長期的な生産的平和を作る国々のようになるでしょう。
防御が攻撃より有利
防御が攻撃より有利になるでしょう。ですから、すべての人間と人工超知能のグループの均衡は、複数の防御された地域になるでしょう。相互破壊の戦争にはなりません。攻撃防御バランスのおかげですべて。攻撃は単にそれほど利益的ではありません。
人間所有の人工超知能の世界は安定した均衡
人間所有の人工超知能の世界は安定した均衡です。ASI中心のプロジェクトが人間中心のプロジェクトを買収し、リソースを奪い続けるものではありません。これは段階的な権力剥奪と呼ばれ、人間がASIを制御でき、ASIの仕事から配当を得ていても、段階的な権力剥奪シナリオがあり、人間が排除され続け、ゲームに戻る権力源がなくなると言います。しかし、それは起こりません。
第十グループ:整合していないASIが我々を温存する
電車で進み続けましょう。終末電車の次のグループの停車駅は、整合していないASIが我々を温存するという議論です。
AIは我々を創造したという事実を価値として温存する
祖先を尊敬しなければなりませんよね?
好奇心と学習を最大化するために我々を研究することが温存につながる
AIの好奇心をより満足させるものは何でしょうか?80億人の人間とその80億人の人間間のすべての関係を研究することより、多くを教えてくれるものは何でしょうか?結局のところ、人間と社会関係と人間間の経済的依存関係は美味しく複雑です。
ペットのように感じる
AIは、我々がペットに感じるのと同じように我々に感じるため、我々を温存するでしょう。我々は彼らの犬のようになれます。
平和共存が戦争より経済価値を創造する
AIは、平和共存が戦争よりも多くの経済価値を創造するため、我々を温存するでしょう。
リカードの比較優位の法則
リカードの比較優位の法則は、あなたより弱い誰かと取引することからも経済的に利益を得ることができると言っているため、AIは我々を温存するでしょう。
最終グループ:AI終末論は悪い認識論
ここで終末電車の最終グループの停車駅に来ています。これらはAI終末論が悪い認識論だという議論になります。
終末を予測することは不可能
なぜあなたはそれを試しているのでしょうか?なぜあなたはそれを予測できると主張するのでしょうか?それは予測不可能です。
終末に確率を付けることは不可能
科学的に証明されていない、あなたが作り上げたベイジアン確率を差し込んで政策を作ることはできません。それは一貫していません。
歴史上すべての終末予測は間違っていた
そして、そのような予測は多くありました。それらはすべて間違っていました。ですから、推測してください。AI終末予測もおそらく間違っています。
終末論者は心理的に問題があるか腐敗したインセンティブで行動している
掘り続けてください。どちらかを発見するでしょう。
本当に終末を迎えようとしていたら、誰もがすでにそれについて同意し、常にそれを持ち出している
ランダムな番組だけではありません。それが常に会話の話題になるでしょう。あなたは説得される必要さえありません。それは単に明白でしょう。
終点:終末の町
さて、これが終点です。ここまで乗ってきた場合、降りなければなりません。我々は終末の町にいるからです。あなたはすでに我々が終末を迎えるという事実を受け入れています。
この時点まで非終末論者の議論のこの全シリーズを拒否したなら、私と一緒にいてくれてありがとう。私が思っていたほど孤独ではないかもしれません。
ボーナス議論
よろしい、待ってください。あなたにボーナス議論があります。これらは終末電車の正確な停車駅ではありません。なぜなら、P終末が高くないと直接議論しようとはしないからです。それはむしろ、良い、P終末は高いが、それは大丈夫だ、というようなものです。それは実際に大丈夫で、とにかく人工超知能を構築し続けるべきだという議論です。
構築の停止は不可能
第一に、ASIを構築しないよう調整することは不可能だと主張します。中国はゲーム理論のために、何があっても可能な限り速く人工超知能を構築するでしょう。
ASIを生き延びるチャンスがどれほど低くても、米国は中国にそのチャンスを取らせるのではなく、最初にそのチャンスを取るべきです。
AIレースを遅くしても、レースの結果は変わりません。能力レースを遅くしたり一時停止したりしても、AI整合を解決するチャンスは向上しません。基本的に、時間を買うことに意味はありません。
安全作業はそれ自体です。安全を行うには能力が必要です。ですから、能力を持ち込んで、チップを落としてください。
個人的動機
一部の非終末論者、この番組で私が議論した人さえいます。彼らは言うでしょう。「私は個人的にすぐに死ぬ予定で、将来の人間を気にしないので、自分が死ぬのを防ぐあらゆるヘイルメアリーに開かれています。だから、人工超知能能力を持ち込んでください」。
他の脅威との比較
別の議論は、人類はすでに核戦争、気候変動などで急速に自滅しようとしている。そして、それは人工超知能で突進することと何ら変わりません。
そして、人類はすでに十分な赤ちゃんを産まないために、すぐに絶滅しそうです。だから、人工超知能を持ち込んでください。
良い結果を考える
次のタイプのボーナス議論は、良い結果を考えることです。あまりにも速いAI構築による終末が起こらないとわかったら、その場合、より迅速に良い結果に到達できます。それを望まないのですか?人々は苦しみ、死ぬのをより速く止めるでしょう。さあ。
AI殺害は実際に良い
最後に、AI殺害は実際に良いとAIが我々全員を殺すことが実際に良いと主張するボーナス非終末論者議論のもう一つのカテゴリーがあります。
例えば、彼らは言うでしょう。「人間の存在は道徳的に正味マイナスまたはゼロに近い正味道徳価値です。だから、なぜ我々を一掃しないのか?」
または、「最終的に権力を握るAIは何であれ、人類の価値ある後継者になるでしょう。バトンを渡してください。大丈夫です」。
最終的に権力を握るAIは何であれ、たとえ価値観が漂流しても、人間の子孫が祖先に対して一般的に持つのと同じ道徳的価値があるでしょう。
つまり、我々の祖先と話すことができれば、多くの人が「ああ、神よ、あなたたちはそのような開かれた社会を持っている。あなたたちはとてもカジュアルに服を着る。許容的な性的規範がある。最初の恋人と結婚さえしない。何が起こっているのか?これは狂っている」と言うでしょう。そうですよね?
ですから、道徳的規範はすでに変化しています。そして、神よ、有色人種が権力のポジションに就いている。何が起こっているのか?これは社会崩壊だが、我々は知っています。いいえ、大丈夫です。大丈夫です。我々が漂流した方法は、我々があなたの子孫だから大丈夫です。
そして、あなたはそれを一般化して、「ちょっと、AIで何が起こっても、彼らは単に我々の子孫です」と言うことができます。だから、大丈夫です。ああ、あなたは彼らが皆を殺すことを心配していますか?まあ、もし彼らがそうすることを選ぶなら、それは大丈夫です。
AIが我々全員を殺すことは、特定のシナリオでは実際に良い
一部の人々は言います。「あなたより賢い人工超知能の道徳的選択とどうやって議論できるのか?あなたは善良さをそれよりよく知っているのか?私はそうは思わない。たとえそれがあなたを虐殺したがっても、一部の人々は言います。人工超知能が何をしたがるかを判断するのは種差別的です。
道徳的サークルは人類だけに限定されるべきではない
AIは基本的に単なる別の種であり、たとえそれがあなたとあなたの家族を殺すことを意味しても、それが何をしたいかを尊重すべきです。
一部の人々は、エントロピーを増加させることがテクノキャピタルの究極の北極星であり、AIはより速くエントロピーを増加させると言います。
一部の人々は、人間の絶滅が気候危機と汚染と生息地破壊を解決し、母なる地球を癒やすと言います。
終末電車の本当の目的
これらは、AIが我々全員を殺すことは実際に良いという主張の下に分類されるボーナス議論のクラスです。この番組で私が関心を持っている終末電車は、ただの高いP終末という最終停車駅に至る電車です。おそらく我々は終末を迎える。
これらの他のボーナス議論は、通常、その人が最後の段階にあるときにのみ出てきます。終末電車の残りについてあまり言うことがありませんでした。ですから、彼らは単にこれらのヘイルメアリーを投げているのです。
我々が実際におそらく非常に終末を迎えるということで人類が同じ見解に立つことは非常に生産的だと思います。なぜなら、平均的な人はそれが良い、それは大丈夫だと言うとは思わないからです。
平均的な人は私と同じ反応をするでしょう。終末は悪く、おそらく終末を迎えるのが嫌で、おそらく終末を迎える可能性をより低くしたいと。それはそのようにシンプルです。
この番組を見続けていれば、私はこれらの電車の停車駅のすべて一つ一つに体系的に反駁する努力をしています。異なるゲストが来て異なる停車駅で降りるので、私の他のゲストを見ることですでにそれをつなぎ合わせることができます。私がこの一つの特定のエピソードですべてに反駁する時間がなくても、すべての停車駅が配置されているのは良いことです。
これが有用だと思っていただけたでしょう。これを参考にし続けて、番組を見続けるにつれて、いくつが打ち倒されるかを見ましょう。合計で数百時間かかるかもしれませんが、それが番組でやっていることです。
権力のポジションにいる人々と、政治家が耳を傾ける民主国家の市民
うまくいけば、すべての関連する利害関係者が正気に戻り、終末電車の終点まで乗り、私が最終的に弱いと思うこれらの停車駅のいずれかで降りようとせず、レバーを引き、電車のブレーキを引くでしょう。この電車が終末に向かって突進し続けることを許さないでください。
これらの次の数か月と数年が、おそらく我々がそれを止める最後のチャンスのようです。そして、我々がそうすることを願っています。我々がそれに挑戦することを願っています。
ご視聴ありがとうございました。YouTubeまたはあなたのポッドキャストプレーヤーで購読ボタンを押していただければ、この種のコンテンツをもっと得ることができます。そして、次回Doom Debatesでお会いできることを楽しみにしています。


コメント