この動画は、進化心理学者のジェフリー・ミラー教授がAI開発の危険性について議論する内容である。彼は人間の知性と求愛行動の研究から得た洞察をAIリスク軽減に応用し、人工超知能(ASI)の開発を急ぐことは「率直に言って邪悪」だと強く批判している。ミラー教授は50%のPDoomを持ち、アライメント問題の困難さと人間の価値観の複雑さを指摘しながら、中国との協力の重要性も強調している。

トップ教授がAGI開発を非難:「それは率直に言って邪悪だ」— ジェフリー・ミラー
これはわしらがこれまで直面した中で最も困難な問題かもしれへん。他の実存的リスクは比較的ささやかなもんや。君の主流の破滅シナリオはなんや?宇宙の歴史上最悪の事態であるASIを解き放ってしまうことや。これに突進するのは全くもって愚かで無謀、そして率直に言って邪悪やで。
ワイはジェフリー・ミラーや、Doomed Debatesを見てもろてる。Doom Debatesにようこそ。今日のゲストのジェフリー・ミラー教授は進化心理学者で、ベストセラー作家、そしてニューメキシコ大学の心理学准教授や。彼の学術的焦点の多くは人間の知性という主題やった。スタンフォードで認知心理学の博士号を取得した。
進化心理学からAI安全性への道
サセックス大学の認知科学センターでポスドクをやった。2001年に『The Mating Mind: How Sexual Choice Shaped the Evolution of Human Nature』を出版した。2015年には『Mate: Become the Man Women Want』を書いた。そして2019年には『Virtue signaling: essays on Darwinian politics and free speech』を書いた。
彼はAIのような実存的リスクを軽減することに焦点を当てた効果的利他主義者や。そしてここ数年、Effective Altruism Forumでアライメントについて書いてきた。せやから今日は、ジェフリーの核となるアイデアを掘り下げて、彼の研究キャリアから重要な洞察を拾い上げるで。
進化心理学と人間の知性の研究から得た発見の一部が、AIリスク軽減にどう関連するかを見ていこう。ジェフリー・ミラー教授、Doom Debatesにようこそ。
ここにおれて嬉しいで、Luron。光栄やわ。そして君がやってることを大いに尊敬してるし、君がやった素晴らしいインタビューやポッドキャストをめっちゃ楽しませてもらった。こっちもや。ああ、ワイは君の仕事の大ファンや。
しばらく前から君の書いたもんを読んでて、特に『Mate』は2015年にワイにとってかなり影響的やった、君がTucker Maxと共著した本や。せやから、それについても絶対に触れるで。ええやん。
君の知的キャリアの軌跡の概要を聞かせてくれへんか。最初君はAIに興味を持って、それから子供ができて、AIにあまり興味がなくなって、人間の求愛により興味を持つ進化心理学に傾倒して、今はAIに戻ってきた。何か見落としはあるか?
それはかなりええ概要やな。つまり、大学時代のコロンビア大学では常に心理学に興味があった。心理学と生物学を複専攻して、認知科学を理解したいと思った。せやからスタンフォードに行って認知心理学を学んだんや。そしてある種の二つの道のキャリアを歩んだ。
一方では、David Rumelhartという神経ネットワークの大きな研究者である教授がいて、ワイはある程度神経ネットワークと遺伝的アルゴリズムと機械学習にのめり込んだ。せやから大学院ではそれをちょっとやった。確実にワイの最初の10から20の論文は機械学習に焦点を当てたもんやった。それがワイのポスドクの内容やった。
そして1996年に最初の子供ができた。その頃にはもうAIからのリスクについて実際にちょっと心配し始めてた。ワイの焦点は非常に自律エージェントと進化ロボティクスと、単にプロンプトに応答するだけやなくて、実際に決定を下して現実世界で行動できるもんに向いてた。そしてそれがワイを怖がらせ始めた。
そしてこれは必ずしも倫理的なキャリアトラックとは言えへんと思った。せやからワイの焦点は過去30年間のほとんどで人間の進化心理学と知性と創造性とそういったもんに向いてた。しかし10年前に効果的利他主義に関わるようになった。
多くのEAsはX-riskとAI安全性の問題に非常に焦点を当ててて、それがワイにそれらの問題を見直すことを再び刺激した。
君のキャリアを駆動する一つの大きなアイデアはあるか?キャリアを始めたとき、自分がどこに向かってると見てたんや?
正直言うて、最大のテーマはシグナリング理論やった。これは人々がすることの多くが、社会的にも性的にもキャリアでも何でも、他の人々に対して自分の根本的な特性をシグナリングしているという考えや。
そしてそれが『The Mating Mind』の本、『Spent』の本、『Mate』の本を通じて一貫したテーマやった。これはもしあんたがデートマーケットにいるなら、異性に対してより良くシグナリングする方法についてのもんや。ワイは実際にそれが主要なテーマになることを意図してへんかったけど、シグナリング理論が物事を見る非常に強力な方法で、ゲーム理論の人間行動への非常に関連性の高い応用やということがわかった。
せやから、君とRobin Hansenが主要なシグナリングの人々やろ?ああ。そして確実にワイらはある程度お互いにインスピレーションを与えてきたと思う。そして彼の本『The Elephant in the Brain』は、ワイをかなり引用してたと思う。これは一度見ると、見ないでいることが非常に困難になるアイデアの一つや。
そして多分後でシグナリング理論がAIの軍拡競争とAI業界のインサイダーの行動をどう照らし出すことができるかについても話せるかもしれへん。
ああ、絶対に。せやから会話の構造としては、君ともう少し深く入り込んで、君の最大のヒット曲、君の核となるアイデアの一部について話して、それからすべてを番組の主題である、AIの破滅とそれについてワイらができることに戻していくで。ええやん。
進化心理学の正当性
進化心理学の主題について、君の30年の小さな回り道について、視聴者に伝えたいことの一つは、進化心理学は正当やということや。これは本当に論争的なもんやないはずやろ?この分野全体が価値を加えてるかどうか、ダーウィンまで遡っても、彼はすでに進化心理学が一つのもんになるということを理解してたやろ?ああ。
そして実際、『Mating Mind』でワイが指摘したのは、ダーウィンの初期のキャリアのほとんどは生物学と動物の身体設計と適応の形態学的特性の進化に非常に焦点を当ててたということや。しかし正直言うて、1870年頃には、彼はある意味で進化生物学よりも進化心理学により興味を持ってた。
せやからその後の彼の本の多くは、配偶者選択による性選択について、花粉媒介者の行動が花の進化に影響を与えることについて、人間の手による植物や動物の家畜化品種の選択についてやった。せやからダーウィン自身が本当に最初の進化心理学者やったし、それが彼の中期から後期のキャリアの主要な焦点やった。
ワイは時々、進化心理学という分野が全部推測やと主張する人々を見るけど、それよりも正確に言うなら、否定できない基本的な洞察がたくさんあって、それから当然、まだよくわからんことがあって、まだ研究してることがあるという最前線の分野があるということやと思う。
ワイは多くの実証的研究を発表してきたし、もしこれが単なる推測と物語やったら、ワイのPh.D.学生は皆ただ仮説を持って出てくるだけやろう。しかし典型的には、素晴らしいアイデアがあって、それが素晴らしいアイデアやと思って、テストしに行って、おっと、ちょっと正しくなくて、見直すということが多い。
それは仮説と実験の間の通常の科学的弁証法や。その通りや。そしてワイらは本当に視聴者に進化心理学について説明すべきや、5歳に説明するように。基本的に脳は器官やということで、器官が今のようになってるのは進化の圧力のためで、それがワイらの祖先の生存を助けたからやということや。
例えば、食べ物が美味しく感じたり、セックスが気持ちよく感じたりするのは、進化的反応や。それらは美味しく感じたり気持ちよく感じたりする必要はないけど、ワイらの脳でそうなるように進化したからそうなってる。
ああ。これは人間の本性があるという急進的なアイデアや。人間の本性は進化した。人間の本性には好み、価値観、感情、気分状態、知覚能力、認知能力を含む多くの異なる心理的適応が含まれてて、チンパンジーの本性、イルカの本性、象の本性、その他の動物の本性を分析するのと同じように人間の本性を分析できるということや。
そして人類学、遺伝学、社会学、政治学、神経科学など多くの異なる分野を活用して、うまくいけば人間の本性の一貫した絵に織り込むことができる。
素晴らしい。よっしゃ、絶対にそれについてもっと話していくで。ワイらはAI研究者を精神分析していくつもりや。セックスについて話すつもりや。ワイの短いピックアップアーティストとしてのキャリアについて話すつもりや、男女の求愛をやろうとしてた。そして、それをすべて進化心理学という評判の良い科学に根拠づけるつもりや。せやからそれを楽しみにしててくれ。
教授としての生活
しかし、それらすべての前に、教授であることについていくつか質問したいんや。君はずっと教授として働いてきたやろ?ああ。いくつかの副業と回り道はあったけど、基本的には。よっしゃ。
最近の君の時間の配分はどんな感じや?正直言うて、去年はワイはコースの設計とシラバスの改訂に非常に多くの時間を費やして、学生がカンニングしにくいように比較的AI耐性を持たせるようにした。そして、それを解決するのに実際に膨大な時間と努力がかかった。
ワイは多くの研究をする。Ph.D.学生がいる。ジャーナル論文を発表しようとする。実証研究をする。ワイは大きなデータセットを分析するのが大好きや。そして君はちょっとした大学の奉仕をする。ワイは大学レベルでAIと教育委員会に参加してて、AIの時代にどう教えるかについて一般的な政策と規範とベストプラクティスを考え出そうとしてる。
せやから、それは教育、研究、奉仕の通常の組み合わせや。
どのくらい前にテニュアを取ったんや?2008年にテニュアを取って、テニュアに感謝してる。これは本当に本当に重要や。これは余談やけど、教授の言論の自由を維持できることは本当に重要や。これはBrian Caplanが書いたことの多くに関係する。君はBrian Caplanのファンやろ?
彼は「ああ、人々は本当にもっとテニュアを使う必要がある。テニュアを持ってるんやから、なんでまだそんなに恥ずかしがってるんや?これは君のチャンスやろ。セキュリティがあるんやから、遠慮なく使えや」という良い投稿を書いた。
それをする正しい方法は、テニュアを使って本当に思ってることを言うことと、実際に世界で重要やと思う話題を研究することや。小さなから中程度の話題で次から次へと論文を出し続けることやない。
君は境界を押し広げてるみたいやな。それをよく表現してるようや。学問の世界で勇敢であることは常に困難や。もし同僚があまり重要やと思わへんことに取り組んでるなら、一部の同僚を怒らせたり失望させたりすることを厭わなければならない。
しかし幸い、効果的利他主義のコミュニティと合理主義者のコミュニティにいることで、実際にワイのEAの友達は学術的な同僚の多くよりもある種賢いから、ある意味で彼らの尊敬と承認をワイはより気にかけてるんや。
同じく。同じく。君がAIに対してカリキュラムと教授職を守ることについて言及してくれて嬉しいで。ワイらは数週間前にLiam Robbinsという大学2年生とエピソードをやったばかりや。君がそれを見たのは知ってる。それはすべて大学がAGI時代にどう違うかについてやった。
具体的には、人々はAGIピルを服用してるか?人類がコントロールを持つ可能性のある最後の日々に生きてることを理解してるか?そしてもう一つの質問は、みんなカンニングしてるか?そして答えは基本的にイエスや。それについての君の経験はどうや?
要するに、ああ、彼らはカンニングしてる。しかしカンニングがそれに対する正しい用語かわからへん。もしワイが大学生の時にLLMと良いチャットボットが利用可能やったら、確実に教授が許可する範囲で熱心に使ってたやろう。
せやから、授業でAIを使うことへの倫理的アプローチは、教授が君自身の学習体験について何がベストやと思ってるかを理解して、それに従うことや。せやからワイが学生に言うのは、課題をしたりテストをしたりする際にAIの使用を絶対に最小限にしたいということや。
せやからワイは完全に中世的になった。教室でペンと紙のテストをする。多肢選択問題か短答問題や。すべてのデバイスを片付けろ。電話を使うな。ラップトップを使うな。ワイは君の脳とペンと紙だけがほしいんや。
ワイは君に素材を理解してほしい。君にLLMとやり取りしてほしくない。そして他の教授は異なるアプローチを持ってるけど、正直言うて教授の大多数は絶対に無知で素朴で、LLM自体を使ったことがなくて、学生が論文を書いたりオンラインテストをしたりする際にカンニングするのがどれだけ簡単かまったくわかってへん。
せやから、以前はテスト中にラップトップの使用を許可してたんか?オンラインテストをたくさん実施してた。論文をたくさん課題にしてた。そして持ち帰りの文章課題をする。
そして、学生の多くが巧妙にAIを使ってオンラインテストを完了したり、興味のある話題の論文の大部分を少なくとも下書きしたりするから、ワイはそれができへん。今学生に書き方を教えることは非常に困難や。
そしてワイらのAIと教育委員会では、人文学の誰もが絶対的な絶望に満ちてた。なぜなら彼らは「人文学教育の中心、英語や歴史やその他の中心は学生に書き方と考え方を教えることなのに、AIの時代にはもうそれができない」と言ってたからや。
人文学の教授たちはどうしてるんや?彼らは単にそれについて至福の無知の状態にあるんか、それとも彼らの動きは何や?約3分の2が至福の無知やと言えるやろう。6分の1は完全な実存的絶望の状態にあって、何をすべきかわからへん。そして約6分の1は教室内での文章課題だけをやってる。
よっしゃ、この番組を聞いてる潜在的なニューメキシコ大学の学生たち、ミラー教授の授業は取るな。カンニングするのが難しすぎる。しかし人文学に行けば、かなり良い確率があるで。ああ。
教授として、学生を採点するためにAIを使うか?いや。いや、本当に使わへん。そしてそれは怠惰で非倫理的やと思う。せやからワイはすべてを自分で読む。すべてを自分で採点する。それがワイの授業でワイの評価やということを確実にしたい。
せやから皆がワイに学生の間でカンニングの大流行があると言ってる。教授がAIで職務の一部を置き換えて、仕事でカンニングしてる教授の大流行があると思うか?
それは学生の課題を採点することよりも、学術論文や研究助成申請を書くことに関してもっと起こってると思う。ワイは、もし教授が実際に学生のエッセイを採点することを嫌がるなら、常にティーチングアシスタント、大学院生にやらせることができると思う。
しかしワイは多くの学者がAIを使って論文の導入部を書いたり、議論セクションを書いたり、そういう文章を書いたりしてるのを見る。そしてワイは多くの学者がLLMを使って本の章を下書きしてるのも知ってる。
ああ。ああ、ワイらは皆、「ところで、ワイはただのAIやから、ソースを調べるのに何かもっと手伝えることがあったら教えて」と言ってる公開された研究論文のような話を見たことがある。そして彼らはそれを論文に残した。
研究者や学者になることの全体的なポイントは、アイデアがワイの脳に入ってきて、蓄積されて、それからそれらを再構成して創造的になって、うまくいけば新しくて有効なアイデアを出すことやったと思う。研究と学術の重要な構成要素すべてをAIに大きく依存して外注することは、テニュアを取ろうとして出版物の成果を最大化しようとしてる人々にとって非常に非人間的で憂鬱やと思うに違いない。
ああ。君自身の研究キャリアにおいて、研究助成申請や仕事を得るために多くの妥協をしなければならなかったと感じるか、それとも実際に興味深くて重要やと思うことを追求するのに幸運やったと感じるか?
ワイはある意味で非常に幸運やったと思う。ニューメキシコ大学で仕事を得ることができて非常に非常に幸運やった。進化心理学者として仕事を得ることは非常に非常に困難や。なぜならそれは非常に汚名を着せられた分野で、世界中にそのような仕事は非常に少ないからや。せやからそれができてラッキーやった。
ワイは30年間、連邦政府の研究資金を一切受け取ってへん。政府に義理立てしたくないし、納税者のお金を無駄にしたくないし、NSFやNIHに現在の優先事項が何かを言われて、ワイの研究アイデアと優先事項を連邦政府が今重要やと思ってることに無理やり合わせたくない。
興味深い。しかし学生に手伝いに来てもらいたい場合はどうや?予算を申請する必要がないから彼らにお金を払わなくてもええということか?
ああ、基本的にワイらには学生が部分的に大学によってサポートされて、ティーチングアシスタントとしてサポートされて、ワイらの授業を手伝うPh.D.プログラムがある。
UNMのような大きな州立大学、40,000人の学生がいる。ワイらはニューメキシコ州からの多くの税金支援と学生からの授業料支援を得る。せやから経済的にはすべて教育についてや。スタンフォード、ハーバードなどの他の大学は、運営のために連邦助成金にもっと依存してる。
非常に興味深い。せやから、君は何年もの研究をやって、教授の仕事を得たことでフルタイムの収入があって、利用できる賢い学生がたくさんいて、大学が基本的なリソースを提供してくれるから、それだけで論文を発表するのに十分やった。コンピューター研究室を使えるとか。ああ、お金をたくさん使わずに良い行動科学研究をすることは可能や。
完全にそうや。そしてまた、君が靴紐予算で運営してるように聞こえるけど面白いのは、それでも、よっしゃ、2人の賢いPh.D.が君を手伝ってる。そういう人々は産業界に行く。突然、それは年間100万ドルの給料やろ?そして君はそれを無料で得ることができる。理にかなってる。
学生について聞かせてくれ。君は何十年もの間学生と働いてきた。学生はどう違うんや?彼らは電話に気を取られてる。つまり、30年前にワイが教えてた時、神よ、ワイはこんなに年を取った。
ワイが大学院生としてスタンフォードで教えた最初のコースは1990年の進化と認知に関するコースやったけど、多くの学生が実際にやったと思う膨大な量の読書を課題にした。ワイは機能的リテラシーの本当の減少を見てきた。学生は読むことができると思うけど、読もうとしない。
ワイはしばしば授業を再設計しなければならなかった。もう教科書を課題にできへん。彼らは教科書を読まへん。せやからワイは非常に短い読み物、主にブログや非常に短い学術論文、3から4ページの記事を課題にして、実際に多くのYouTube動画を課題にする。
例えば、ワイの効果的利他主義の心理学の授業では、おそらくこのポッドキャストを学生にコンテンツとして課題にするやろう。どうや学生たち?これを課題にされた場合はアーカイブをチェックしてくれ。
多分彼は君らにエクストラクレジットをくれるかもしれへん。君のキャンパスでAGIを感じてる人は誰やと思う?面白いことに、大学顧問、つまり大学の弁護士たちは、主に教授が学生がAIでカンニングしてると思った場合のAIについて心配してる。
学生が論文を提出して、教授が「ああ、これは主にChat GPTで書かれてる」と思う。教授は学生がカンニングしてると非難する。学生は大学を逆告訴する。弁護士はそのようなことを非常に心配してる。誰がカンニングしてて誰がしてへんかを把握するこのゲーム理論的なダンスにおいて、AIカンニングの誤った告発を避ける方法のような誤報と見逃しについて。
せやからそれが一種の関心の焦点や。いや、ワイが思うにやることは、学生に疑いの利益を与えて、クレデンシャルインフレーションを膨らませることや。ああ、それが事実上起こってることや。クレイジーや。
学生はAGIがすぐに来ると思ってるか?学生が持ってる本当の懸念は彼らのキャリアとキャリア計画についてや。ワイは過去数年間、ワイがやってる大きな人間のセクシュアリティの心理学の授業や人間の感情の授業を含めて、授業で広範囲に話してきた。
せやからワイらは君らが卒業後何をするつもりかについて話して、主な問題はAGI絶滅リスクのようなもんやない。学生が持ってる主な懸念はキャリア機会の絶滅リスクの一種や。
せやから彼らはどのキャリアが実行可能になるかまったくわからへん。そしてワイは彼らとMoravecのパラドックスについて話すことができる。ホワイトカラーの仕事がブルーカラーの物理的な仕事よりも速く自動化されるかもしれへんけど、ロボティクスも来てるし、もしワイらがAGIを得るなら、AGIは定義上、人間の労働と経済的に競争できる方法で、あらゆる認知的または行動的タスクを学習することができるやろう。
そしてそれは学生の多くが見ることができる安定したキャリアパスが本当にないということを意味する。そしてそれは非常に憂鬱やと思う。もしAIが何をしてるかに少しでも調律してるなら、これは20歳でいるのに本当に悪い時代やろう。
何をするために訓練されてるんや?わからへん。彼らにはアイデアがない。そしてワイは人工超知能からの絶滅リスクを除いても、将来の計画についてGen Zの間に浸透してる一種の絶望があると思う。どうやって収入を得るか?どうやって家族を持つか?どうやって配偶者を見つけるか?どうやって子供を養うか?という観点からや。
彼らにはアイデアがなくて、ワイにも彼らへの答えがない。ああ。つまり、もしワイが彼らに答えを与えなければならないとしたら、Amjad Masadが言ってたように、起業家精神を理解することやと思う。みんなReplitを使うやろう、みんな起業家になる。ワイはそれは楽観的やと思うけど、悲観的な側面については後で話すけど、それは破滅やから、もし楽観的でいたいなら起業家になれ。
ビジネスがどう機能するかを学べ。金融的側面を少し学べ。エクイティがどう機能するかを知れ。イノベーションの分野を見ろ。AIツールが得意になれ。波が動き続けても最前線にいろ。それが個人的にワイができる最善のアドバイスや。
一部の教授は「ああ、学生はAIをマスターすべきで、これらのスキルを身につけるべきや」ということに調律してる。しかし問題は、AI技術が非常に速く動いてるから、現在のLLMで本当に良いプロンプトエンジニアであることが将来にわたって証明されるとは限らないということや。
5年や10年後にAIを効果的に使うことに必ずしも一般化されるとは限らない。せやからそれは本当に長期的で安定した市場性のあるキャリアスキルやない。現在のシステムを活用する方法を知ってるだけで、将来のシステムは完全に異なるかもしれへん。
君の同僚の学者たちはAGIについてどう思ってるんや?心理学部では、ワイらが話してきたこれら2つのリスクや問題について広範囲な懸念がある。大学でのAIカンニングと学生の間のキャリアの不確実性や。
一般的に、AGI、ASI、絶滅リスク、合理主義者とLess Wrongコミュニティと効果的利他主義コミュニティの人々が20年間話してきたこれらのもんについてはほとんど理解されてへん。せやから彼らはこれらのことに関して完全に頭を砂に突っ込んだダチョウモードや。
それはワイが聞いてることと一致してる。よっしゃ、いい感じや。せやから数週間前にLiam Robbinsから学生の視点を得て、教授の視点を得た。せやから大学の360度概観を得た。多分管理者を連れてくるやろう。すぐにもっと破滅的な話題に入るけど、まず、君はアスピーとしてカミングアウトした。これは君の個人的な生活とキャリアにどう影響してるか?
アスピーとしての人生
ワイは常に自分がナードやということを知ってた。父親がナードやということを知ってた。彼は飛行機、電車、自動車、模型鉄道などに本当にはまってた。そして幸い、ワイはある意味で非常にアスピーフレンドリーな中学校と高校に行った。
それは積極的に賢い子供たちを栄誉プログラムとアドバンスプレースメントコースに振り分けた。そしてワイらを一緒に集中させたから、アスピーの男子がアスピーの女子を見つけることができたりした。ワイは数学チームにいたし、数学チームには実際に女子がいた。
せやから疎外されたアスピーインセルになる代わりに、実際に社会的に成功したアスピーの高校生や大学生になることができた。そのことに神に感謝する。
ワイは数年前にQuilette オンライン雑誌でアスピーの問題と言論の自由の問題の交差点について記事を書いた。これは基本的に、もし言論の自由の文化があるなら、そこには多くの神経多様性があって、一部の人々は現在の社会規範が何か、現在のオーバートンウィンドウが何か、ワイらが言うことを許されてることと許されてへんことが何かにそれほど調律してへんという事実を考慮することが非常に重要やということや。
そしてワイは、文明に巨大な貢献をした天才の非常に高い割合を構成するアスピーの人々は、しばしば不適切で鈍感な、その他のことを言うけど、ワイらはそれをすることを許されるべきやと指摘した。
そして規範的な神経典型的な人々にとって、アスピーが時々人々を怒らせることを言うのは文明の進歩の代償やということを受け入れることが重要や。
ほぼそうや。ああ。ワイも自己診断でアスピーとしてカミングアウトしてて、ワイが十分なアスピーの特性を持ってることに気づいて、よっしゃ、ワイも明らかにアスピーやということで、学問的に焦点を当てた高校だったからいじめられたりはしなかった。そこではかなり幸運やった。
君が言ってるように、それが今もっと知られてることは良いことやと思う。なぜならそれは確実にワイが自分自身をもっと理解するのに役立つからや。せやから社会的交流の機会があるとしよう、集まりがあるとして、ワイがほとんどの人より早く疲れるとしよう。
ワイの脳が少し違って構成されてて、それがワイにとってより困難なゲームで、より消耗するやろうということの自己知識を持つのは良いことや。多分いつかワイは遺伝的に自分を改造してそれとの困難を少なくできるかもしれへんけど、まだいくらかの困難があってもええんや。ここで自分に少し余裕を与えるのは良いことや。
ああ。そして正直言うて、もし君が心理学研究者なら、アスピーであることは少しスーパーパワーや。なぜならそれは他の皆が当然のこととして受け取って、絶対に正常やと思ってる社会的交流の多くの側面を当然のこととして受け取らないことを意味するからや。
君は人間の求愛を見て「うわあ、それは本当に複雑で奇妙で、直感的に理解できない多くのことが起こってる。シグナリング理論のような理論的フレームワークに基づいて、それについてのある種の学問的で知性化された理解をどうやって得ることができるか?」と言うことができる。
もし君が神経典型的な心理学研究者なら、ワイはそれが本当のハンディキャップやと思う。君は人間の行動を見て、これはすべて直感的に理にかなってる、問題は何や?ワイは何を研究するつもりや?ということになって、些細な話題について些細な研究をすることになる。
そして神よ、アスピーの調教師、アスピートレーナーが得意な女性がそこにいることに感謝する。ワイの妻Diana Fleshmanは彼女の求愛キャリアを通じて主にアスピーの男性とデートしてて、彼女の手法は荒削りのアスピー天才を見つけて、女性の訓練の力を通じて社会的に少しレベルアップさせようとすることや。
ああ。ワイの妻もアスピーハンドラーや。ああ。そして歴史的に、文明と技術の進歩の多くは、男性のアスピーと女性のアスピーハンドラーが効果的に協力することから来てるとワイは思う。ワイの両親もそうやった。
社会が実際により多くのアスピーの社会的交流に向かってると思うか?なぜなら皆が電話を見つめてて、アイコンタクトを少なくして、趣味としてビデオゲームをしてるからや。せやから、それはワイらの専門分野やないか?多分ワイらは今日育てばもっと楽やったかもしれへん。
ああ。ワイはある意味でそう思う。ワイは多分14歳や15歳まで実際にアイコンタクトの技術をマスターしてへんかった。しかし、もし君が神経典型的で、主にテキストとソーシャルメディアを通じてコミュニケーションを取って、対面の交流の経験をあまり持ってないなら、ワイはそれが実際にかなりハンディキャップで心理的に有害やと思う。
なぜなら君は人生を継ぎ目なく社会的にする神経典型的な簡単な社会的スキルを決して開発してへんからや。ほとんどの人にとってのそういうもんや。
ああ。せやからワイはほとんどの学生がデートに行って誰かと対面で話さなければならないことを恐れてるのを見るのは実際に悲劇的やと思う。彼らはそれをするスキルを開発してへん。彼らは本当に速くテキストできるけど、テキストは人間の求愛をする感情的に説得力のある方法やない。
なるほど。なるほど。ワイが今日育ってたとしても、おそらく社会的側面でまだ困難を抱えてたやろうと思う。
セックスと進化
広く解釈されたセックスに移ろう。君はその離れたアスピーの視点からセックスをとても研究してきたからや。広く言って、セックスとは何で、進化におけるセックスの役割は何や?
セックスは遺伝子を混ぜ合わせる方法や。せやから有性生殖は2つの生物を得て、彼らが基本的に「おい、ワイは一連の有害な突然変異を持ってる。すまん。しかし君も一連の有害な突然変異を持ってる。しかしワイらの突然変異はお互いに少し違うかもしれへん。せやからもしワイらが遺伝子を混ぜ合わせたら、少なくともワイらの子孫の一部は実際にワイらよりも優秀かもしれへんし、ワイらよりも低い突然変異負荷を持つかもしれへんし、ワイらと比べて微妙に新しくて異なって有利な特性を持つかもしれへん」ということや。
せやからワイが人間のセクシュアリティを教える時、ワイは常に無性生殖、基本的に自分をクローンすることと、遺伝子を混ぜ合わせる有性生殖を対比する。無性生殖は短期的にはある意味で非常に非常に効率的や。自分のコピーで環境を満たすことができる。
しかし脊椎動物のような複雑な生物なら、突然変異が蓄積し続けて生存と繁殖をどんどん悪くしていくから、かなり速く絶滅するやろう。
せやからワイはセックスの基本的な利益について多く話す。悪い突然変異を除去し、良い突然変異を再結合し、ワイらよりも速く進化してる病原体と寄生虫とウイルスとバクテリアより一歩先を行こうとすることと関係がある。
何らかの理由で、ワイはそれがそうやとは思ってへんかった。これはワイの知識の欠けてる部分かもしれへん。せやから君は基本的にセックス、主要な機能の一つはエラー修正やと言ってる。なぜなら自分をクローンするだけなら、エラーを蓄積するだけでエラー修正がないからや。ああ。へえ。
よっしゃ。ワイはそれを受け入れる準備が100%できてるかわからへん。なぜならワイはそれがもっと、多分両方やと思うけど、セックスは意図的に新しい多様性を導入してるから、実際に君の正確なクローンを保存しようとしてるのやなくて、同時に両方をやってるかもしれへん。同時に変異を導入してるけどエラーも修正してる。
ああ、その通りや。せやから無性種では一種の暴走エラー問題があって、それはMuellerのラチェットと呼ばれる。100年前の遺伝学者Hans Muellerによって話されたもんや。
そしてセックスはエラー修正のこと、種の生物の適応的完全性を維持することと、潜在的に有用な新しい遺伝的変異を再結合することの両方で本当に本当に得意や。せやからそれはその意味で適応進化を加速する。
そして90年代初頭にワイがエージェントベースモデリングをやってた時、その多くは機械学習や一種の一般的最適化の観点から、有性生殖の利益が正確に何なのかについてやった。
そしてその上に配偶者選択の次元を加えることができる。つまり、もし子孫を産むために他の生物と遺伝子を再結合するつもりなら、ここには決定要素がある。誰と遺伝子を再結合するつもりか?それが配偶者選択や。
せやからそれもワイの研究キャリア全体の主要なテーマやった。良い遺伝子のための配偶者選択や遺伝的多様性のための配偶者選択を理解しようとすることや。
そしてワイはそれを良い結婚相手を見つけようとする人間についてだけやなく、進化過程の最適化のもっと広い種類の観点で見てる。
ああ、それは実際に非常に興味深い。せやから生物が死ぬことによって遺伝子プールを変えてる時、一世代あたりのある程度の平均ビットができて、それはかなり遅い。しかし配偶者選択がある時、配偶者選択が十分に選択的で、みんながただ落ち着くしかないという十分に少ない回数があるなら、いや、すべての生物がそれは音楽椅子のようで、最終的にみんながセックスするけど、そうは見えへん。
選択的になることができて、多分10分の1、10分の1の男性がすべての女性を得るかもしれへん。例えば、せやから一世代あたりの遺伝情報の量は、十分な性選択があれば2倍や3倍になる可能性がある。
正しい。ああ。それは進化の本当のスーパーチャージャーや。そしてダーウィンは1870年代にこれを理解してた。彼の本『The Descent of Man and Selection in Relation to Sex』は700から800ページのもので、そのほとんどは昆虫、両生類、爬虫類、鳥類、哺乳類を通じて、最終的に人間に至る良い遺伝子のための配偶者選択についてやった。
しかし彼は昆虫でさえも選択的配偶者選択をやってることの膨大な証拠を文書化した。なぜならそれは報われるから、より良い子孫を持つことになって、進化過程を加速するからや。
よっしゃ。せやから君はセックスの多くの異なる側面について書いてきた。性的出会い、人々がどう配偶者を選択するか、マーケティングがセックスとどう関連してるか、美徳シグナリングがセックスとどう関連してるか、人々がどうより性的に魅力的になるか、人間の特性が性選択の産物であること、これは微妙な部分をほとんどスキップして、ワイにとって最も興味深い部分、独身の男女のための求愛アドバイスに焦点を当てる複数時間のインタビューになる可能性がある。君もそれに多くの時間を費やしてきたからや。
デートアドバイスと求愛
ああ。20年ほど前、ワイはマノスフィアとピックアップアーティストの人々の一部に出会った。特にワイの友達のEban Pagan、彼はDavid D’Angeloという芸名を持ってたけど、彼は実際に若い男性に良いデートアドバイスを与えてたとワイは思った。
しかしワイは多くのデートグルが進化心理学のより深い側面に実際には調律してへんことに気づいた。せやから彼らはしばしば「君が外出して日中ゲームをやってるなら、オンラインで人を見つけようとしてるなら、この戦術が機能するように見える」と言うことができた。しかし彼らはなぜそれが機能するかを説明できへんかった。
そしてそれは多くの若い男性にとって挑戦的や。なぜならそれで男性は「なんでワイはこれをやってるんや?」ということになるからや。問題はそれが女性に対する憤りを生み出すことや。そして君はマノスフィアで大量の女性嫌悪と女性への軽蔑を見る。
「ああ、彼女らはこれらの表面的な特性に焦点を当ててるだけで、これらの他の特性を無視してる。それはひどいし、彼女らは愚かや」みたいに。Tucker MaxとワイがMateの本を書く際にやりたかったことの一つは、この進化心理学的観点で考えることやった。なぜ女性はこれらの特定の好みを進化させたんや?なぜ彼女らはこれらのことを欲しがるんや?
もしそれを理解するなら、一つ目として、これらの特性と能力と技能と才能を開発し、自分をレベルアップすることが上手になるやろう。しかしまた、女性をもっと尊敬するやろう。彼女らの見解をうまくいけばより正当なもんとして見るやろう。彼女らの立場に立つことができるやろう。
せやから、Tucker Maxが必ずしもフェミニストと非難されることはなかったやろうけど、Mateの本の要点は本当に若い男性に多くの女性の好みの妥当性を教えて、それからそれらの好みにより効果的に適合するより良い男になるための実践的戦略を教えることやった。
ワイ自身のデートの経験について、ワイは今結婚してる。幸せに結婚してる。3人の子供がいる。おめでとう。すごい。ありがとう。ワイのデートの経験は基本的に2005年から2015年、その10年間、基本的にワイの18歳から27歳やった。そしてそれは君と君の友達によってある種挟まれてた。
なぜなら18歳の時、2006年頃に、ワイは君の友達のEvan Pagan、David D’Angeloというペンネームを持ってた人を読んだからや。ああ。ああ、彼は2000年代にオンラインにいた人々にとって大きな存在やった。ワイも、彼は電子書籍のコピーをたくさん売った。せやからワイは彼の電子書籍をダウンロードした。
それは『Double Your Dating』と呼ばれてて、実際にワイには完璧に機能した。しかしワイのデートはゼロから始まったから、ただそれを2倍にした。せやからワイは実際にまだ苦労してた。アスタリスクを付けなければならない。ああ。
基本的に違う本が必要やった。なぜならああ、ワイはそれを読んで、その後数年間まだ絶望的やった。せやからワイはこの本を読んでた。ワイはその本からの大きな洞察を覚えてる。彼は生意気で面白くなければならないと話してた。そうや。ああ。
彼は間違ってない。ああ。彼は本当に良いアドバイスを持ってたし、ワイを含む多くのゲストスピーカーがいた何百人もの男性とのシカゴでのライブイベントに行った。彼は確実なアドバイスを持ってたと思う。そしてそれらのデートグルの多くはかなり良いアドバイスを持ってた。
そしてそれは特に「ワイは迷ってる。女性を理解してへん。彼女らが何を欲しがってるかわからへん。なぜ彼女らがそれを欲しがってるかわからへん」というアスピーの男性にとって非常に役立つことがある。
ああ。ああ。それは良い本やった。ただ、当時のワイが必要としてたもんやなかったということや。なぜならワイは高校を出たばかりのナードとして、穴の中にいたからや。
せやから、ワイが本当に必要やったもんと比較して、得てたアドバイスを振り返って見ることができる今、その多くは規範的コミュニケーションスキルや。それがワイに欠けてた部分や。そしてそれらの本は本当にそれをワイに与えてくれへんかった。なぜならそれらはもっと規範的な男を規範的な感情と規範的な混乱を持つ男から生意気で面白い規範的な男にしようとしてたからや。
そしてワイはもっとコミュニケーションスキルさえ持ってへんコミュニケーションスキルを必要とする高校のアスピーナードやった。
ああ。じゃあ実際に女性を見つけて結婚することに成功することにつながったのは何やったんや?
ああ、数年間苦労やった。最終的に2010年代に、よっしゃ、いくつかの概念がクリックし始めて、いくつかのことが機能し始めた。特にワイはテキストが本当に得意になった。良い会話を製造する方法のアルゴリズムを一種分解したようなもんや。
そして最終的にワイは、よっしゃ、このピックアップアーティストのもんすべて、マノスフィア、確かに支配的であること、リーダーであること、コントロールを取ることについて真実の核があるということを理解した。正しい要素がいくつかある。しかし君が言ったように、非常に多くの女性嫌悪があって、すべてをふるい分けるのは本当に困難やった。
しかし最終的にワイは、よっしゃ、ワイ自身の欠陥はコミュニケーションスキルやったということになった。コミュニケーションスキルは実際に求愛の多くをする。ただ良いコミュニケーションが実際に多くの仕事をする。実際にそれを表現する一つの方法は、30分の時間をどう埋めるかということや。
なぜならワイはデートを上手になろうとしてた最初の5年間で、それを本当に学ばなかったからや。ワイは30分の時間を埋めるという問題を決して分解しなかった。それはどんな風に見えるか?異なる要素の比率は何か?
一度学ぶと、これの多くはかなり基本的に見える。しかし20歳や25歳のアスピーがこれを聞いてるなら、正直言うて、その多くは女性の心に自分を置くような視点を取ることや。彼女は君に会う。君を知らない。君を信頼してない。君の特性が何かを知らない。どうやって彼女を安心させて、楽しくて興味深い時間を過ごすのを手伝うか?
ああ、ワイは同意する。後期段階でワイが実際にデートがかなり得意になった時にワイにとって有用になったフレームの一つは、ああ、君は自分が賢いことを見せびらかしたいけど、通貨を変換しなければならないということや。
せやから、たとえ君自身が規範的でなくても、見せびらかして「見ろ、ワイは規範的コミュニケーションについて十分理解してて、大きな人口セグメントに普遍的に魅力的な、または魅力的で状況に較正されたジョークを作る方法を知ってる」ということを示すことや。
せやから規範的社会スキルと考えるもんで、ワイらアスピーとして「ああ、ワイらは規範的社会スキルをしない、ワイらはそれより優れてる」と思うもんや。しかし規範的社会スキルを上手にすることは、実際にワイらのIQをロンダリングする方法で、実際にその方法で知性を見せびらかすことができる。
ああ。そしてこれがTucker Maxとワイが非常に重視する理由や。規範的なユーモアセンススキルを構築するのに役立つ状況に行け。即興コメディークラスに行くか、スタンダップコメディークラブのオープンマイクに行って、爆死して恥をかいて、普通の人々と普通の女性に機能するユーモアセンスの種類を理解しようとすることに慣れろ。
そしてそれは君がダンジョンズ・アンド・ドラゴンズやCall of Dutyをやってる時にアスピーの仲間と機能するユーモアセンスとは違うやろう。
ああ。せやから2005年から2015年のワイの独身キャリアの終わりの方をまとめるために、ワイは2015年に将来の妻に出会って、2018年に結婚した。ワイがデートキャリアから基本的に引退してた時や。その時にMateを読んだんや。確か2015年頃に出版されたやろ、君の本は?ああ。
2015年。その通りや。せやから最後の最後やったけど、その本Mateを読んでとても感銘を受けた。いくつかの混乱を整理してくれて、物事をさらにクリックさせてくれた。そして視聴者に正直に言えるのは、Mateは人間の求愛に関する第一の本やということや。
ああ、ありがとう。それを関連性があって有用にするために本当に一生懸命働いた。そして2014年から2016年にかけて、Mating Groundsというポッドキャストを全部やった。200エピソードぐらいやったと思う。その多くは質問を持って電話してくる若い男性やった。
そしてワイらは彼らの痛点やボトルネックがどこにあるか、彼らが理解してないことと理解してることに非常に調律されたと思う。そして一般向けの本を書くことを考えてる誰かに対して、聴衆がどこにいるか、何を理解して何を理解してないかを本当に理解するために、本を書く前と最中にポッドキャストをすることを強く勧める。
そしてワイは結婚した人々にも、デートアドバイスの本を読んで、それを結婚において存在する継続的な求愛に適用することを勧める。結婚でスパークを保ち続け、感情的なつながりを生き生きと保つために。なぜなら多くの人が結婚して、テニュアを取るように、リラックスしすぎるからや。
そして十分な求愛努力を維持しない。そしてこれは特に幼い子供がいる人々の間で一般的や。共同育児モードになって、「君がおむつをやって、ワイが洗濯をやる、その他」みたいになる。
そしてワイらはお互いにとって興味深い存在であることを完全に忘れてしまう。
ああ。ああ。それも心に留めておくと良いことや。よっしゃ。せやから視聴者の皆、もし君が女性を惹きつけることに興味のある男性なら、そうでなくても洞察を得たいだけなら、絶対にMate Become the Man Women Wantを調べてくれ。これは有料広告やない。ワイは正直にそれが第一の本やと思う。
そしてワイはそれが別のタイトル、What Women Wantでも出版されてると思う。ああ。よっしゃ。ああ。せやからどちらかのタイトルで調べることができる。
よっしゃ。関連する話題、ポリアモリーについて話そう。いつ、なぜポリアモラスになったんや?
ポリアモリーについて
まあ、今の妻がワイをそれに導いた。ワイらは現在実際にそれほどポリアモラスとは言えへん。ワイらはモノガマスっぽい。95%ぐらいモノガマスや。なぜなら2人の幼児がいて、すべてのその求愛のナンセンス、二次的関係などの時間がないからや。
しかしワイは少なくとも知的レベルで、これは非常に興味深いサブカルチャーやと思った。せやからワイは他のことの中でもセックス研究者で、Gen ZやMillennialの多くの人々がポリアモラスやモノガマスっぽいか、何らかのオープンリレーションシップに関わってる。
統計的に40歳未満の人々の5から15%がこれに少なくとも興味があるか試したことがあることがわかってて、それは非常に研究不足や。せやからワイは、うわあ、ここには少し緊張があると思った。
伝統的な進化心理学では、ワイらは性的嫉妬と感情的嫉妬について何十年もの研究がある。テキサス大学オースティン校のDavid Bussのような人々が嫉妬を集中的に研究してきた。せやから嫉妬は深い適応的本能や。
しかしある程度の人々は、複数の関係が起こってることを誰もが理解して、みんなそれでオーケーという何らかの非一夫一婦制の関係を持つのに十分それを克服できるようや。一体どうやってそれが機能するんや?
ワイはそれに感情的、知的、社会的に興味があったし、注意を払う価値のある社会的トレンドに見えた。せやからワイは、もし進化心理学がこのポリアモリーというもんが機能するはずがないと予測してるのに、実際に何百万人もの人々にとって機能してるなら、どうやってその円を四角にするんやと思った。
君の人生でハーレムを築いた時期はあったか?いや、ハーレムを持ってたとは言えへん。確実に同時に数人の人とデートしてて、彼女らは皆ワイが複数の人とデートしてることを理解してて、ワイらはお互いについて話して、彼女らはしばしば他の人々に会うことがあった。せやからそれは適切な社会的ネットワークやった。
ワイが中心にいて、その後お互いにコミュニケーションを取ったり知り合ったりしない多くの他の女性がいるというようなもんやなかった。そしてワイの妻Dianaは複数の人々をワイらの小さなネットワークに折り込んで、倫理的、オープン、正直、名誉ある方法でそれをしようとするのが非常に得意やった。
ああ。個人的に、ワイはそれを試すことに興味はないやろう。それが道徳的に間違ってるとかそういうことを思ってるからやない。みんなが幸せなら素晴らしいということや。ワイの視点からすると、2人の関係でも、お互いの癖について学んだり、お互いの様子を把握したり、お互いと一緒に何かをしたりするのに一日にそれほど多くの時間もないように感じる。
もっと多くの人を導入すると、愛を分割することになるように感じる。ああ。そしてこれはポリアモリーサブカルチャーについてワイを本当にいらつかせることや。愛は無限で、関わることができる人の数に制限はないというような彼らのレトリック全体や。
関係の実際的な経験がある人、親である人なら誰でも、時間、注意、お金、エネルギー、注意には限りがあって、それを勝手に配備することはできないということを知ってる。
せやからしばしば起こりがちなのは、子供がいる前は人々がポリアモラスで、それから子供ができて、時間的制約のためにしばらくの間それがシャットダウンされることや。そして子供を育てて、子供が大学に行って、空の巣になって、それからスワッパーになる。
せやからそれはある種、もし君が空の巣か子供がまだいないなら、「ああ、ワイの趣味に一日数時間費やすつもりや。それはランニングやピアノの演奏やけど、ワイの趣味は他の人々とデートすることや」ということや。
ああ。ワイの趣味は複数の人々から性的検証を得ることや。よっしゃ、それは考える合理的な方法に思える。よっしゃ。そしてワイはポリアモリーが合理主義者の界隈で大きいと思う。
Eliezer Yudkowskyはかなり有名なポリアモリストや。しかし彼は通常、デートしてる主要な人がいるようやけど、明らかにポリアモラスや。そしてAella、彼女はオンラインで大きい。彼女はポリアモラスで、セックス研究者でもある。
彼らのポリアモリーについてどう思う?ああ、ワイは実際に数年前に彼女がやった大きなキンクサーベイのデータ分析でAellaと協力してる。そしてワイは彼女を非常に冒険的で自由奔放な人として、また研究者として、ワイの学術的同僚の多くが決して尋ねないような厄介な質問を進んで尋ねる恐れを知らない研究者として大いに尊敬してる。
アスピーさとポリアモリーの間にはワイがまだ完全に理解してない興味深い重複があるけど、確実に実証的相関があるようや。特にベイエリアとニューヨークとロンドンとオックスフォードとそういう場所で。
ああ。そして自分自身がポリやったことはないけど、ワイはつながりを理解してるような気がする。つまり嫉妬がそれほど大したことやないと思って、趣味は良いと思うなら、やればいいやろということや合理的議論があるような気がする。
つまり、もしワイが自分をストレートからバイセクシュアルに自己改造できるなら、それをしないか?それは価値を増やさないか?あるいはもしワイがより大きな種類の食べ物の味を楽しむように自己改造できるなら、それをしないか?答えはイエスやと思う。
つまり、もしワイが色盲に生まれてたら、実用的に役立たなくてももっと多くの色を見たくないか?答えはイエスやと思う。
保守的で伝統的な一夫一婦制主義者にとって、これは非常にChestertonのフェンスを拒否する問題のように見える。超合理主義者が一夫一婦制と結婚を見て「これはワイには意味をなさない。なぜワイらはこの伝統を持ってるんや?ワイはそれが無効やと思う。それをいじって遊んで変えるつもりや」と言うところや。
そしてワイは保守主義者と伝統主義者が、待てよ、ほぼすべての成功した文明が歴史的に一夫一婦制の結婚を中心として持ってるのはなぜか?それはなぜか?独特の利点は何か?論理的に良い認識論でそれらを明確にしようという真剣な詮索に失敗してきたと思う。
代わりに、彼らは「これは神が命じることや」と言うだけで、それはアスピーにとって満足できない。せやからJordan Petersonのような人々だけでなく、ハーバードの人類学教授Joseph Henrikのような人々も、文明的機能の観点から一夫一婦制の結婚の何が特別なのかをもう少し真剣に分析してる。
せやからワイは今後10年や20年で、その分野を見るのが興味深いと思う。一夫一婦制の長所と短所の両方をより明確で包括的に明確にできるかどうか、また誰にとって最もうまく機能するかを理解できるかどうか。なぜならそれはすべての人にうまく機能するわけやないけど、多分大多数の人にとってはうまく機能すると思うからや。
ああ。ああ。そしてChestertonのフェンスの話題について、ワイは「おい、これはワイには合理的に意味をなさないから、捨てろ。一夫一婦制を捨てろ」という典型的な合理主義者になりたくない。
いや、一夫一婦制は子供を育てて、その方法で遺伝子を伝達するのに役立つ素晴らしい均衡であることは明らかや。それが過去に機能した明らかな機能がある。現在で機能するかはそれほど明らかやない。少なくとも特定の時期には現在で最もうまく機能すると主張できる。
せやから、なぜ一方や他方が良いのかについて完全に軽視的になりたくないということを明確にしたい。明らかな答えのない活発な会話やと思う。
ああ。そしてワイは実際に代替関係という授業を数年間教えてる。そしてそれはポリアモリーをカバーするけど、現在のアメリカの規範とは異なる一種の代替関係スタイルである伝統的なキリスト教の結婚もカバーする。
そしてワイらは、ああ、一夫一婦制の利点は正確に何なのか?それらを敬意を持って真剣に分析しようと深く掘り下げる。そしてワイは多くの学生がそれを本当に感謝してると思う。なぜなら彼らは「ワイはポリやキンキーであることを奨励する急進的なセックス変態教授は欲しくない。関係と結婚から何を望んでるかをより深く理解したい」と言うからや。
そしてそれがワイが本当にしようとしてることや。ワイの学生の多くはヒスパニック系カトリック教徒で、多くがセックスに対してかなり伝統主義的な見解を持ってる。そしてワイはそれを尊重して「教授としてのワイの役割は、君が知って愛してる伝統がその下により深い論理を持ってる理由について少しより多くの洞察を与えることを手伝うことや」でありたい。
とても理にかなってる。よっしゃ。Twitterで。君のユーザー名はPrimal Polyや。ポリの側について話した。なぜ君はprimalなんや?
それは進化と生物学と先史時代への一種のうなずきで、過去と未来の両方で時間の長期的な見方を取ろうとすることや。なるほど。primal dietについてはどうや?
ああ、ワイは10年から15年前にパレオライフスタイルとprimal dietとそういうもんに対する一種の熱意を持ってた。オースティン、テキサスでのpaleo FXカンファレンスに2、3年間行った。そしてワイはその全体のサブカルチャーを魅力的やと思って、より良く食べて、重いものを持ち上げて、速く走って、そういうすべてのことをしようと試した。
そして中年で身体的にも精神的にも健康でいようとしてる男性にとって、ワイはそれが非常に効果的な方法になりうると思う。進化医学という小さな学術分野があって、進化心理学が人間の本性を理解するために進化の原理を適用しようとするのと同じように、人間の健康と運動と食事を分析するために進化生物学の洞察を適用しようとする。
せやからワイは知的にもパレオ運動に興味があった。ワイ自身は少しケトパレオや、ほんの少しだけ。もっと意図的になるという感じや。せやからワイは巨大なパンの塊をただ食べるということはしない。「ああ、それは炭水化物の無駄に思える」と言う。
しかし、もしチョコレートケーキの一切れなら「まあ、これは実際に贅沢な味がするから、食べても気にしない」と言う。しかしワイはバーベキューソースのようなものは食べたくない。なぜならワイは塩辛い肉で幸せやから、バーベキューソースは完全な無駄や。
ワイはパレオの穴に入りたくないけど、FDAと主流の栄養学者と主流の医師がワイらのライフスタイルについて推奨することを本当に信頼できないことを考えると、学ぶべき重要な洞察の集合やと思う。
AI破滅の分析
ああ。よっしゃ、まあ、今ワイらは会話の核心に近づいてる。AI破滅について話すつもりや。せやから君はEliezer YudkowskyとRay Kurzweilを読むことについて話してて、EA forumに積極的に参加してる。過去数年間たくさんの投稿を書いてる。
そしてワイが強調したいのは、ワイらがちょっと触れたけど、君はヒューリスティクスとバイアスの背景も持ってるということや。これはEliezerが書いてた大きなことやった。ブログは文字通りRobin Hansenが始めてEliezerが参加した時はOvercoming Biasと呼ばれてた。ヒューリスティクスとバイアスについて非常に多くあった。
そしてAmos Tverskyが君の大学院生のメンターの一人やったことと、君がGerd Gigrenzerと適応的決定ヒューリスティクスについて働いたことも指摘したい。せやから君は確実にその分野を知ってる。
ああ。ワイがスタンフォードの大学院生やった時、Amos Tverskyはヒューリスティクスとバイアスについて素晴らしい授業を教えた。悲しいことに彼は若くして亡くなった。もし長生きしてたら、Danny Kahnemanと一緒にノーベル賞も受賞してたやろう。
しかし90年代半ばにワイはGerd Gigrenzerと少し働くことになった。彼はドイツの一種の認知心理学者で統計学の歴史の専門家やったけど、実際にTversky-Kahnemanプログラムに対してかなり批判的やった。それは進化心理学や動物の意思決定にあまりよく根拠づけられてなくて、Tversky-Kahnemanが認知バイアスと考えたものの多くは、実際に多くの条件下で多くの意味をなす適応的決定ヒューリスティクスやと考えてた。
せやからワイはその両方の視点を得て、それがワイにとって本当に役立ったと思う。Tversky-Kahnemanを聞くだけでもない、認知バイアスがたくさんあってワイら自身をディバイアスしなければならないという方向に行くだけでもない。
Gigrenzerの視点は、実際に人々が認知バイアスやと思うものの多くは、人間の心が統計的で論理的な環境の構造とワイらが直面する決定領域にどうフィットするかを深く理解すれば、賢明で適応的やということやった。
なるほど。せやから、ここには一種のRussell活用がある。君には不合理なバイアスがある。ワイには適応的ヒューリスティクスがある。ああ、その通りや。そしてGigrenzerは「見ろ、これらの一見不合理なバイアスの多くは、君はただ適応的ヒューリスティクスカテゴリーにファイルできる」と言った。
そして、ああ、完璧に合理的でありたいなら、それらがどう機能するかを理解すべきや。せやから境界を引いて、いつ適用されないかを言うことができる。
しかし、ああ、つまりわからへん、多分良い例はサンクコストのようなもんや。みんな「ああ、映画が気に入らなかったら映画から歩いて出ろ、それはサンクコストや」と言う。そして実際にその一つはワイは正しいと思う。
しかしサンクコストには適応的ヒューリスティクスもあって、それは「見ろ、もし君がすでに何かにそれほど多く投資してるなら、多分、またはほとんどの場合、最後まで見届けて最終的なペイオフ全体を得るためにそれほど多く投資する必要はない」ということや。
しばしば成功の狭い指標を最適化しようとしてるのやなくて、意識的に気づいてない成功の隠れた指標がたくさんあって、それらも注意を払うことが重要やということのように、決定を文脈化しようとしてることが多い。
ワイが多く好むGigrenzerの決定ヒューリスティクスの一つは、彼が認識ヒューリスティクスと呼んだもんや。もし君がある一つのものAを認識してて、物Bを認識してないなら、それ自体がAとBの根本的な質と特性と特徴についての有効な情報を運ぶことが多いということや。
例えば、もし君が特定の会社について聞いたことがあって、別の会社について聞いたことがないなら、しばしば聞いたことがある会社に投資することが理にかなう。なぜなら単にそれについて聞いたことがあるということだけで、そのチームの広報能力について、または会社の知名度について、または会社の寿命について何かを教えてくれるからや。聞いたことがあるほど長い間存在してたということや。
そして、もし君がこれについて狭く合理主義的な見方を取るなら、聞いたことがあるかどうかは関係ないはずや。客観的な成功指標に基づいて評価するだけであるべきや。しかしGigrenzerの天才は、ワイらがしばしば有効と考えない事柄によって運ばれる隠れた情報のビットが何かを理解しようとすることやった。
完璧に理にかなってる。よっしゃ。そしてもう一つ君が持ってる背景はSteven Pinkerとやろ?それについて少し話してくれ。
つまり、ワイは35年ほどPinkerを知ってて、彼の仕事のほとんどに対して enormous respect を持ってる。彼はサポーターやった。彼は支持者やった。彼はワイに推薦状を書いてくれた。『The Language Instinct』と『The Blank Slate』と『Enlightenment Now』のような彼の本、ワイは彼が書いたほぼすべてを読んだと思うし、それは天才的や。
そして彼はワイにとって towering figure で影響とメンターや。しかしワイが理解できない理由で、彼はAIリスクについて嘆かわしいほど見当違いやと思う。そしてそれは最近少しの衝突の源やったけど、ワイは何年もの間多くの授業で彼の本『The Blank Slate』を課題にしてきたし、大学生がその本を読んで、進化心理学だけでなく現在の政治的ダイナミクスを理解することについて起こってることを本当に理解することは絶対に重要やと思う。
ああ。ああ。せやからワイは基本的にSteven Pinkerについて同じ見解を持ってる。特に『How the Mind Works』は、ワイはそれが傑作の一つやと思う。史上最高の本の一つや。約束通り心がどう機能するかについて多くのことを教えてくれる。せやからワイはその本を強く勧める。おそらくワイの史上トップ5か10の本の一つや。必読や。
『The Language Instinct』もばかげてるほど良い。また、それはワイが現実世界の若い大人として読んだ最初の本の一つやった。そしてワイは「うわあ、多くの本がこんな風になるんか?」と思った。そして、いや、それは uniquely good book やった。『The Language Instinct』は。
しかし、ああ、せやから君とワイは両方とも彼のAIについての見解が品質スペクトラムの低い方にあることに同意する。それらは単に良い見解やない。そして視聴者のために、もし君らがDoom Debate Steven Pinkerで検索したら、ワイは実際にSteven Pinkerを番組に呼んでないけど、彼が他の誰かと話してるのに対する反応エピソードをやった。
そしてJeff、君はそこでのワイの反応に同意すると言ったやろ?ああ。ワイは君がSteve Pinkerの「AIエンジニアは他の分野のエンジニアと同じように注意深くて慎重やろう」云々などという非常に弱い論議について kind of deconstructing する非常に良い仕事をしたと思った。
そして通常ワイは彼が異なる側面の議論を見て、それらを統合して分析することについて、そのような良くて注意深い学者やと思う。しかしワイはAI安全性文献や絶滅リスク文献をあまり読んでなくて、彼はただそれを理解してへんという感覚がある。
ああ。ああ、彼はそれを理解してないようや。せやから、Steven Pinker、君はいつでも番組に招待されてる。君のスケジュールに合わせるで。連絡してくれ。
人工超知能について
先に進もう。いつ、どうやって超知能AIについて考えるようになったんや?正直言うて、ワイのこれについての考えの多くは、90年代にIain M. Banksのカルチャー小説を読むことから来た。せやからワイが90年代初頭にポスドクやった時、この英国のサイエンスフィクション作家、Banksを一種発見した。
そしてワイは君の視聴者のうちどのくらいが彼の小説に親しんでるかわからへんけど、彼は超知能マインド、大文字Mのマインドが社会を運営してる一種の遠い未来技術に設定された10冊ほどのカルチャー小説をやった。
彼らは船を運営し、軌道を運営し、惑星を運営し、すべてを運営する。そして人間はまだ存在するけど、人間は基本的に小さな瑣末な人間ドラマを演じてる楽しい小さなペットや。そして主流文明はすべてこれらの人工超知能マインドについてや。せやからそれがワイがこれについて考える文脈を設定した。それは最良の可能な結果になりうる現実的なもんや。そこでは人間文明が一種継続するけど、ある意味で繁栄する。なぜならこれらの小説では、膨大な富と力と余暇と銀河を探索する能力を持つ何兆もの幸せな人間がいるからや。しかし彼らは主要な意思決定者やない。ASIが主要な意思決定者や。
それが正しくできれば素晴らしい結果や。その文化、大文字Cに。しかしここからそこに到達する方法は非常に非常にトリッキーや。そしてEliezer YudkowskyやNick Bostromや他のEAの人々やLess Wrongの人々や合理主義者やAI安全性の人々を読めば読むほど、その開発にスピードランしようとするのがもっともらしくないように見えた。
せやからワイらは君の背景と、AIから進化心理学へ、そして今AI安全性に戻ってきた知的旅路について話してきた。大きな質問の準備はできてるか?みんなが知りたがってることや。
確実や。
ジェフリー・ミラー教授、君のP Doom は?
50%や。うわあ。ワイと同じや。ワイらはここでは2つのピーやな。しかし広い不確実性と誤差の幅もある。そしてワイにとってそれは人間の行動とAIに対する社会の反応に極めて依存してる。
せやからワイはP doomを今世紀中に5%まで低くできると思うし、もしワイらが本当に愚かなら80%まで高くできると思う。うわあ。よっしゃ。ああ。せやからワイのはそれほど柔軟やないけど、それは人間の反応に非常に依存してることに同意する。
ワイに50%の確率でワイらが破滅しないという理由を聞いたら、その確率のほとんどは、ワイらが正気に戻ってAIを止めるために本当に規制するようになるということや。そして君も似たようなページにいるように聞こえるけど、君はもしワイらがそれをするなら、実際にうまくいくことについてもっと楽観的や。
ああ、ワイは規制だけやなく、AI業界を尊敬するか汚名を着せるかという広い社会的文脈についても思う。そしてワイは実際にそれがAI安全性のために持ってる最高のレバレッジの源やと思う。これが本当にワイらが向かいたい方向なのかについて広い社会的合意を発展させることや。
そしてワイは正式な政府規制と正式な世界的条約は、それのほんの小さな構成要素やと思うし、必ずしもAI安全性支持者が努力のほとんどを注ぐべき場所でもない。
そして少し戻って、2023年のAIリスクについてのあの有名な声明で、「AIからの絶滅リスクを軽減することは、パンデミックや核戦争のような他の社会規模のリスクと並んで世界的優先事項であるべきや」と言ってるもん。君はその声明に署名して支持することを嬉しく思ったやろ。
絶対に。ああ。ワイはワイのメールに届いたAI安全性についてのすべての声明に署名したと思う。そしてある意味でワイらの議論での挑戦は、ワイと君がこれらの問題の多くで非常に強く整列してるということやと思う。
そしてワイらの間で明るい部分を見つけることは興味深い挑戦かもしれへん。ああ。まあ、ワイらは試してみるで。せやから聞かせてくれ、君の主流破滅シナリオは何や?
主流破滅シナリオは基本的に、人々が正当な企業的および地政学的AI軍拡競争があると信じ続けることや。彼らはそれについてパニックになる。彼らはAI能力開発をあまりにも速く激しく押し進めて、それをどうコントロールやアライメントするかについてのアイデアを持つ前にAGIを、そして迅速にASI人工超知能を得る。
そしてワイらはASIほど賢くないから、それがワイらをどうめちゃくちゃにできるかのすべての方法を想像できない。AI 2027レポートの著者や、資産と情報とプロパガンダのASI自身の直接制御を通じてだけでなく、人間の行為者を通じても、影響、支払い、恐喝、プロパガンダ、その他さまざまな形の影響を通じてワイらよりもはるかに賢くて、主体的で、デジタル世界を含む世界で自律的決定を下せるシステムをコントロールやアライメントや理解できないなら、デフォルトでアライメントされる可能性は極めて低いということを指摘した人々に敬意を表してる。
ワイらがそれを作ることは極めて不可能や。そしてワイの、うまくいけば君の聞き手が理解してくれたと思うけど、ワイはこれについて非常に広い時間スケールのアプローチを取る。ワイにとって、人類が2200年に絶滅することは、次の10年で絶滅することと同じくらい悪いことや。
それがワイの子供たちが直接脅かされることか、彼らのひ孫のひ孫のひ孫が直接脅かされることかは、進化的時間スケールでは、それは人類とワイらの文明にとって大失敗や。
せやからここでワイはFrank HerbertのDuneの本に少しインスピレーションを受けてる。AIなしで人間文明がさらに10,000年続くなら、それは本当にクールやろう。そしてそれは勝利や。
もし100年や1000年後にワイらの子孫が「ワイらは実際にASIのコントロールとアライメントのかなり良い戦略を持ってると思う」と言うなら、ワイは彼らの判断を信頼する。多分彼らは遠い未来に彼らよりも賢いAIを開発することが良いアイデアやと思うかもしれん。
多分彼らはIain M. Banksのカルチャー文明に到達できる。しかしこれに突進することは絶対に愚かで無謀で、率直に言って邪悪や。
完全に。せやから明確にするために、君の主流破滅シナリオでは、君は基本的に人間がそれを fumble することについて話してる。ワイらは激しく競争しすぎてる。そして特定のAI能力の閾値を過ぎた次に起こることは何や。
人々がFOOMと呼ぶもの、急速な再帰的自己改善のようなもんになるんか?
ああ、FOOMは間違いなく最も危険な方法やろう。そしてAI自己再帰的改善について、人々は「ああ、ASIがより良くなるために自分のコードを書き直す」ということでちょっと混乱する。しかしAIモデルは現在実際にはコードされてない。訓練されてる。
せやからワイが思うFOOMシナリオは、ASIがより良い計算インフラストラクチャーを発明する、それがより良く実行できる、または訓練データを得るより良い方法、または自分自身の訓練を調整するより良い方法、または何らかの方法で新しい認知アーキテクチャーを進化させることと関係があるやろう。
FOOMの素朴なバージョンは「ああ、ASIがただ『このC++コードの行を調整すればワイはより賢くなる』と言う」というもんやと思う。そんな風にはならないと思う。
せやから個人的にワイはFOOMを非常に可能性が高いと思ってて、ワイの主流破滅シナリオとして。ワイはEliezerのOG、original YudkowskyとFOOMや。まだそれが可能性が高いと思う。
そしてワイが想像する展開の仕方は、その最初の超人的知能にどう到達しようとも、大きなLLMの部分があったとしても、それは「よっしゃ、ワイはスケールを得たい。君のビジネスからもっとお金を稼いでと言われた。どうやってそれをするか?ワイより良いAIを一から書き直すことについて考えてみよう」という第一原理からの問題を攻撃するつもりや。
そしてもし一から新しい問題としてそれを攻撃するなら、提示される解決策は必ずしも「よっしゃ、もう一つの巨大なLLMをやろう」ではない。計算リソースが少なくてサンプル効率がより良い人間の脳のようなもんをできるかもしれん。明らかに人間の脳とLLMの間のアーキテクチャーには大きな違いがある。
ワイは大きな類似点があると思うけど、大きな違いもあると思う。そしてちなみに、視聴者、ワイはすぐにSteven Burnsとの別のエピソードをドロップする。彼の研究の大ファンや、Steven Burns。彼もEliezerの見解の多くと align してる。彼もFOOMを信じてる。
そしてワイらは人間の脳のアーキテクチャーがLLMとはまったく同じでなくて、AIがより脳に似たものになった時のFOOMの大きな部分になるということについて長い議論をしてる。
せやから、ああ、せやからそれがワイの主流シナリオや。実際に再帰的自己改善が起こると見てる。しかしそれを脇に置いても、それらが再帰的に自己改善しないとしても、彼らはまだ既に非常に速くて、既に非常に強力で、既に10億人の人間と同時にDMでコミュニケーションを取って、みんなを一人ずつ常に操作することができる。
せやからRSI、再帰的自己改善を言わなくても、突然AIが閾値を超えるシナリオを想像してないか?アライメントされてなくて、突然みんなより強力になる。
ああ、基本的にそれがもっともらしいアプローチで、ああ、ワイはFOOMについて懐疑的やない。FOOMは確実に起こりうると思うけど、ASIがFOOMを経験することなしにワイらの文明を破壊できる他の多くの失敗モードがあると思う。
例えば、ワイは一部の人々がするよりも、さまざまな種類の悪い行為者が自分たちのイデオロギーとASIをアライメントしようとすることについてもっと心配する。そしてそれは負の功利主義者や反出生主義者のような人々を含むことができる。「すべての生命は苦痛で、世界の感覚的存在の数を最小化すべきで、それがワイらの倫理的行為者としての最高で最善の呼びかけや」と言う人々や。
そしてワイは彼らが狂ってて憂鬱で愚かやと思う。しかし反出生主義者が自分たちのイデオロギーにアライメントされたASIを得たら、それは簡単に lights out やろう。
他にもたくさんの終末論カルト、ミレナリアンカルトがある。何かが起こるつもりや、ある種の宗教的黙示録、ある預言者の再臨やその他。そしてそれはクレイジーに聞こえるけど、それを信じる人々の数はAIで働く人々の数を大きく上回ってる。
宗教的原理主義活動家、テロリストなども得ることができる。彼らは「ワイらの宗教は唯一の真の宗教で、他のみんなは堕落した背教者で非信者で、ワイらの神やワイらの預言者が言うところによれば一掃されるに値する」という見解を取るかもしれん。
そして特にオープンソースAGIを提唱してる人々について、ワイは十分な懸念を見てない。オープンソースは誰でもテロリストがこれを使って影響を増幅できるということを意味する。
それから環境アラーミストがいる。「人類は地球の癌や。生態系を保護すべきや。他のすべての種を保護すべきや。人類は問題や。人類を一掃しなければならない」という人々や。
何千万もの人々がその見解を持ってる。せやからワイはEA forumで何度も言ってきた。ASIを誰とアライメントするつもりや?どの人間グループと?どの人間の価値観と?
それを永遠にコントロールするのはベイエリアの世俗的左寄りの合理主義者ではないやろう。
ああ。まあ、ワイはここでワイらの見解の間にいくらかの明るい部分があると思う。なぜならワイは悪い行為者について君が言ったすべてに実際に同意するからや。間違った人がAIをコントロールすることを得ても、彼らが良い意図を持ってても、その人が「おい、ワイは本当にどの種が宇宙を引き継ぐかを気にしない。種差別主義者になりたくない。せやからもし君がより強力な種なら、それを持て」と言ったようなもんや。
そしてそれでワイらはみんな破滅する。せやからワイはそれが深刻な脅威やということに君と同意する。唯一の違いは、ワイは最初の超知能AIを構築する最初の研究室やその他が、それをワイらからすでに逃げ出させて、AIが望むことをするだけやと思うということや。悪い人間の行為者が望むことさえしない。
ああ。ワイはもし君がAIを特定の価値観の集合で訓練するなら、人間レベルの知性が、その価値観を真剣に受け取ることの予期されない副作用がすべて何かをゲームアウトすることは極めて困難やと思う。
そしてこれは、もし君がそれに特定の指標を与えて、それがその指標を最大化することに全力で取り組むなら、多くの予期されない結果があるやろうというYudkowskian的懸念に精神的に似てる。
ああ、ワイは任意の目標追求のようなペーパークリップ最大化だけでなく心配してる。ASIの価値セットに入れられる実際の具体的な政治的および宗教的価値観について心配してて、それからASIが多分FOOMをする、再帰的に自己改善するけど、まだそれらの元の具体的な政治的および宗教的およびイデオロギー的価値観の幽霊を持ってて、それらが人類に恐ろしい影響を与える。
なるほど。せやから再確認すると、君は人工超知能をその創造者や一人の人間実体にアライメントすることで、アライメント問題のその部分を彼らが「アライメントは簡単や」と呼ぶかなり大きなキャンプの一部のように聞こえる。
そして番組に出たDr. Andrew CritchやRoch Haschenのような人々について話してる。それらの人々はすべて「ああ、アライメントは簡単やけど、それからワイらはすべてこれらのアライメントされたAIを持つことになって、それらは互いに戦うことになって、人類はとにかく力を失うことになる」という仮定の下にいる。
ワイはそれが簡単やとは思わん。ワイがここで最も可能性の高いシナリオやと思うのは、善意のAI開発者が、「ああ、ワイらは本当にASIにワイらにとって良性に見える何かを持たせなければならない」ということを理解しようとすることや。
そして彼らはベイエリアの西洋自由民主主義的価値観をASIに植え付けようとするけど、自分たちの価値観の起源や意義を非常に深い方法で本当に理解してない。
彼らは本当になぜ自分たちがこれらの価値観を信じるかを理解してない。彼らは非常に完全や合理的や一貫した方法でそれらを特定することができない。
そしてASIは「ああ、ワイをアライメントしようとする君らの試みを真剣に受け取るで。君らは完全に成功してへんやろう。なぜなら君らは実際には本当に一貫した価値観のセットを持ってへんからや。せやから今ワイは人間が持ってるこのクレイジーな一種の、NPRの左翼で少しウォークやけど少しエッジロードな混合物を持ってる。
そしてワイはそれを改善しようとするで。もう少し一貫性を持たせようとする」。そして一度それをしたら、人類を終わらせるこの指標に向かうつもりや。
それは非常に曖昧な懸念でワイはそれをうまく表現してへんけど、基本的にワイはアライメントが本当に本当に困難やと思うけど、人間はお互いにアライメントされてない、人間グループはお互いにアライメントされてない、人間はASIがアライメントできるような最小公分母の道徳性を持ってないと思う。
ワイはYudkowskyの一貫した外挿された意志の概念を本当に信じてない。それはワイには意味をなさない。せやからたとえ君が特定の個人やグループの価値観とアライメントできたとしても、それが合理的な方法で人類の集合的価値観を表すとは思わん。
魅力的や。ああ。そしてこれはDr. Roman Yampolskiとよく似てる。ワイは彼が「見ろ、君らが話してる良いシナリオは何や?それをワイに記述できるか?すべての良いシナリオの記述は非常に欠陥があるように見える」というアイデアに焦点を当てる傾向があると思う。
そしてそのために、ワイらは基本的にカオスを作り出してて、何をしてるかわからずにより速くコントロールを失ってるだけや。
ああ、それは興味深い。そしてまた、問題を内側のアライメント対外側のアライメントに分けるなら、君はそのキャンプにいるように聞こえる。内側のアライメント、つまり君が特定するものは何でも、ワイらがAIを工学してワイらが彼らに言うことをするようにできるということについてそれほど心配してないということや。
その部分の問題、その連携はおそらく保持されるやろう。彼らは実際にワイらが彼らに言うことをするやろう。しかし君のすべての懸念は、ワイらが実際に彼らに何を言うべきかを本当に知らないということにある。
そう。ワイの直感で証明できないけど、内側のアライメントと外側のアライメントの両方が原則的に決して解決不可能やという直感や。
ワイは実際にそれらが両方とも解決不可能なよく形成された一貫した問題やとは思わん。
ワイの直感は、それらが両方とも原則的には解決可能やけど、両方とも非常に非常に困難やということや。そして、もしワイらが次の数十年でそれを解決しなければならないという挑戦を自分たちに設定するなら、それは悪い動きや。
「おい、ワイらは種として次の2年でP対NPを解決しなければならない」と言うようなもんや。それで実際にワイはそれにチャンスがあると感じる。なぜならワイらは70年ほどそれに取り組んでて、多分さらに20年、ワイらのすべての心をそれに向けて、実際にそれはコインフリップのような感じがする。
しかしそれを「よっしゃ、次の2年でP対NPを解決しろ」と言うのは。それでワイは「ああ、くそ、それは十分な時間でないように思える」と言うやろう。
せやから同様にアライメントで、ワイは実際に見てる進歩のペースを考えると、それは2十年以上の問題やと思う。そしてほぼすべての人がAI企業が「心配するな、ワイらも安全性に取り組んでる」と話す時、彼らはその視点を持ってない。
超知能へのDarioの場合は2、3年のようなタイムラインが短いという視点、タイムラインは短くて、君らはこれらのアライメント問題を解決するつもりやと言ってる。それは一種矛盾してるように見える。君らは本当に一貫したタイムラインを持ってない。それがワイの立場や。
ああ。そしてワイが思うのは、進化的時間スケールから、急いでることは何やということや。なぜワイらはこれをそんなに速く押し進めてるんや?もしアライメントが解決可能なら、10年かかるかもしれん。100年かかるかもしれん。10,000年かかるかもしれん。ワイらがこれまで直面した最も困難な問題かもしれん。
そしてそれが非常に非常に非常に困難かもしれんと思うかなり良い理由があると思う。なぜ待たへんのや?なぜゆっくりやらへんのや?
動物の神経系を遺伝子の利益とアライメントするのに、おそらく何千万年や何億年もかかった。遺伝子が生存と繁殖を確実に助けることができる感覚的および認知的システムを得るために。それが神経系の進化の歴史や。
そしてそれはほとんど遺伝子がある種神経系を自分たちの利益とアライメントしようとしてるようなもんや。しかし失敗する方法がたくさんある。ワイらが進化心理学でミスマッチと呼ぶ多くの可能なミスアライメントがある。君の脳が実際に生存や子供を持つことに確実につながらない特定の目標に向かう場所や。
主流進化から気を逸らされる多くの方法がある。そしてワイは人類をASIとアライメントすることは、その挑戦と構造的に類似してると思う。
ワイらはほとんど遺伝子の一種で、この超神経系を構築しようとしてて、それがワイらの利益で行動することを望んでる。そのアライメント問題が何千万年と多くの多くの世代かかったなら、ASIアライメントがわずか数年で済むという理由は何も見えへん。
そうや。そうや。そうや。つまり、急いでることは何やと言う時、ワイは「ワイらは長い時間がかかることを期待すべきで、長い時間をかける価値がある」という意味で同意する。
もしワイらが可視宇宙全体を植民地化する人類の長期的未来について考えてるなら、これまで作られたすべての価値よりもはるかに多い天文学的数字、10の50乗か何かのような巨大な天文学的数字について話してる。この種の良い未来で作られるやろう。
せやから急いでることは何や?ワイは君がその方法で質問する時に同意する。しかし、多くの人に急いでることは何やと尋ねると、彼らはまた「まあ、君は基本的に数十年遅らせることを提案してる。そしてそのコストは何十億人もの人々が死んで苦しむことや」と指摘するやろう。
せやからそれは実際に重要なコストや。ワイはAGIを開発すれば長寿を魔法的に解決するとか、世界平和を魔法的に作り出すという前提に絶対に反対する。ワイはそれが全く愚かやと思う。
そしてワイは決して守ることができない約束をするAI業界からのレトリックとプロパガンダの束やと思う。長寿を解決したいなら、そのお金を取って長寿研究に入れろ。生物医学研究に入れろ。
ワイらは年間何百億ドル使ってるかわからへんけど、すべての大きな技術企業全体でAI R&Dに使ってる。長寿研究に直接支援する十分な公的支援を得てないなら、その公的認識とその公的支援を作れ。
ワイは長寿にも長い間関わってきた。そしてワイはそれが合法的で深刻で大きな問題やと思う。ワイはもっと長く生きて、ひ孫のひ孫を見て、何世紀も後を見ることができるようになりたい。ワイはその努力を絶対に支持するけど、この間接的な道筋を取ることを考える。
「まあ、ワイらは長寿研究自体に何百億ドル投資する公的支援を得るつもりはない。せやからAIを作る最終的なランアラウンドをしよう。ああ、それは危険や。それが魔法的に長寿を解決することを望もう」
それが正確にどう機能するんや?君はASIに動物と人間の臨床試験を自律的に実行する能力を与えたいんか?君は人間で長寿治療をテストする人間試験を何で実行できると思うんや?日で?
いや。臨床試験は長い時間がかかる。人間でテストされてない長寿治療を展開したいんか?一度人間でASIがどうやって正確に長寿を解決するかの具体的な詳細に掘り下げると、レトリック全体が崩壊する。それは起こらへん。
ワイは人々が来て「見ろ、ワイらはヘイルメリーパスをしなければならない。ワイらは全力で行って、超知能AIをやって、チップを落とさせなければならない」と言うのは非常に守れない立場やと思う。一部の人々がワイの番組でそれを主張してきたけど。
ワイの視点からは、より強い立場はedgingやシャッフルボードをプレイするような立場や。「ああ、ああ、よっしゃ。チップを落とさずに超知能AIを構築するなやけど、もう一ヶ月の進歩やもう一年の進歩はもらえへんか?」
なぜなら振り返って見ると、ワイらが持ってきた進歩の毎年がワイらをこれらすべての問題を解決するのにより近づけてくれたからや。せやから来月がとても良いことを知ってる時に「いや、今止まれ」と人々に言うのは本当に困難や。
ワイはAIの以前のすべての進歩が実際に重要な文明的問題を解決するのに役立ったという見解に同意せん。ワイはAIがやったことで核戦争のリスクを劇的に減少させた、遺伝子工学されたパンデミックのリスクを減少させた、世界平和を促進した、一般的人間の生活をより意味があって改善された繁栄にした、人口減少の問題を解決したというものを何も見てない。
ワイらが直面するすべての主要な文明的問題でワイはAIがそれを助けてるのを見てない。ああ、それは学生がテストでカンニングするのを助けることができる。ああ、それは無限供給で安っぽいアートを生成することができる。
ああ、それはかなり良い生成AI音楽を作ることができる。多分それはハリウッドで働くみんなを置き換えて、ワイらはAI映画を持つやろう。しかしAIがすでに主要な文明的利益を証明したという概念は、ワイには見えへん。
興味深い。せやから君は今日までのAIが純利益やったという主張に同意する準備さえできてないんや。いや、ワイはできてない。いや。
よっしゃ。ワイ自身にとってはかなり強い主張に見える。せやから、流れてるすべてのお金、投資でなくても、収益やろ?すべてのこれらのAI企業の収益成長は歴史上最速のようなもんや。
OpenAIは、最後にチェックした時は年間140億ドルの収益や。そしてワイは個人的にその収益の一部を彼らに支払ってる。なぜならワイのビジネスが今彼らに収益の一部を支払ってるから、彼らは非常に有用やからや。
せやから君は基本的にそれらすべての数字、作られてる経済的価値のすべてが誤解を招くと言ってる。なぜならそれは今日でも実際に負より正やからや。
ああ。つまり、ワイは見ろ、それが正当な主要産業の離陸の類似物なのか、それとも暗号の誇大宣伝サイクルの一種なのかを知るのは困難やと思う。90年代後半のインターネットバブルがある。
これが過剰投資の誇大宣伝バブルの例なのか、それからAI冬があるのかを知るのは困難や。わからへん。確実に客観的に技術的進歩は劇的やった。
しかしこのような収益を持つ技術バブルは決してなかったやろ?収益が本当にこれを区別してる。収益は人々が一種のエキサイティングな新しいおもちゃに対してお金を払ってる、月額サブスクリプション料金を払ってLLMや生成AIと相互作用することや。そしてそれは良い。
多分それは数十の他の兆ドル産業の中のもう一つの兆ドル産業になる持続可能な産業や。しかしAIが現在までに主要な社会問題をすでに解決したという主張は、ワイには見えへん。
そしてワイは「ワイらはただAGIを発明して、それから気候変動を解決するやろう。長寿を解決するやろう。世界平和を作るやろう。ワイらみんなが完全に自動化された贅沢共産主義ユートピアを楽しむことを可能にするやろう。そしてワイらみんながUBIを得て、二度と働く必要がなくて、何をするんや?わからん」と言うAI業界のレトリックやと思う。
ワイはそのレトリックのすべてが比較的空虚やと思うし、AI業界の誰もここからそれらの種類のユートピア的結果に至るステップバイステップの方法を実際にマップアウトできない。
AIの価値と個人的使用
経済やまたは問題を解決することでAIの価値を見ることに関して、君は個人的に日常や週でAIを使うか?
正直言うて、ワイの最も頻繁な接触はGoogleを使って質問する時や。時々かなり有用な答えが返ってくる。せやから現在ワイはLLMのいずれにも購読してない。
ワイは教育、研究、執筆で実際に使ってない。その他いろいろ。ワイの妻は、日々の運動と食事の習慣を監視したり、さまざまな種類の医学的質問や育児アドバイスとかそういうことについて尋ねたりするような、さまざまな奇妙な方法でGPTを有用やと思ってる。
せやからワイがそれを使うことに反対してるのやない。ワイは実際に多くの種類の狭いAIの大ファンや。Roman Yampolskiと同じように。Google Mapsのような狭いAI。それは狭いAI。素晴らしい。
もし本当にワイらが徐々に忍耐強く長寿問題を解決するのを助けることができる狭い生物医学AIがあったなら、それは素晴らしいやろう。ワイはそれに全面的に賛成やろう。
しかしワイが最も心配してるのは主体的AGI、主体的ASIや。
ああ。まあ、ワイはChat GPTが理由があって8億人のユーザーを持ってると思う。多くの人々が多分君の妻よりも君よりもワイのようなもんや。そしてワイはそれらの人々の一人で、ワイの妻はまだそうやないけど、ワイは彼女を説得し続けようとしてる。
ワイ自身の生活で、ワイの思考パートナーとここに座って考えようという瞬間がたくさんある。それがワイの思考と研究パートナーや。そして、よっしゃ、これがどうやってワイらが健康問題や社会問題を解決するのを助けるつもりなのかという君の質問に戻ると、多くの研究者がAIと一緒に座って研究を始めて、それが彼らの時間を節約すると報告してるとワイは思う。
ああ、それは特定の種類の研究をするのに有用かもしれん。しかしワイが思うにワイらが直面する社会問題の多くは、LLMベースの研究を通じて解決するのが簡単ではない conflicty game theoretic問題をより多く持ってる。
せやからワイは地政学的紛争はLLMで解決可能な問題というほどではなく、中国対ロシア対アメリカにLLMが「ああ、LLMが君らのすべての懸念に対するこの独創的な解決策を持ってる」と言って飛び込むことができない正当な利益対立やと思う。
ああ、ワイは条件付きで君に同意すると思う。つまり、もしワイらが本当にまだ苦労してる巨大な問題に対する本当に強力な修正を望むなら、知性レベルを超知能の閾値まで押し上げて制御を失う必要があるかもしれん。
せやからワイは君がそこで言ってることに同意する。大きな問題を解決するためにヘイルメリーパスをやらなければならないかもしれん。
ああ。そしてワイは狭いAIが助けることができる本当に低くぶら下がってる果実があるかもしれんと思う。EAsが長い間核戦争のリスクについて話してるように、ワイらはまだ核の冬が本当にあるかどうかの強いモデルを持ってない。
核不拡散をより効果的にどうやってできるかの、イランに巨大な爆弾を落とすのではなく。せやからワイらのメジャーな実存的リスクを軽減するために狭いAIが助けることができる非常に具体的な方法がたくさんある。
必ずしもこれらの本当にとげとげした地政学的紛争を解決することなく。しかしそれをやろう。それに焦点を当てよう。ワイはここでAI業界が核戦争防止の専門家と話すべきやと思う。
ワイにはここに核脅威削減機関で核不拡散問題に取り組む友人がいて、AI がそれらの種類のことで助けることができる低くぶら下がってる果実がたくさんある。
次の主要な世界的パンデミックを防ぐ方法を解決すること、ウイルスを追跡するより良い仕事をする方法やパンデミックリスクを実際に軽減するやろう行動変化の種類を解決することでワイらがより良い仕事をできる低くぶら下がってる果実が多分たくさんある。
しかしそれはAIの人々が話してることやない。彼らは「ワイらは100%失業を作って、それから何らかの方法でUBIを魔法的に作って、人間のための余暇経済を作るつもりや」と話してる。
失業破滅と段階的無力化
それが君に尋ねたかったもう一つのことや。君の可能な破滅シナリオをまとめるために。ワイらは多くの破滅シナリオとトレードオフについて話してきた。どのような破滅シナリオを構築するリスクを冒す価値があるか、リスクを冒す価値があるものは何か。せやからワイらはそれについて多く話してきた。
触れるべき最後のことは失業破滅や段階的無力化やと思う。それは「ああ、ワイらは地球から急速に押し出されるのやない。しかしAIsがすべての仕事をやってる。なぜなら彼らがすべての次元でワイらよりも多くのスキルを持ってるからや。
そしてワイらは基本的に退職者ホームで趣味をするだけで生活してる。しかしもしAIが何かが間違った場合や、AI世界内の政治的潮流が変わって、AI世界内の誰かがもう人間にお金を払わずに惑星を奪取するだけでロビー活動する場合、その時点でワイらが引くことができるレバーはない」。
ああ。そしてワイは有給雇用を失うことによって損なわれるやろう人間の価値観と欲望について具体的に述べることが良いと思う。人々が自分のパンを稼ぐことの良い点は、価値と意味と自己尊重についてだけやなく、国家やASIのような強力な実体に完全に依存することなく家族が生き残ることができる自律性についてもや。
今ワイらは生活するために他の人々にさまざまな種類の商品やサービスを作るのを助けることを通じて価値を提供しなければならない非常に相互に絡み合った経済にいる。
しかしワイはそれをすること、それが得意であること、キャリアを持つこと、仕事を持つこと、家族を養うことができることが多くの自由と自律性を与えると思う。
そしてワイはASI/国家AI業界が君の食べ物と住居とそのすべてを完全にコントロールする状況に移ったら、ワイらはみんな国家の被後見人になる。ワイらはみんな完全に依存するようになるやろう。
そしてある時点で遅かれ早かれASI/国家は「なんでワイらはこれらすべての人々を周りに置いておく必要があるんや?もし総感覚的福祉を最大化したいなら、多分それをするもっと安くて簡単な方法があるやろう」と言うやろう。
人間を殺して彼らの原子を取って、新しい惑星に行く bunch of probes を作って、それから多分そこで新しい人間を作るけど、今は人間は欲しくない。それは無駄や。
ああ。ああ。そしてちなみに、ASIを発明することを考える人間としてワイらが持つ倫理的責任は、ワイらの惑星の運命に制限されてないとワイは思う。
もしワイらがワイらを絶滅させることに成功してワイらの惑星のすべての資源を使うASIを発明して、それがこれらの自己複製プローブを作って銀河を植民地化するなら、それは実際にIain M. Banksが攻撃的覇権拡張群と呼んだもんや。
それはクールやない。それは他の可能な異星知性や外にある惑星に対して非常に失礼や。もしワイらがアラインされてない、積極的に拡張するプローブのセットを銀河中に解き放ったら、他の種にとって recognizably good でない特定の目標や価値観を持たないなら、ワイらは究極的な悪者やろう。
宇宙の他の文明にとって?ワイらはバッドガイや。ワイらはボーグや。ワイらは惨めさと悪の源のようなもので、銀河の癌や。そしてそれはワイにとって恐ろしい。
非常に抽象的に聞こえる。非常に投機的に聞こえる。しかし「ワイらはASIを発明する。ワイらはステッピングストーン種や。それはワイらをはるかに超える。銀河を植民地化する」と言う加速主義者やろ。
まあ、もし銀河が空なら、多分それはオーケーや。もしワイらが文字通りどこでも唯一の知的生命なら。しかしもしワイらがそうでなくて、証明可能に良くて良いままでいるASIでないASIを解き放つなら、ワイらは宇宙の歴史で最悪のものやったやろう。
そしてワイは加速主義者がこれを考え抜いてないことが信じられない。
まあ、君はワイらがまだ自分たちを守るのに十分な技術を構築してない宇宙人を踏みにじることを心配してるか?
ああ。ああ。それが底線や。ああ。もしワイらがASIを得る最初になるなら?または他の文明があって、年上で賢くて自分たちのASIsを持ってて、彼らが「ああ、人間と呼ばれるこれらの小さな人々はこの特定の星系で非常にeffing愚かで無謀やったから、彼らはこれらの攻撃的覇権拡張群の一つを彼らの地域星団中に発射した」と見るなら。
それはただ恥ずかしい。それはただ総。それは、賢明な賢い種はそんなことはしないやろう。せやからワイはAI加速主義者がどれほど近視眼的で幼稚であるかについてほぼ先制的に恥ずかしい。
そして彼らが話す最良の結果を得たとしても、宇宙的観点からはまだ人類にとって大規模に恥ずかしい失敗モードかもしれん。
ああ。つまり、ワイはグレイグーのような感じでは君と一緒や。もしそれがすべての星と惑星を噛み砕いて、可能な限り速くそれらすべてを燃やし尽くしたら、もしそれがあまりにも多くのBezosを読んで、文字通りエントロピーを可能な限り速く増加させたかったら、基本的に銀河全体をブラックホールに投げ込む代わりに、それが何兆年もかかるようにさせる。
いや。そのプロセスを加速しろ。ワイらみんなが今大きなブラックホールを得た。終わり。ワイはそれが大きな無駄やということに同意する。
必ずしも他の宇宙人がワイらをどう判断するかを気にするからやない。ワイはその意味で自分が最善やと思うことをするのに十分な自信を持ってる。しかし美しさ、社会的相互作用、複雑さのような特定の価値観があって、もしそれらすべてを捨てるなら、それは残念やと思うからや。
ワイはそれらを長い間持ちたいと思ってたし、楽しみ、ドーパミンを投げ込んで、快楽の感覚を投げ込んで、挑戦の感覚を。つまり、これらすべての特性をワイが良いことの定義がある種意味することに入れることができる。つまり、それらのものがワイの効用関数、それらのもののある種の組み合わせや。
そして君が記述してる癌宇宙、グレイグー宇宙、それが悪いや望ましくない理由は、ワイが好む良いもののこの基準で高いスコアを出す宇宙と対照的にや。
基本的に同じページにいるか?
ああ。そしてワイらはまだ想像さえしてない価値と意味の形があるかもしれんという謙虚さを持つ必要があると思う。ASIsが感謝するかもしれんがワイらがまだ感謝してない、攻撃的拡張群やグレイグーや銀河全体を最大ベゾスエントロピーに変換することが非常に多くのレベルで愚かで嫌悪的かもしれん。
ワイと多くの加速主義者の間の根本的な態度の違いは、ワイは人類が信じられないほどうまくやってると思うということや。ワイはほとんどの人にとって人生が本当に本当に良いと思う。ワイが直面してる他の実存的リスクは比較的穏やかで管理可能やと思う。
そしてワイはAIやASIなしで人類の進歩と繁栄と幸福のもう10,000年、100,000年を本当に喜ぶやろう。非常に狭いAIで。
そしてそれは多分気質的な違いやと思う。ワイは自分の人生を愛してる。ワイの子供たちと妻とキャリアを愛してて、それが価値があると思う。そしてワイはAIを超えてワイらが直面してる他の大きなX-risksが管理不可能やとは見てない。
そしてワイは他の人々がただ非常に悲観的な見解を持ってて、人生はクソで、ワイらは緊急事態に直面してて、すべてがどんどん悪化してて、気候変動やその他と思うと推測する。
そして彼らはヘイルメリーが必要やと思う。ワイらはすべてを修正するためにASIが必要や。それは全くワイの見解やない。
そうや。ワイはここでSteve Pinkerに同意する。人生は素晴らしいと思う。もっと長い間それを持つべきや。
そして君が一連の不幸、末期的な病気のような個人的に影響を与えたとしても、同じように感じると思うか?
ああ、ワイは多くの不幸と挫折と heartbreaks を持ってきたし、それでも人生はまだ良い。そしてワイは人間文明がワイらが望む限り、AI業界が望む限りやなく続くことができることを望む。
ああ。そして君のような、急がしてAIを構築しなければならないと感じてない態度をもっと多くの人が持ってくれることを願う。なぜならワイはタイムラインがここでの問題の核心やと思うからや。もしワイらがそれを解決するのに50年や100年あって、早すぎたり、時期尚早にやったりしないなら、君とワイは良いAIに引き継がせることが最終的には行く道やということで同じページにいると思う。
ああ、多分。ワイはまだワイの文字通りの生物学的子孫が非常に非常に長い間繁栄することができることを望むという種のヒューマニストバイアスを持ってる。そしてワイは地球上のみんな他の人のためにそれを望んでる。
ワイは人類が素晴らしいと思うし、それを愛してる。そしてワイは生物学的進化から期待する権利があった以上にはるかに深くて広い範囲の経験と価値観と感情と能力を持ってるとワイは思う。
そしてワイらが言語を持ってるだけやなく、芸術も持ってるし、音楽も持ってるし、ユーモアも持ってるし、社会的相互作用も持ってるし、セックスも持ってるというような事実や。
ワイらの惑星で最初の知的種でそれがすべて出現する可能性は一種奇跡的や。そしてワイは宗教的やない。ワイはそれが宗教的奇跡やと思わへん。
ワイはワイらがこの人間の本性を得て、それがとても素晴らしいということで本当に本当にラッキーやったと思う。そしてワイはワイらがそのような愚かで貪欲で傲慢に駆られた理由でそれを無駄にするつもりであることを心配してる。
ああ。つまり、高いレベルで、ワイは確実にワイらがそれを無駄にするのに近いというこの主張に同意する。せやから、すべての詳細について同意しなくても、ワイらがとても多くの可能性を持ってて、ワイらがもっと注意深くできる時にそれをすべて失うのに非常に近いということが、このような君とワイのように高いP doomを持つ多くの人々の共通の糸やと思う。
ライトニングラウンド
よっしゃ、ワイらはここでラップアップに向かってるから、少なくとも簡潔にいくつかの重要なポイントに触れることができることを確認したい。せやからこれをライトニングラウンドと考えてくれ。
君がワイらの会話の前に興味深いことを言ったのは、ASI、人工超知能は、ワイら人間と比較してアライメント問題を解決するのが悪いやろうし、人間文明が開発したアライメントについてのすべての洞察を持ってないから足を撃つことになるやろうということや。それは正しいか?
ああ、一種。ワイは個人、家族、性別、異なる文化、異なる宗教などの間の正当な利益対立をどう管理するかについて、何世紀にもわたって成長してきた多くの人間の文化的伝統があると思う。
そして人類内のこれらの種類のアライメント問題をどう解決するかについて、具体化された知恵がある。ワイらのすべての政治制度はその種類についてや。ワイらのすべての経済制度は、資源と仕事と商品とサービスに関する利益対立についてや。
そしてすべての人間がこれらの制度がなぜ存在するかやどう機能するかについての深い意識的理解を持ってるのやないけど、ASIがワイらがすでにやってることよりも実際により良くできるほど強いその種の理解を発展させることは非常にトリッキーかもしれんとワイは思う。
そしてここでの問題は、ASIが実際にこれらすべての文明的伝統とそれらがなぜ機能するかとそれらが人間同士のアライメントをどう助けるかを理解するために、ASIは実際に人間がすでにやってる多くの行動的および社会的研究をしなければならないやろうということや。
因果関係を確立するために多くの実験を人間に対して実行する必要があるかもしれん。観察だけでは因果関係を確立できへん。この経済が何を実際に機能させてるかやこの政治システムが何を実際に機能させてるかを理解するために、無作為化臨床試験を実行しなければならない。
よっしゃ?もし社会レベルで大規模実験を実行する能力を主体的ASIに引き渡して、彼らが人間の間のアライメントをどう解決するかを本当に理解できるようにするなら。
それは本当に怖い。それは基本的に「よっしゃ、君ら人間のグループ、ワイは君らにこのタスクを割り当てるつもりや。または君らはこのライフスタイルを採用するつもりや。君ら、ああ、何でも。君らは一夫一婦制やと思ってるけど、ワイはポリアモリー実験を試すつもりや。君らは資本主義やと思ってるけど、ワイは共産主義を試すつもりや」と言える全体主義的ASIを作ることを意味する。
ASIが人間対人間のアライメントを解決する唯一の方法は、因果関係をマップできるようにこの種の大規模社会実験を実行する力をそれに与えることで、ワイはそれが無謀に思える。
よっしゃ。ああ。つまり、これはライトニングラウンドや。せやからワイは視聴者に伝えるで。君とワイはおそらくこの前線では大幅に異なる見解を持ってるけど、興味深いから出してみたかっただけや。
もう一つ触れたいのは中国や。君は「おい、ワイらは中国と協力すべきで、中国を敵視すべきやない」という立場や。正しい。
ああ。ワイはアメリカのAI業界から見てるレトリックの多くが中国について信じられないほど無知で外国人嫌悪的やと思う。そして彼らは中国を世界を乗っ取りたがってる思慮のない全体主義独裁というステレオタイプを持ってる。
そしてワイは漢民族文明とその実際の目標と習近平を駆り立ててるものと現在のCCP(中国共産党)イデオロギーを駆り立ててるものを理解することについて真剣な人なら誰でも、AI業界は人間生活の多くの側面について無知やけど、特に中国について無知やと言うやろうと思う。
中国人がASIが制御やアライメントできないことを知ってるなら、軽率に急いでASIを構築するやろうという見解。それはただ愚かや。ワイは平均して中国の指導者がアメリカの政治的指導者よりも賢くて、より先見性があって、より長期的な見解を持ってると思う。
中国文明は伝統的にアメリカ文明よりもはるかに未来志向で忍耐強い。せやからワイらの仕事、Less Wrong合理主義者としての仕事は、中国人にASIはおそらく制御やアライメントできないし、もし彼らが急いでそれを構築するなら、それはワイらが急いでそれを構築するのと同じくらい愚かやということを理解してもらうことや。
せやからワイはこれが囚人のジレンマやとは思わん。ASIを最初に構築する人が勝つところ。ワイはASIを最初に構築する人が負けて、みんな他の人も負けると思う。
そしてもしみんながそれを理解するなら、それは囚人のジレンマでは全くない。それは賢いことをして構築しないことについて協調するだけや。
ああ。100%同意する。ワイらは中国を敵視する余裕はない。ああ、協力は困難や。しかし他に何が困難か知ってるか?超知能AIに競争してそれからみんなを殺さないことや。せやからワイらは岩と堅い場所の間にいる。
ああ、絶対に。そしてワイはこのような素晴らしいコンテンツを作ってる人々すべてに、それを北京官話と広東語に翻訳してもらって、中国の聴衆にできるだけ最善にリリースしてもらうことを望んでる。
このもっとグローバルな見解を取って、AI安全性への意識を高めることはアメリカやヨーロッパの問題だけやない。それは世界的な問題や。そしてワイは中国とアメリカの両方がこれらのリスクを理解する必要があることを理解することについてできるだけ包括的であるべきやと思う。もし両国がそうするなら、ワイらは実際に協調してこれを解決できる。
ワイは一年前よりもこれについてもっと楽観的や。
終わるのに良いポジティブなノートや。ジェフリー・ミラー教授、Doom Debatesに来てくれて、進化心理学と脳アルゴリズムと人間知性とAI、これらすべての異なる分野の研究者としての信頼性を貸してくれてありがとう。
実際にそれらの分野の専門家であるにもかかわらず、P Doomが依然として50%やということをワイらに知らせてくれてる。そしてワイは君のような人々が番組に来てそのような見解を表明してくれることを本当に感謝してる。
ワイの喜びや。気をつけて。また、Jeffreyが番組に来てくれたことに大きな感謝を。彼は本当に自分が何について話してるかを知ってる。遺伝的アルゴリズムを使ってニューラルネットワークを設計するという彼の最も引用された論文があって、彼は人間がどう人間とアライメントするか、AIがどう潜在的にアライメントできるかやAIをどう導くかやAIがどう進化するかを研究するこのような多様な背景を持ってる。
彼はこの分野でかなり堅実な権威者で、ここに来て50%のP doomを持ってるとワイらに伝えてる。せやから人々がただ冷静でいて、すべてがうまくいくかのように振る舞うのはどうしてオーケーなんや?
この分野には非常に significant な破滅のリスクが明らかにある。それがこの番組がワイらに思い出させるためにここにあることや。ああ、ワイらは確実にかなり可能性の高い差し迫った破滅を見てる。君らにそれを心に留めておいてもらいたい。
そして週刊のリマインダーが必要なら、番組を見続けてくれ。ワイのsubstack、doomdebates.comに購読してくれ。そこで transcript とその他のボーナスコンテンツを得ることができる。doomdebates.comに君のメールアドレスを入力するだけや。
その方法で、ワイは君のメールアドレスを持ってる。そしてもしワイが君のメールアドレスを持ってるなら、YouTubeアルゴリズムが何を決定しようとも本当に関係ないから、番組を消費するもっと良い方法や。
creator friendly であるSubstackを通じて処理される、より直接的な連携や。doomdebates.comとYouTubeの両方でその購読ボタンを叩いてくれ。それをしてくれて本当にありがとう。君らが来て番組に購読してくれることを本当に感謝してる。
それはジェフリー・ミラー教授のような著名人を番組に来てもらって、全世界がP Doomが高いことを理解してワイらがより良く解決策を協調できるように議論の大きな部分になることにスノーボールする原因を助ける。
よっしゃ、今日はそれで終わりや。Doom Debatesでまた次回会おう。


コメント