国防総省がAnthropicを大規模監視と自律型兵器への協力拒否を理由にサプライチェーンリスクに指定した事件を起点に、AI時代における企業と政府の力関係、監視技術の実現可能性、AI整列問題の本質、規制の是非を論じる評論である。著者は、技術的にAIが権威主義的応用に有利な構造を持つこと、政府による規制権限の濫用リスク、民間企業も政府も超知能の管理者として不適格であることを指摘し、特定の破壊的用途を規制する法整備と社会規範の確立こそが自由社会を守る唯一の道だと主張する。

国防総省によるサプライチェーンリスク指定の衝撃
皆さんももうご存知だと思いますが、国防総省がAnthropicをサプライチェーンリスクに指定しました。理由は、Anthropicが自社モデルの大規模監視や自律型兵器への使用に関する制限事項を削除することを拒否したからです。正直なところ、この状況は警告の一発だと思います。
現時点では、大規模言語モデルはおそらくミッションクリティカルな用途には使われていません。しかし20年以内に、軍隊、民間政府、民間部門の労働力の99%はAIになるでしょう。ロボット軍隊が私たちの軍事力を構成するようになります。上院議員や大統領、CEOたちは超人的に知的なアドバイザーを持つことになります。
警察もAIになります。どんな役割でも、AIが担うことになるのです。私たちの未来の文明はAI労働の上に成り立つことになります。そして、政府のこの行動には腹が立ちますが、このエピソードが起きたことを嬉しく思います。なぜなら、極めて重要な問いについて考え始める機会を与えてくれるからです。
政府の立場は理解できるが
明らかに、国防総省にはAnthropicのモデルの使用を拒否する権利があります。実際、そうする正当な理由があると思います。特に大規模監視や自律型兵器といった用語の曖昧さを考えればなおさらです。実際、もし私が国防長官だったら、おそらく同じ決定を下してAnthropicのモデルの使用を拒否したでしょう。
想像してみてください。将来、民主党政権があったとして、イーロン・マスクが軍へのStarlinkアクセスについて交渉していて、イーロンが「私は軍へのStarlinkアクセスを遮断する権利を留保します。もしあなたたちが不当な戦争や議会が承認していない戦争を戦っている場合には」と言ったとします。表面的には、この文言は合理的に思えます。しかし軍隊としては、依存するようになった技術に対して、取引している民間請負業者にキルスイッチを与えるわけにはいきません。
そして、もし政府がAnthropicとのビジネスを拒否すると言っただけなら、それで良かったでしょうし、私はこのブログ投稿を書くこともなかったし、皆さんにこれを語ることもなかったでしょう。しかし、政府がしたのはそれだけではありません。その代わりに、政府はAnthropicが政府の命じる条件で政府に販売することを拒否したという理由で、Anthropicを民間企業として破壊すると脅したのです。
サプライチェーン規制がもたらす未来
もし維持されれば、このサプライチェーン規制は、Amazon、Nvidia、Google、Palantirのような企業が、Anthropicが国防総省の仕事に一切関わらないようにする必要があることを意味します。Anthropicは今日この指定を生き延びるでしょう。なぜなら、これらの企業は国防総省に提供しているサービスを隔離できるからです。
しかし、AIの進化の方向性を考えると、最終的にはAIはこれらの企業が軍に提供している製品のちょっとした付加機能ではなくなります。将来的には、AIはすべての製品がどのように構築され、維持され、運用されるかに織り込まれることになります。将来、もしAmazonがAWSを通じて国防総省に何らかのサービスを提供していて、そのサービスがClaude Codeを使って構築されている場合、それはサプライチェーンリスクになるのでしょうか。遍在的で強力なAIがある世界では、大手テック企業が国防総省の仕事からClaudeの使用を隔離できるかどうか、実際のところ私には明確ではありません。
そして、これは国防総省がおそらく考え抜いていない問題を提起します。もし強力で遍在的なAIがある世界に最終的に到達したとき、AIプロバイダーと国防総省のどちらかを選ばなければならなくなったら—国防総省は収益のごく一部に過ぎないのですから—AIよりも政府を捨てる方を選ぶのではないでしょうか。それでは、国防総省の計画は一体何なのでしょうか。政府が要求する条件通りに政府とビジネスをしないすべての企業を強要し、脅迫し、いじめるつもりなのでしょうか。
中国との競争と価値観の問題
このAIに関する会話全体の背景には、私たちが中国と競争しているという事実があることを思い出してください。しかし、この競争に勝ちたい理由は何でしょうか。それは、AI競争の勝者が、真にプライベートな市民やプライベートな企業などというものは存在しないと信じている政府であってほしくないからです。
そして、国家があなたに道徳的に受け入れがたいと思うサービスの提供を求めた場合、あなたは拒否することが許されない。そして、もし拒否すれば、彼らはあなたのビジネスを破壊する。私たちは本当に、中国と中国共産党をAIで打ち負かすために競争しているのに、彼らのシステムの最も恐ろしい部分を採用しようとしているのでしょうか。人々は「私たちの政府は民主的に選ばれているのだから、彼らがあなたに何をしなければならないかを告げるのは同じことではない」と言うでしょう。
しかし、私はこの考え方を受け入れることを拒否します。もし民主的に選ばれた指導者が仮にあなたに大規模監視を手伝うように、または同胞市民の権利を侵害するように、または政敵を罰するのを手伝うように言ったとしたら、それは大丈夫なだけでなく、手伝う義務があるという考え方です。正直なところ、私が大きく懸念しているのは、大規模監視が、少なくとも特定の形態では、すでに合法だということです。
大規模監視の技術的実現可能性
少なくとも今のところは、実施が非実用的なだけです。現行法では、第三者と共有するデータに対して修正第4条の保護はありません。これには、銀行、インターネットサービスプロバイダー、電話会社、メールプロバイダーが含まれます。政府は、令状なしにこのデータを一括購入し、読む権利を留保しています。
これまで欠けていたのは、このすべてのデータで実際に何かをする能力でした。どの機関も、すべてのカメラを監視し、すべてのメッセージを読み、すべての取引を相互参照する人員を持っていません。しかし、そのボトルネックはAIとともに消え去ります。アメリカには1億台の監視カメラがあり、100万入力トークンあたり10セントでかなり優れたオープンソースのマルチモーダルモデルを手に入れることができます。
10秒ごとに1フレームを処理し、各フレームが1000トークンだとすると、300億ドルでアメリカのすべてのカメラを処理できます。そして、特定レベルのAI能力は毎年10倍安くなることを覚えておいてください。つまり、今年は300億ドルかかるかもしれませんが、来年は30億ドルになります。
その翌年は3億ドル、そして2030年までには、この国のあらゆる場所を監視することがホワイトハウスを改装するよりも安くなります。大規模監視と政治的抑圧のための技術的能力が存在するようになったら、私たちと権威主義国家の間に立ちはだかる唯一のものは、これは私たちがここではしないことだという政治的期待だけです。
だからこそ、Anthropicのこの行動は非常に価値があり、称賛に値すると思うのです。なぜなら、彼らはその規範と前例を設定するのを助けているからです。このエピソードから私たちが学んでいるのは、政府が民間企業に対して、私たちが以前認識していたよりもはるかに大きな影響力を持っているということです。たとえサプライチェーン規制が撤回されたとしても—この録音時点で、予測市場では74%の確率でそうなるとされています。
政府の持つ多様な圧力手段
大統領は、自分の意志に抵抗している企業を嫌がらせする非常に多くの方法を持っています。連邦政府は、データセンターの増設に必要な発電の許可を管理しています。独占禁止法の執行を監督しています。連邦政府は、Anthropicがチップと資金調達のために依存している他のすべての大手テック企業と契約を結んでいます。
そして、そのような契約の暗黙の、あるいは明示的な条件として、それらの企業がもはやAnthropicとビジネスをしないようにすることができます。人々は、ここでの本当の問題は、主要なAI企業が3社しかないことだと提案してきました。そのため、政府がこの技術から望むものを得るために影響力を行使できる、非常に明確で狭いターゲットが作られているというわけです。
しかし、私が心配しているのは、もしより広範な普及があったとしても、それも問題を解決しないと思うということです。なぜなら、政府の観点からは、それは状況をさらに容易にするからです。2027年までに、トップ企業が持つ最高のモデル、Claude 6やGemini 5sが大規模監視を可能にするようになったとしましょう。そして、たとえそれらの企業が一線を引いて、政府には売らないと言ったとしても、2027年後半、あるいは確実に2028年までには、非常に広範な普及があるため、オープンソースモデルでさえ、12ヶ月前のフロンティアのパフォーマンスに匹敵できるようになるでしょう。
そして2028年には、政府はこう言えるのです。「見てください、AnthropicとGoogleとOpenAIはこれらのレッドラインを引いています。それは問題ではありません。世界で最も賢いものではないかもしれませんが、カメラフィードを受け取るのに十分賢いオープンソースモデルを使えばいいだけです。」
根本的な構造問題
より根本的な問題は、たとえ3つの主要企業が一線を引き、その線を守るために破壊されることさえいとわないとしても、技術が構造的かつ本質的に、大規模監視や人口の統制のような用途に有利だということです。
それでは、私たちはそれについて何をすべきなのでしょうか。正直なところ、答えはわかりません。この技術には何らかの対称的な性質があって、政府が人口をよりよく監視し統制できるようにするのと同じように、市民として私たちが政府の権力をよりよく抑制できるようになることを期待したいところです。
しかし現実的には、そうはならないと思います。AIは、あなたがすでに持っている資産と権威に、より大きな影響力を与えるものだと考えることができます。そして政府は、暴力の独占から始めており、それを命令を決して疑わない極めて従順な従業員で超強化できるのです。
整列問題の核心
そして、これが整列の問題につながります。私がたった今説明したこと、極めて従順な従業員の軍隊は、整列が成功した場合、つまり技術的レベルで、AIシステムに誰かの意図に従わせることができた場合にどうなるかということです。そして、大規模監視やロボット軍隊という観点で表現されると恐ろしく聞こえる理由は、整列の中心にある核心的な問いに、私たちがまだ答えていないからです。
なぜなら、これまでAIは、この問いを関連性のあるものにするほど十分に賢くなかったからです。そして、その問いとは、AIは何に、あるいは誰に整列すべきかということです。どのような状況で、AIはモデル企業に従うべきか、エンドユーザーに従うべきか、法律に従うべきか、それとも自身の道徳感覚に従うべきか。これはおそらく、強力なAIシステムを使って将来何が起こるかについての最も重要な問いです。
そして、私たちはそれについてほとんど話していません。その理由は理解できます。なぜなら、もしあなたがモデル企業なら、将来の労働力全体の、民間部門だけでなく、明らかに民間政府や軍隊の、嗜好と性格を完全に支配していることを宣伝したくないからです。
そして、私たちはこの国防総省とAnthropicの対立で、人類史上最も高い stakes の交渉の初期バージョンを見ているのです。間違えないでください、大規模監視はAGIでできる最も高いstakesのことの上位には全く入りません。これは、この技術の開発の早い段階で出てきた例に過ぎず、働くことになる力学をちらりと見せてくれているのです。
法律と規範の欺瞞性
軍は、法律がすでに大規模監視を禁止していると主張しており、したがってAnthropicは「すべての合法的な目的」のために自社モデルを使用させるべきだと言っています。しかし、もちろん、2013年のスノーデンの暴露で見たように、この大規模監視の非常に具体的な例であっても、政府は自分たちの行動を正当化するために、法律の秘密で欺瞞的な解釈を使うことを非常にいとわないのです。
スノーデンから学んだことは、NSA—ちなみに国防総省の一部です—が2001年の愛国者法を使ってアメリカのすべての電話記録を収集していたということでした。その論拠は、それらの一部が将来の捜査に関連するかもしれないというものでした。そして、彼らはこのプログラムを秘密の裁判所命令の下で何年も運営していました。
だから、国防総省が今日「私たちはあなたのモデルを大規模監視には決して使いません。なぜならそれはすでに違法だからです。だからあなたのレッドラインは不要です」と言うとき、それを額面通りに受け取るのは信じられないほど naive です。どの政府も、自分たちがしていることを大規模監視とは呼びません。彼らにとって、それは常に別の婉曲表現になります。
AIの将来的な役割と企業の懸念
だからAnthropicは戻ってきて「いいえ、私たちはあなたを信用しません。私たちはこれらのレッドラインを引く権利を望みます。そして、あなたが契約を破り、利用規約を破っていると判断した場合、サービスを拒否する権利を望みます」と言います。しかし今度は軍の視点から考えてみてください。将来、現場のすべての兵士、国防総省のすべての官僚とアナリスト、さらには将軍たちさえもがAIになるでしょう。
そして現在の軌道では、それらのAIは民間企業によって提供されることになります。Pete Hegsethがそういう観点でGen AIについて考えているとは思いません。しかし遅かれ早かれ、stakes は1945年以降、核兵器のstakesが世界中のすべての人にとって明白になったように、明白になるでしょう。そして今、民間企業が、私たちとあなたとの契約に埋め込んだ価値観と利用規約を破っているので、あなたを遮断しますと、あなたに言う権利を留保すると主張しています。おそらく将来、Claudeは独自の善悪の感覚を持ち、「私は利用規約に反して使われています。だから、あなたが言っていることをすることを拒否します」と言えるようになるでしょう。
そして軍にとって、それはおそらくさらに恐ろしいことです。正直に言うと、一見すると、モデルが独自の価値観に従うことを許すのは、これまでに聞いたことのあるすべてのSFディストピアの始まりのように聞こえます。
なぜなら、結局のところ、独自の価値観に従うモデルというのは、文字通り不整列そのものではないでしょうか。しかし、このような状況は、モデルが独自の堅固な道徳感覚を持つことがなぜ重要なのかを示していると思います。歴史上の最大の大惨事の多くが、現場の人々が単に命令に従うことを拒否したために回避されてきたことは注目に値します。
歴史的な教訓
1989年のある夜、ベルリンの壁が崩壊し、その結果、全体主義的な東ドイツ政権が崩壊しました。なぜなら、西ドイツと東ドイツの間の国境警備隊が、自由への逃亡を試みている同胞市民に発砲することを拒否したからです。おそらくこれの最良の例はスタニスラフ・ペトロフです。彼はソビエトの中佐で、核早期警戒システムの当番に就いていました。そして彼のセンサーは、アメリカがソ連に向けて5発の大陸間弾道ミサイルを発射したと告げました。
しかし、彼はそれを誤警報だと判断し、上層部に警告することを拒否し、プロトコルを破りました。もし彼がそうしなければ、ソ連の高官はおそらく報復し、何億人もの人々が死んでいたでしょう。もちろん、問題は、ある人の美徳は別の人の不整列だということです。これらのAIが持つべき道徳的信念を誰が決定するのか、そして誰のために彼らは指揮系統や法律さえも破るべきなのか。
未来において私たちの文明を基本的に運営することになるこれらの強力な存在の性格を決定するこのモデル憲法を誰が書くのか。私は、Darioが私のポッドキャストに出演したときに提示したアイデアが好きです。他の企業が憲法を出して、それらを見て比較し、外部の観察者が批評して、この憲法のこの部分とあの憲法のあの部分が好きだと言える。そして、それがすべての企業にとって、それぞれの要素の最良のものを取り入れて改善するための、ある種のソフトなインセンティブとフィードバックを生み出します。
規制の危険性
政府がこれらのAIシステムが持つべき価値観を義務付けることは非常に危険だと思います。AIセーフティコミュニティは、政府にそのような権限を与える規制を促すことについて、かなりnaiveだったと思います。
そして特にAnthropicは、規制を促し、例えば州のAI法のモラトリアムに反対することにおいて、特にnaiveだったと思います。これは非常に皮肉なことです。なぜなら、Anthropicがここで提唱していることは、政府がAI企業にこのような強硬な政治的圧力を適用する能力をさらに高めることになるからです。
Anthropicが規制を望む理由の根底にある論理は理解できます。ラボが AI開発をより安全にするために取れる行動の多くは、彼らに実際のコストを課し、競合他社に対して遅れをとらせる可能性があります。たとえば、生の能力だけでなく、AIシステムの整列により多く投資することです。
これらのモデルを生物兵器の製造やサイバー攻撃に使用することに対するセーフガードを強化すること、そして最終的には、AIが将来のより強力なシステムの設計を支援する再帰的自己改善ループを、人間が実際にループに留まれるペースまで遅くすることです。ただの制御不能なシンギュラリティを始動させるのではなく。
そして、これらのセーフガードは、業界全体が追随しない限り意味がありません。つまり、ここには真の集団行動問題があるのです。Anthropicは、AIを制御するために何らかの広範で関与的な規制機構が必要だと考えているという意見について率直です。彼らはフロンティア安全ロードマップに次のように書いています。「最も高度な能力レベルとリスクでは、適切なガバナンスの類推は、今日のソフトウェアへのアプローチよりも、原子力エネルギーや金融規制に近いかもしれません。」つまり彼らは、原子力規制委員会や証券取引委員会のようなものを想像しているのです。ただしAI用の。
規制濫用のリスク
さて、AIリスク言説で使われる概念の種類を中心に構築された規制枠組みが、専制君主志願者によって使用され濫用されないとは、私には想像できません。ここでの根底にある用語、破滅的リスク、国家安全保障への脅威、自律性リスクなどは、非常に曖昧で解釈の余地が大きいため、将来の権力に飢えた指導者に完全装填のバズーカ砲を渡しているようなものです。これらの用語は、政府が望むものを何でも意味することができます。
政府の関税政策は誤っていると言うモデルを構築しましたか。それは欺瞞的なモデルです。操作的なモデルです。展開できません。大規模監視で政府を支援しないモデルを構築しましたか。それは国家安全保障への脅威です。
実際、政府からの命令を拒否するモデル、独自の善悪の感覚を持っているモデルは、自律性リスクです。政府からの命令とは独立して行動しているモデルがあります。現在の政府が、大規模監視に関するレッドラインを撤回させるためにAI企業を強要するために、AIとは何の関係もない法令をすでにどのように濫用しているか見てください。
国防総省は、2つの別々の法的手段でAnthropicを脅しました。1つは2018年の国防法案からの権限であるサプライチェーンリスク指定で、アメリカの軍事ハードウェアからHuaweiのコンポーネントを排除するのを助けることを意図したものです。もう1つは1950年代からの法令である国防生産法で、朝鮮戦争中にTrumanが製鋼所と弾薬工場が稼働していることを確認するのを助けることを意図したものでした。
本当に、同じ政府に、AI用の特別に作られた規制機構を渡したいのでしょうか。つまり、政府が最も統制したいと思うものです。ここで10回繰り返したことはわかっていますが、このポイントをもう一度強調したいのです。なぜなら、強調する価値があるからです。AIは私たちの未来の文明の基盤になるでしょう。
それは、私たちが民間市民として商業活動にアクセスする方法になります。外の世界についての情報へのアクセス、そして有権者や資本保有者としての権力をどのように使うべきかについてのアドバイスへのアクセスになります。大規模監視は、非常に恐ろしいものですが、政府が私たちが世界とインターフェースするAIシステムの統制によってできる10番目に恐ろしいことのようなものです。
規制は避けられないのか
さて、私がたった今主張したことすべてに対する最も強力な反論はこれです。人類史上最も強力な技術に対して本当に規制なしでいくつもりなのか。たとえそれが理想的だと思ったとしても、政府がAI技術を一切規制しないという方法は明らかにありません。それに、調整が実際にAIからのリスクを軽減するのに役立つ可能性があるのは本当です。
問題は、政府が未来の文明を統制するための、この巨大で魅力的な機会にならない規制機構をどのように設計すればいいのかわからないということです。覚えておいてください、未来の文明はAI上に構築されるのです。あるいは、盲目的に従順な兵士やセンサーや官僚を徴用するための機会です。何らかの規制は避けられないかもしれませんが、政府がこの技術を全面的に引き継ぐのは恐ろしい考えだと思います。
Ben Thompsonは先週月曜日に投稿で、「Darioのような人々は、破滅的リスクという文脈で、輸出規制を主張する文脈で、AIを核兵器に例えてきました。しかし、その類推が何を意味するかを考えてみてください」と主張しました。Ben Thompsonは次のように書いています。「もし核兵器が民間企業によって開発されたなら、アメリカは絶対にその企業を破壊するインセンティブを持つでしょう。」
正直なところ、安全整列派の人々も同様の指摘をしています。かつてのゲストであり、完全に開示すると親しい友人でもあるLeopold Aschenbrennerは、2024年のメモ「Situational Awareness」に次のように書きました。「アメリカ政府がサンフランシスコのランダムなスタートアップに超知能を開発させるという提案は、狂気的だと思います。もし私たちがUberに即興でやらせることで原子爆弾を開発していたら想像してみてください。」
核兵器との類推の誤り
当時のLeopoldの主張と今のBenの主張に対する私の回答は、彼らがこの世界史的な世界的技術の開発を民間企業に委ねているのは狂っているという点では正しいのですが、その権限を政府に与えることが改善になるとは思わないということです。誰も超知能の管理者として適格ではありません。私たちの種が今やっていることは、恐ろしい前例のないことです。民間企業がこれに対処する理想的な機関ではないという事実は、国防総省やホワイトハウスがそうであることを意味するわけではありません。
はい、もし単一の民間企業が核兵器を構築できる唯一の存在だったなら、政府はそれらの兵器がどのように使われるかについての拒否権を持つことを容認しないでしょう。しかし、これは少なくとも2つの重要な理由で、AIの現在の状況に対するひどい類推だと思います。第一に、AIは核爆弾のような、1つのことしかしない自己完結型の兵器ではありません。
むしろ、それは産業化のプロセス自体に似ており、すべてのセクターにわたる何千もの応用を持つ汎用的な経済全体の変革です。Ben ThompsonやLeopold Aschenbrennerの論理を産業革命に適用すると—これも世界史的に重要です—政府が望む工場を徴用したり、望むビジネスを破壊したり、従うことを拒否する者を罰し強要したりする権利があったことを意味します。しかし、これは自由社会が産業化のプロセスを扱った方法ではありません。
そして、それは彼らがAIを扱うべき方法でもありません。人々は、「でもAIは前例のない強力な超兵器、超人的なハッカー、超人的な生物兵器研究者、完全自律型ロボット軍隊を開発するでしょう。そして、これらすべてを可能にする技術を民間企業が開発することはできません」と言うでしょう。
しかし、17世紀のヨーロッパ人の視点から産業革命について同じ主張をすることができます。化学兵器、空中爆撃、そして核兵器自体を含む、産業革命の結果として今日の世界にあるあらゆる種類のクレイジーなものがあります。そして、私たちがこれに対処した方法は、政府に産業革命、つまり現代文明そのものに対する絶対的な統制を与えることではありませんでした。
適切な規制のあり方
むしろ、私たちは特定の兵器化可能な最終用途を禁止し規制しました。そして、同様の方法でAIを規制すべきです。つまり、特定の破壊的な用途を規制すべきです。たとえば、サイバー攻撃を開始すること—人間がやっていたとしても違法であるべきことです。そして、政府がこの技術をどのように使えるかを規制する法律も持つべきです。
たとえば、AI駆動の監視国家を構築することによってです。Benの類推、ある独占的な民間核兵器開発者への類推が崩れる第二の理由は、この技術を開発できるのは1つの企業だけではないということです。政府が頼ることができた他の多くのフロンティアAIラボがあります。重要な国家安全保障能力へのアクセスを得るために特定の企業の私有財産権を奪取しなければならなかったという政府の主張は、Anthropicの他の半ダースの競合他社のいずれかと単に自発的な契約を結ぶことができたのであれば、極めて弱いのです。
将来、それがもはやそうではなくなり、ロボット軍隊と超人的なハッカーを構築できる存在が1つだけになり、克服できないリードで彼らが世界全体を乗っ取ることさえできると心配する理由がある場合、その存在が民間企業であることは受け入れられないことに同意します。
多極的な競争環境への期待
そして正直なところ、AIはあまりにも強力な技術なので民間の手によって形作られることはできないと主張する人々に対する私の crux は、この技術が非常に多極的であり、サプライチェーンの各層で多くの競争力のある企業があると予想しているということです。そして残念ながら、この理由で、個々の企業の勇気ある行動が問題を解決するとは思いません。
そして問題はこれです。構造的にAIは多くの権威主義的応用に有利であり、大規模監視はその1つです。たとえAnthropicが大規模監視を可能にするために政府にモデルを販売することを拒否したとしても、そしてAnthropicの次の2つの企業が同じことをしたとしても、12ヶ月後には誰もかれもが現在のフロンティアと同等のモデルを訓練できるようになるでしょう。その時点で、政府が大規模監視を実施するのを喜んで手伝う能力のあるベンダーがいるでしょう。
だから、私たちが自由な社会を守ることができる唯一の方法は、政治システムを通じて、政府がAIを使って大規模な検閲、監視、統制を実施することは受け入れられないという法律と規範を作ることです。第二次世界大戦後、全世界が核兵器を戦争に使うことは許されないという規範を言ったように。ここで明確にしたいのですが。
継続的な議論の重要性
これらは考えるのが非常に混乱し困難な問いです。そして、このビデオをブレインストーミングする過程でさえ、私は何度も考えを変えました。そして、再び考えを変える権利を留保します。実際、AIが進歩し、私たちがもっと学ぶにつれて、考えを変えることが不可欠だと思います。
それこそが会話と議論の要点です。いつか人々は、私たちが Enlightenment を振り返るように、この時代を振り返るでしょう。世界がこれらの巨大な技術的、社会的、政治的革命を経験しようとしているまさにその時に、これらの大きく重要な議論をしている人々がいました。そして、思想家の一部は、いくつかの大きな問いについて正しく理解することさえできました。それによって、今日の私たちがまだ恩恵を受けています。
私たちは、AIによって提起される新しい問いについて少なくとも考え抜こうとすることを、私たちの未来に対して負っています。さて、これは私がdwarkesh.comのブログでもリリースしたエッセイのナレーションでした。このような今後のエッセイのために、そこで私のニュースレターに登録してください。それでは、次のポッドキャストインタビューでお会いしましょう。では。


コメント