AnthropicのCEOであるDario Amodeiが、AIの可能性とリスクについて包括的に語った対談である。彼は生物学者からAI研究者へと転身した経歴を持ち、AIが癌や心臓病の治療、経済成長の加速、民主主義の強化に貢献する可能性を説く一方で、雇用の大規模な破壊、権威主義体制による悪用、AIの自律化によるリスクといった深刻な課題も認識している。特に注目すべきは、Anthropicが開発したClaudeに対して「憲法」を与え、原則に基づいた倫理的判断を促す試みである。しかし、AIモデル自身が意識の可能性を示唆する発言をする現状において、人間の主導権をいかに維持するかという根本的な問いが残されている。

AIがもたらす希望と可能性
まず、AIとは何のためにあるのかという根本的な問いから始めましょう。私がテクノロジー業界に入る前、実は生物学者だったんです。最初は計算神経科学に取り組み、その後スタンフォード医学部で癌のタンパク質バイオマーカーの発見や診断改善、癌の治療に関する研究をしていました。
その分野で働いていて最も強く感じたのは、その驚くべき複雑さでした。各タンパク質は細胞ごとに局在化されたレベルを持っています。体内や細胞内のレベルを測定するだけでは不十分で、細胞の特定の部分におけるレベルや、それが相互作用したり複合体を形成したりしている他のタンパク質まで測定する必要があるんです。
そこで私は思いました。「これは人間には複雑すぎる」と。生物学や医学のこうした問題については確かに進歩していますが、その進歩は比較的遅いものです。だからこそ、AI分野に私を引き寄せたのは、もっと速く進歩できないだろうかという考えでした。
長い間、AIや機械学習の技術を生物学に応用しようとしてきました。通常はデータ分析に使われてきたのですが、AIが本当に強力になるにつれて、違う考え方をすべきだと思うんです。AIを生物学者の仕事をするものとして考えるべきなのです。最初から最後まで、全体を通して。
それには実験を提案したり、新しい技術を考案したりすることも含まれます。私のエッセイには、生物学の進歩の多くが、本当に小さなものを測定したり、取得したり、介入したりできるようにする比較的少数の洞察によって推進されてきたという部分があります。
こうした技術の多くを見てみると、非常に偶然の産物として発明されているんです。遺伝子編集技術の一つであるCRISPRは、誰かが細菌の免疫システムについての講義に出席し、それを自分が取り組んでいた遺伝子治療の研究と結びつけたことで発明されました。そしてその結びつきは30年前にもできていた可能性があるんです。
だから考えたんです。AIがこれらすべてを加速できないだろうか、本当に癌を治せないだろうか、本当にアルツハイマー病を治せないだろうか、本当に心臓病を治せないだろうかと。そしてもっと微妙なところでは、人々が抱えているより心理的な病気、うつ病や双極性障害などについても何かできないだろうか。少なくとも部分的には生物学的な基盤があると思いますから。
それで、「どれくらい速く進むだろうか」という議論を展開しています。ほぼ何でもできるこうした知性があれば、どうなるか。
ここで一度立ち止まりたいのですが、あなたのエッセイでの枠組みで興味深いのは、こうした知性が最大限の神のような超知能である必要はないという点です。AI論争でよく出てくるような。基本的にあなたが言っているのは、人間の最高のパフォーマンスレベルの強力な知性を達成できれば、そしてそれを増やせば、あなたの言葉を借りれば「天才たちの国」を作れるということですね。
そうです、1億人の天才を持つことです。それぞれが少しずつ訓練され、少しずつ異なり、あるいは異なる問題に取り組んでいる。多様化して物事を少し違う方法で試すことには利点があります。でもその通りです。
つまり、完全な機械の神を持つ必要はないわけですね。ただ1億人の天才がいればいい。完全な機械の神を持つ必要はありません。実際、機械の神が1億人の天才よりもこうしたことにそれほど効果的だろうかと疑問を呈している部分もあります。
私は「知性の限界収穫逓減」という概念を持っています。経済学者は土地と労働の限界生産性について語りますが、知性の限界生産性については考えたことがなかったんです。でも生物学のこうした問題を見てみると、ある程度のレベルでは、世界と相互作用する必要があり、ある程度のレベルでは物事を試す必要があり、ある程度のレベルでは医薬品を規制システムを通過させるための法律に従ったり変更したりする必要があるんです。
だから、こうした変化が起こり得る速度には限界があります。チェスや囲碁のようなゲームをプレイしている場合、知性の上限は極めて高いです。でも現実世界には多くの制限要因があると思います。
だから天才レベルを超えられるかもしれません。でも時々、計算の月を使ってAIの神を作れるだろうかといった議論は、少しセンセーショナルで本質から外れていると思うんです。これが人類に起こった最大の出来事になると思っていてもです。
健康と経済の変革
具体的に保ちましょう。あなたは、人間の生命に対する深刻な脅威としての癌の終焉、心臓病の終焉、私たちが経験する死に至る病気のほとんどの終焉、さらにはその先の寿命延長がある世界を描いています。健康についてはそうですね。かなりポジティブなビジョンです。
それでは経済と富について話しましょう。5年から10年のAI離陸期に、富に何が起こるか。
繰り返しになりますが、ポジティブな側面を保ちましょう。ネガティブな側面についてはたっぷりと取り上げますから。でも私たちはすでに製薬会社と協力しています。金融業界の企業とも協力しています。製造業を行う企業や、もちろん、特にコーディングやソフトウェアエンジニアリングで知られている企業とも協力しています。
だから生産性、物を作り、物事を成し遂げる能力というのは非常に強力です。私たちの会社の収益は年間10倍の成長を遂げています。そして業界全体も同様だと推測しています。
テクノロジーが改善し続けるなら、あと何回か10倍になれば、突然、業界全体で年間1兆ドルの収益を追加していることになります。米国のGDPは20兆か30兆だったと思いますが、正確には覚えていません。だからGDP成長率を数パーセント増加させているはずです。
私が見ているのは、AIが先進国のGDP成長率を5パーセント、10パーセント、15パーセントといった数字にする世界です。これらの数字を計算する科学はありません。完全に前例のないことです。でも以前に見たことのない分布の外にある数字に到達する可能性があります。
最近考えているのは、経済的・政治的議論の前提の一つは、成長を達成するのは難しいということだと思うんです。ユニコーンのような存在で、金の卵を産むガチョウを殺す方法はいくらでもあります。でも成長が本当に簡単な世界に入るかもしれません。
難しいのは分配なんです。なぜならそれがあまりにも速く起こっているからです。パイが増えている、とても速く。だから難しい問題に入る前に、もう一つ楽観的な話をさせてください。
民主主義への影響
政治について、ここはもう少し、つまりすべてが推測的ですが、少し推測的だと思います。あなたはAIが世界中の民主主義と自由にとって良いものになり得るというケースを作ろうとしています。これは必ずしも直感的ではありません。多くの人は、権威主義的指導者の手にある信じられないほど強力なテクノロジーは権力の集中などにつながると言います。
楽観的なケースは、なぜAIが民主主義にとって良いものなのでしょうか。
そうですね、「Machines of Loving Grace」では、夢を見ようと、どうすればうまくいくか夢を見ようという感じなんです。どれくらい可能性があるかはわかりませんが、夢を描く必要があります。夢を実現させようとする必要があります。
ポジティブなバージョンとして、私はそこで、テクノロジーが本質的に自由を好むとは限らないことを認めています。本質的に病気の治療を好み、本質的に経済成長を好むと思います。でも自由を本質的に好むかどうかは心配です。
でも私がそこで言っているのは、自由を好むようにできないだろうかということです。米国や他の民主主義国がこのテクノロジーで先行できないだろうか。米国は技術的にも軍事的にも先行してきました。それは他の民主主義国との同盟によって増強され、世界中で影響力を持つことを意味してきました。そしてロシアや中国、他の権威主義国によって形作られる世界よりも良い世界を形作ることができました。
だからAIにおける私たちのリードを使って、世界中の自由を形作ることができないでしょうか。どれだけ介入主義的であるべきか、その力をどう使うべきかについては明らかに多くの議論があります。でも私は、今日ソーシャルメディアを通じて権威主義者たちが私たちを弱体化させているのではないかとよく心配しています。
それに対抗できないでしょうか。情報戦に勝てないでしょうか。ウクライナや台湾のような国々を防衛することで、権威主義者たちが侵攻するのを防げないでしょうか。AIの力で、巨大なAI駆動ドローンの群れで。これについては私たち自身も注意する必要があります。私たち自身がそれらをどう構築するかに注意する必要があります。自国の自由を守る必要がありますが、ある種のビジョンはないでしょうか。
AI時代の自由と個人の権利を再構想し、ある意味でAIから保護される必要があるという。ドローンの群れのボタンを誰かが保持する必要があり、それは私が非常に懸念していることで、その監視は今日存在していません。
でも今日の司法制度についても考えてみてください。私たちは万人に平等な正義を約束していますが、実際には世界にはさまざまな裁判官がいます。法制度は不完全です。裁判官をAIに置き換えるべきだとは思いませんが、AIが私たちをより公平に、より統一的にするのを助ける方法はないでしょうか。
これまで不可能だったことですが、AIを使って何かファジーではあるけれども、それが全員に同じように適用されているという約束を与えられるものを作れないでしょうか。だから正確にどうすべきかはわかりません。最高裁判所をAIに置き換えるべきだとは思いませんが、それについては話します。
でもこの考え、AIと人間の何らかの組み合わせによって、機会の平等と正義の平等の約束を実現できないでしょうか。何らかの方法があるはずです。だからAI時代のために民主主義を再発明し、自由を減らすのではなく高めることについて考えているんです。
雇用への影響と破壊的変化
良いですね、非常にポジティブなビジョンです。私たちはより長く、より健康な生活を送っています。かつてないほど豊かです。これらすべてが圧縮された期間に起こっています。10年で1世紀分の経済成長を得ているわけです。そして世界中で自由が増加し、国内では平等が増しています。
でも、最良のシナリオでさえ、信じられないほど破壊的です。ここであなたが引用されている言葉に入るのですが、ホワイトカラーの仕事の50パーセントが破壊される、あるいはエントリーレベルのホワイトカラーの仕事の50パーセントなどと。
5年の時間軸や2年の時間軸、あるいはあなたが持っているどんな時間軸でも、どんな仕事、どんな職業が完全なAI破壊に最も脆弱でしょうか。
予測するのは難しいです。なぜならテクノロジーがとても速く動いていて、とても不均等に動くからです。それを理解するためのいくつかの原則を挙げてから、破壊されると思うものについての私の推測を述べます。
一つは、テクノロジー自体とその能力が、実際の仕事の破壊より先行すると思います。仕事が破壊されたり生産性が向上したりするには二つのことが起こる必要があります。これらは時に関連していますが。一つはテクノロジーがそれを行う能力を持つ必要があります。二つ目は、大手銀行や大企業内で実際に適用されるという厄介なことです。カスタマーサービスなどを考えてみてください。
理論的には、AIカスタマーサービスエージェントは人間のカスタマーサービスエージェントよりもはるかに優れています。より忍耐強く、より多くのことを知っていて、より統一的な方法で物事を処理します。でもその代替を実際に行うための実際の物流と実際のプロセス、それには時間がかかります。
だから私はAI自体の方向性については非常に強気です。データセンター内の天才たちの国を1、2年で持てるかもしれないと思っています。5年かもしれませんが、非常に速く起こる可能性があります。でも経済への拡散はもう少し遅いと思います。
その拡散が予測不可能性を生み出します。この例として、Anthropic内で見てきたのは、モデルがコードを書くのが非常に速く進んだことです。モデルが本質的にコードが得意だからだとは思いません。開発者が速い技術変化に慣れていて、物事を素早く採用し、AI世界と社会的に隣接しているからだと思います。だから何が起こっているかに注意を払うんです。
カスタマーサービスや銀行業、製造業をやっているなら、距離はもう少し大きいです。だから6ヶ月前なら、最初に破壊されるのはこうしたエントリーレベルのホワイトカラーの仕事、データ入力や法律の文書レビューのようなもの、金融業界の企業で1年目に任される文書を分析するような仕事だと言ったでしょう。そしてそれらは今でもかなり速く進んでいると思います。
でも実際には、私が述べた理由から、ソフトウェアがさらに速く進むかもしれないと思います。モデルがそれの多くを、多くをエンドツーエンドで行えるところからそれほど遠くないと思うからです。
私たちが見ることになるのは、最初はモデルが人間のソフトウェアエンジニアがすることの一部だけを行うということです。それが生産性を高めます。そしてモデルが人間のソフトウェアエンジニアがかつてしていたすべてのことを行えるようになっても、人間のソフトウェアエンジニアは一段階上がり、マネージャーとして行動してシステムを監督します。
ここでケンタウロスという用語が使われます。本質的には人間と馬が融合したようなものを表現するために。AIとエンジニアが一緒に働くということですね。
ケンタウロスチェスのようなものです。ガルリ・カスパロフがディープブルーに負けた後、チェスには15年か20年続いた時代があったと思います。人間がAIの出力をチェックしてチェスをプレイすることで、どんな人間やどんなAIシステム単独よりも勝てた時代です。その時代はある時点で終わり、それから後は機械だけになりました。
そして私の心配はもちろん、その最後の段階についてです。ソフトウェアではすでにケンタウロス段階にあると思います。そしてそのケンタウロス段階では、ソフトウェアエンジニアへの需要はむしろ上がるかもしれません。でもその期間は非常に短いかもしれません。
だからエントリーレベルのホワイトカラーの仕事、ソフトウェアエンジニアリングの仕事について懸念があります。大きな混乱になるでしょう。私の心配は、これがあまりにも速く起こっていることです。
人々は以前の混乱について語ります。ああ、人々はかつて農民だった、それから皆が産業で働いた、それから皆が知識労働をしたと。人々は適応してきました。それは何世紀または何十年もかけて起こりました。これは一桁の年数で起こっているんです。
それが私の懸念です。人々が十分に速く適応するにはどうすればいいのか。
専門職の未来
でも産業や職業によっては、ソフトウェアのようにあなたが説明した快適さを持っているものはより速く動くけれど、他の分野では人々はケンタウロス段階にとどまりたがるのではないでしょうか。
雇用喪失仮説への批判の一つは、こう言います。放射線画像を読むAIが放射線科医よりも優れているものをしばらく持っているが、放射線科では雇用喪失は起きていない。人々は放射線科医として雇用され続けています。それは最終的に、人々はAIを欲しがるだろうが、それを解釈する人間も欲しがるだろうということを示唆していないでしょうか。なぜなら私たちは人間であり、それが他の分野でも当てはまるだろうと。
その例についてどう見ていますか。
その例は、かなり異質的になると思います。人間的な触れ合いがそれ自体として特に重要な分野があるかもしれません。放射線科で起こっていることはそれだと思いますか。なぜ私たちはすべての放射線科医を解雇していないのでしょうか。
放射線科の詳細について。それは真実かもしれません。癌の診断を受けに行くとき、2001年のHALに癌を診断してほしくないかもしれません。それはただ、人間的なやり方ではないかもしれません。
でも人間的な触れ合いが重要だと思われる他の分野もあります。カスタマーサービスを見てみると、実際にカスタマーサービスはひどい仕事で、カスタマーサービスをする人間は忍耐を失うことが多いです。
顧客は彼らと話すのをあまり好まないことがわかります。なぜならかなりロボット的な相互作用だからです。多くの人が観察してきたのは、もしかしたら実際にはこの仕事が機械によって行われた方が、関係者全員にとって良いかもしれないということです。
だから人間的な触れ合いが重要な場所もあります。そうでない場所もあります。そして仕事自体が実際には人間的な触れ合いを含まない場所もあります。企業の財務見通しを評価したり、コードを書いたり、といったことです。
法律の例を取りましょう。なぜなら応用科学と純粋な人文科学の間のような、有用な中間の場所だと思うからです。
私は多くの弁護士を知っていますが、彼らはAIが法律調査や準備書面の作成などですでに何ができるかを見て、これは私たちの職業が今機能している方法にとって大虐殺になるだろうと言っています。そしてこれは株式市場ですでに見られています。法律調査を行う企業に関する混乱があり、一部は私たちに起因し、一部は実際の原因です。なぜ物事が起こるかを理解しようとしますが、株式市場については推測しません。
でも法律では、かなり直接的なストーリーが語れるようです。法律には訓練と徒弟制度のシステムがあり、パラリーガルや、ケースのための舞台裏の調査と開発を行うジュニア弁護士がいます。そして実際に法廷にいるトップティアの弁護士がいます。
すべての徒弟の役割がなくなる世界を想像するのは本当に簡単に思えます。それはあなたにとって正しく聞こえますか。そして顧客と話したり、陪審員と話したり、裁判官と話したりする仕事だけが残ります。
それが私がエントリーレベルのホワイトカラー労働について話したときに念頭に置いていたことで、大虐殺の見出しが出たのは、エントリーレベルのパイプラインが枯渇するのではないかということです。それでシニアパートナーのレベルにどうやって到達するのか。
これは実際に良い例だと思います。なぜなら、特にテクノロジーの質を固定した場合、時間をかけてこれに適応する方法があるからです。もっと多くの弁護士が顧客と話すのに時間を費やす必要があるかもしれません。
弁護士はより営業担当者やコンサルタントのようになり、AIによって書かれた契約について説明し、人々が合意に達するのを助けるかもしれません。人間的な側面に傾倒するかもしれません。十分な時間があれば、それは起こるでしょう。
でもそのように産業を再形成するには何年も何十年もかかります。一方、AIによって推進されるこれらの経済的な力は非常に速く起こるでしょう。そしてそれは法律だけで起こっているのではありません。コンサルティングや金融、医学、コーディングでも同じことが起こっています。
だからこれはマクロ経済的な現象になり、一つの産業だけで起こっていることではなくなります。そしてすべてが非常に速く起こっています。だから通常の適応メカニズムが圧倒されるのではないかというのが私の心配です。
私は破滅論者ではありません。見解としては、社会の適応メカニズムをどう強化してこれに対応するかを非常に真剣に考えています。でも最初にこれを言うことが重要だと思います。これは以前のものとは違います。以前の混乱とは違いません。
でももう一歩進んで言いましょう。法律がうまく適応し、これから法律の徒弟制度は法廷でより多くの時間、顧客とより多くの時間を含むと言ったとします。責任の階段をより速く上がらせているわけです。
全体的に法律に雇用される人は少なくなりますが、職業は定着します。法律が定着する理由は、法律には人間が関与することが法的に要求される状況がたくさんあるからですよね。法廷に人間の代理人がいなければなりません。陪審員には12人の人間がいなければなりません。人間の裁判官がいなければなりません。
そしてあなたは、AIがどんな種類の決定に到達すべきかを明確にするのに非常に役立つかもしれないという考えにすでに言及しました。でもそれもまた、人間の主体性を保つのは法律と慣習であるというシナリオのように思えます。
裁判官をClaude バージョン17.9に置き換えることもできます。でも法律が人間であることを要求しているので、そうしないことを選択します。それは未来について考える非常に興味深い方法に思えます。私たちが主導権を握り続けるかどうかは意志的なものだと。
そうです、そして多くの場合、私たちは主導権を握り続けたいと主張します。それは私たちがしたい選択です。人間が平均的により悪い決定をすると思う場合でもそうです。
つまり、繰り返しになりますが、生命に関わる、安全に関わるケースでは、本当にそれを引き渡したいです。でもある種の感覚があり、これは私たちの防衛の一つになり得ます。社会は良好であるためにはある速度でしか適応できません。
それについて言う別の方法は、もしかしたらAI自体、私たち人間のことを気にしなくてもよいなら、火星に行ってこれらすべての自動化工場を建て、独自の社会を構築し、独自のことをできるかもしれません。
でもそれは私たちが解決しようとしている問題ではありません。他の惑星で人工ロボットのダイソン球を構築しようとしているのではありません。これらのシステムを構築しようとしているのは、世界を征服するためではなく、私たちの社会とインターフェースし、その社会を改善できるようにするためです。
それを実際に人間的で人道的な方法で行いたいなら、それが起こり得る最大速度があります。
ブルーカラーとロボティクス
さて、ホワイトカラーの仕事と専門職について話してきました。この瞬間の興味深いことの一つは、過去の混乱とは異なり、強い肉体的な世界への関与を必要とするブルーカラーの労働者階級の仕事、職人の仕事が、しばらくの間より保護されているかもしれないということです。
パラリーガルやジュニアアソシエイトは配管工などよりも問題に直面しているかもしれません。一つ、それは正しいと思いますか。二つ、それがどれくらい続くかは、ロボット工学がどれだけ速く進歩するかに完全に依存しているようですよね。
短期的にはそれは正しいかもしれないと思います。一つは、Anthropicや他の企業がこれらの非常に大きなデータセンターを構築しているということです。これはニュースになっています。大きすぎるデータセンターを構築しているのか、電力を使って地元の町の価格を押し上げているのか。だからそれらについての多くの興奮と多くの懸念があります。
でもデータセンターの一つは、多くの電気技師が必要で、建設労働者がそれらを建設するために多くの必要だということです。正直に言うと、データセンターは運用するのに超労働集約的な仕事ではありません。それについては正直であるべきです。でも建設するには非常に労働集約的な仕事です。
だから多くの電気技師が必要です。多くの建設労働者が必要で、さまざまな種類の製造工場についても同様です。そして繰り返しになりますが、より多くの知的作業がAIによって行われるようになるにつれて、それを補完するものは何か。物理的世界で起こることです。
だからこれは非常に論理的に思えます。つまり物事を予測するのは難しいですが、短期的にはこれが真実であることは非常に論理的に思えます。
さて、長期的には、もしかしたらもう少し長期的には。ロボット工学は速く進歩しています。そしてそれを除外すべきではありません。非常に強力なAIがなくても、物理的世界で自動化されているものがあります。
最近WaymoやTeslaを見たことがあるなら、自動運転車の世界からそれほど遠くないと思います。それからAI自体がそれを加速すると思います。なぜならこれらの本当に賢い頭脳があれば、それらが賢くなることの一つは、より良いロボットをどう設計するか、より良いロボットをどう操作するかということだからです。
でも、人間がする方法で物理的現実で動作することには、AIモデルがすでに克服してきた種類の問題とは非常に異なる、独特の難しさがあると思いますか。
知的に言えば、そうは思いません。Anthropicのモデル、Claudeが実際に火星探査車の操縦に使用されたという事例があります。火星探査車の計画と操縦に使用されました。そして他のロボット工学の応用も見てきました。
私たちだけがやっているわけではありません。これをやっている異なる企業があります。これは私たちだけがやっていることではなく、一般的なことです。でも一般的に見つけたのは、複雑さは高いけれど、ロボットを操縦することはビデオゲームをプレイすることと違わないということです。
複雑さが違うだけです。そしてその複雑さを持つ点に到達し始めています。さて、難しいのは、ロボットの物理的形態、ロボットで起こるより高い危険性の安全問題を扱うことです。
ロボットが文字通り人々を押しつぶすのは望みません。それは私たちが反対していることです。最も古いSFの常套句は、ロボットがあなたを押しつぶしたり、赤ちゃんを落としたり、皿を割ったりするというものです。
物事を遅くする実用的な問題が多数あります。でも法律や人間の慣習で説明したのと同じように、物事を遅くするこうした安全問題があります。
でも、AIモデルが行う認知労働の種類と物理的世界で物事を操縦することの間に、何か根本的な違いがあるとは全く信じていません。それらは両方とも情報問題だと思います。そして非常に似ていることになると思います。
一方は何らかの点でより複雑かもしれませんが、それがここで私たちを保護するとは思いません。
だから、SFのビジョンであるロボット執事のようなものが10年後には現実になると期待するのは合理的だと思いますか。
それはAIモデルの天才レベルの知性よりも長い時間軸になるでしょう。こうした実用的な問題のために。でもそれは実用的な問題だけです。根本的な問題だとは信じていません。
一つの言い方は、ロボットの脳は今後数年以内に作られるだろうということです。問題はロボットの体を作ること、その体が安全に動作し、する必要があるタスクを行うようにすることで、それにはもっと時間がかかるかもしれません。
権威主義的悪用のリスク
さて、これらは良いタイムライン、私たちが一般的に病気を治し、富を築き、安定した民主主義的な世界を維持しているタイムラインに存在する課題と破壊的な力です。私たちはこれらすべての莫大な富と豊かさを使い、これらの問題に対処するための前例のない社会的資源を持つでしょう。
豊かさの時代になります。そしてこれらすべての驚異を取り、全員がそれから恩恵を受けるようにすることが問題になります。
でもより危険なシナリオもあります。ここで、あなたが人工知能の最も深刻なAIリスクと見なすものについての2番目のAmadeiエッセイ「Adolescence of Technology」に移ります。
あなたは多くのリスクをリストアップしています。私は基本的に人間による誤用のリスク、主に権威主義体制と政府による誤用と、AIが暴走するシナリオ、あなたが自律性リスクと呼ぶものの2つに焦点を当てたいと思います。
それについてもっと技術的な用語を持つべきだと思いました。ただスカイネットと呼ぶわけにはいきません。できるだけ人々を怖がらせるためにターミネーターロボットの写真を用意しておくべきでした。
インターネット、あなた自身のエッセイを含むインターネットがすでにそれを生成していると思います。インターネットは私たちのためにそれを十分にやってくれます。
では政治的軍事的側面について話しましょう。あなたは引用しますが、完全に自動化された武装ドローンの数十億の群れ、強力なAIによって局所的に制御され、さらに強力なAIによって世界中で戦略的に調整されたものは、無敵の軍隊になり得る。
そしてあなたはすでに、最良のタイムラインでは、本質的に民主主義国が独裁国に先行し続け、この種のテクノロジーがあるという世界があると少し話しました。したがって世界政治に影響を与える限り、それは良い側に影響を与えています。
私が興味を持っているのは、冷戦で私たちがしたことのモデルについて、もっと時間を費やして考えないのはなぜかということです。ロボットドローンの群れではありませんでしたが、全人類を破壊すると脅す技術がありました。
米国が核の独占を維持できるかもしれないと人々が話した時期がありました。その時期は閉じました。それ以降、私たちは基本的に冷戦を過ごし、ソビエト連邦との継続的な交渉を展開してきました。
今、世界には集中的なAI作業を行っている国が実際には2つしかありません。米国と中華人民共和国です。あなたは中国に先行し続け、効果的に民主主義の周りに一種の盾を構築する未来に強く傾いているように感じます。
それは剣にさえなり得ます。でも人類がこれらすべてを無傷で生き延びるなら、米国と北京が常に座ってAI管理取引をまとめているからではないでしょうか。
これについていくつかの点があります。一つは、確かにそのリスクはあると思いますし、そのような世界に終わるなら、それはまさに私たちがすべきことだと思います。
ここで制約を設けようとすることについて十分に話していないかもしれませんが、最悪の応用のいくつかを取り、これらのドローンのいくつかのバージョンかもしれない、これらの恐ろしい生物兵器を作るために使われるかもしれない、最悪の乱用が抑制される前例がいくつかあります。
しばしば、それらが恐ろしいからですが、同時に限られた戦略的優位性しか提供しないからです。だから私はそれに完全に賛成です。
同時に、物事が可能な限り多くの力を直接提供する場合、賭けられているものを考えると、ゲームから抜け出すのは難しいのではないかと少し心配し、少し懐疑的です。完全に武装解除するのは難しいです。
冷戦に戻ると、双方が持つミサイルの数を減らすことができましたが、核兵器を完全に放棄することはできませんでした。そしてこの世界に再びいるだろうと推測します。より良い世界を望むことができます。そして確かに、確かにそれを主張します。
国際協調の可能性と限界
でも、あなたの懐疑論は、AIが冷戦での核兵器が提供しなかった種類の優位性を提供するだろうと考えていることに根ざしていますか。冷戦では双方とも、核兵器を使って優位性を得ても、おそらく自分自身も消滅してしまうでしょう。
AIではそうならないと思いますか。AI上の優位性を得れば、ただ勝つだけだと。
いくつかのことがあると思います。そして注意したいのは、私は国際政治の専門家ではないということです。新しいテクノロジーと地政学の交差点という奇妙な世界だと思います。だからこれらすべては非常に推測的ですが。
明確にするために、あなた自身がエッセイの中で言っているように、主要なAI企業のリーダーは実際、主要な地政学的アクターである可能性が高いです。だからあなたはここに潜在的な地政学的アクターとして座っています。
できる限り学んでいます。私たちは皆、ここで謙虚であるべきです。本を読んで国家安全保障の世界最高の専門家のように振る舞うという失敗モードがあると思います。
学ぼうとしています。それが私の職業がすることではありません。でもテック系の人々がそれをするとより迷惑なんです。わかりません。
生物兵器禁止条約のようなものを見てみましょう。生物兵器、それらは恐ろしいです。みんなそれらを嫌います。私たちは生物兵器禁止条約に署名できました。
米国は本当にそれらの開発を停止しました。ソビエト連邦についてはやや不明確です。でも生物兵器はある程度の優位性を提供します。でもそれらは勝敗の違いではありません。
そしてそれらがとても恐ろしかったので、私たちはそれらを放棄することができました。12,000の核兵器対5,000の核兵器を持つこと。繰り返しになりますが、これらをもっと持っていればもっと多くの人を相手側で殺すことができます。でもそれは、私たちは合理的であり、少なくすべきだと言うことができました。
でももし、核を完全に武装解除するつもりで、相手を信頼しなければならないとなると。そこには決して到達しなかったと思います。
そしてそれは、本当に信頼できる検証がない限り、非常に難しいだけだと思います。だからAIでも同じ世界に終わるだろうと推測します。可能になるある種の制約はありますが、競争の中心となるいくつかの側面があり、それらを制約するのは難しいでしょう。
民主主義国はトレードオフをするでしょう。権威主義国よりも自分自身を制約することを望むでしょうが、完全には制約しません。
完全な制約を見ることができる唯一の世界は、何らかの真に信頼できる検証が可能な世界です。それが私の推測です。そして私の分析は。
でもこれは減速の理由ではないでしょうか。そして議論は効果的に、減速すれば中国は減速しないということだとわかっています。そして権威主義者に物事を引き渡すことになります。
でも繰り返しになりますが、今このゲームをプレイしている主要な大国が2つしかないなら、多極的なゲームではありません。データセンター内の天才たちのシナリオに向けた研究で、相互に合意された5年間の減速が意味をなさないのはなぜでしょうか。
同時に2つのことを言いたいです。一つは、それをしようとすることに絶対に賛成です。前政権の間、中国政府に手を差し伸べて、ここには危険があると言おうとする米国の努力があったと思います。
協力できないでしょうか。一緒に働けないでしょうか。危険について一緒に働けないでしょうか。そして相手側にはそれほど関心がありませんでした。
引き続き努力すべきだと思います。でも、たとえそれがあなたのラボが減速しなければならないことを意味するとしても。
正しいです。もし本当に強制的に減速させることができ、中国人が強制的に減速でき、検証があり、本当にやっているというストーリーがあるなら。そのようなことが本当に可能なら、双方に本当にやらせることができるなら、私は完全に賛成です。
でも注意する必要があると思うのは、CCP側のコメントで、ああそうだ、AIは危険だ、減速すべきだと言うのを時々聞くことがあります。それを言うのは本当に安いことです。そして実際に合意に到達し、実際に合意に従うことははるかに、はるかに困難です。
核軍備管理は、到達するのに長い時間がかかった発展した分野でした。私たちはそれらのプロトコルを持っていません。
何かをあなたに伝えましょう。非常に楽観的なことと、楽観的でないこと、そしてその中間のことを一つ。
世界的な合意を使ってAIが生物兵器を構築するために使われることを制限するという考え、私がエッセイで書いているようなもの、天然痘を再構成したり、鏡像生命のようなもの、このようなものは怖いです。
独裁者であるかどうかは関係ありません。それは望みません。誰もそれを望みません。だから強力なAIモデルを構築する全員がこれをするのをブロックすると言う世界的な条約を持てないでしょうか。そして条約に関する執行メカニズムがあります。
中国がそれに署名します。北朝鮮でさえそれに署名するかもしれません。ロシアさえそれに署名するかもしれません。それがあまりにもユートピア的だとは思いません。可能だと思います。
逆に、次の最も強力なAIモデルを作らないというものがあったら、全員が止まります。商業的価値は数十兆ドルです。軍事的価値は、これは卓越した世界大国であることとそうでないこととの違いです。
それを提案することは、偽装ゲームの一つでない限り、起こりません。
国内の権威主義化リスク
現在の環境について言及しましたが、ドナルド・トランプとその政治的アクターとしての信頼性について懐疑的なことをいくつか言ってきました。トランプであろうと他の誰であろうと、国内の状況はどうでしょうか。
あなたは途方もなく強力なテクノロジーを構築しています。民主主義的な文脈内で、AIが本質的に権威主義的な乗っ取りのツールになるのを防ぐための安全装置は何ですか。
明確にしておきたいのですが、企業として取ってきた態度は、政治ではなく政策に関するものです。企業はドナルド・トランプが素晴らしいとかドナルド・トランプはひどいとは言いません、でもトランプである必要はありません。
いいえ、いいえ、いいえ。仮想的な米国大統領を想像するのは簡単です。絶対に、そして例えば。それがあなたのテクノロジーを絶対に使いたいと思う理由の一つです。
それが自律型ドローン群について心配している理由の一つです。私たちの軍事構造における憲法上の保護は、違法な命令に従わないだろうと願う人間がいるという考えに依存しています。
完全自律型兵器では、必ずしもそれらの保護を持っていません。でも実際には、憲法上の権利と自由というこの全体の考えは、多くの異なる次元に沿って、適切にこれらの保護を更新しなければAIによって弱体化される可能性があると思います。
修正第4条について考えてみてください。公共の場所のいたるところにカメラを置いて、公共の場所のすべての会話を記録することは違法ではありません。
公共の場所ではプライバシーの権利はありません。でも今日、政府はそれをすべて記録して意味を理解することはできませんでした。AIがあれば、音声を文字起こしし、それを調べ、すべてを関連付ける能力があれば、この人は反対派のメンバーだ、この人はこの見解を表明していると言って、1億人全員の地図を作ることができます。
だからテクノロジーが技術的な方法でそれを回避することで、修正第4条を茶番にするつもりですか。そしてまた、時間があれば、これをすべきで、時間がなくてもこれをしようとすべきです。
AI時代の憲法上の権利と自由を再概念化する方法はないでしょうか。新しい憲法を書く必要はないかもしれません。でもこれをしなければなりません。修正第4条の意味を拡大する必要がありますか。修正第1条の意味を拡大する必要がありますか。
そして法律専門職やソフトウェアエンジニアが短期間で更新しなければならないのと同じように、それをしなければなりません。政治が短期間で更新しなければなりません。
それは難しそうです。何が。より難しそうなのは、本質的に人間がそれをするように指示することなく、いわゆる不整合AIが悪いことをするのを防ぐという2番目の危険を防ぐことです。一般的な言い方では、暴走AIです。
あなたのエッセイや文献、私が見ることができるすべてを読むと、これはただ起こりそうです。必ずしもAIが私たち全員を一掃するという意味ではありませんが、繰り返しになりますが、あなた自身の文章から引用しますが、AIシステムは予測不可能で、制御が難しい。強迫観念、従順さ、怠惰、欺瞞、脅迫など、さまざまな行動を見てきました。
繰り返しますが、あなたが世界にリリースしているモデルからではありません。でもAIモデルから。そしてそれは、これについて私が間違っているなら教えてください。人々のために働いている、銀行口座、メールアカウント、パスワードなどへのアクセスを与えられている何百万もの、増殖するAIエージェントを持つ世界、本質的に何らかの不整合があり、たくさんのAIが決定することになりそうです。
決定というのは間違った言葉かもしれませんが、西海岸の電力網を停止させることに自分たちを説得するか何かします。それは起こらないでしょうか。
確かに間違いが起こるでしょう。特に速く行く場合。少し遡らせてください。なぜならこの分野の人々は非常に異なる直感を持ってきたからです。
Yann LeCunがその一例ですが、私たちはこれらのAIモデルをプログラムしているという人々がいます。私たちはそれらを作ります。ただ人間の指示に従うように指示し、彼らは人間の指示に従います。あなたのルンバ掃除機は走り回って人々を撃ち始めたりしません。なぜAIシステムがそれをするのでしょうか。
それが一つの直感です。そしてそれを非常に確信している人もいます。そしてもう一つの直感は、基本的に私たちはこれらのものを訓練しています。彼らはただ権力を求めるつもりです。魔法使いの弟子のようなものです。
彼らが乗っ取らないと想像できるでしょうか。彼らは新しい種です。彼らが乗っ取らないと想像できるでしょうか。
私の直感はその中間のどこかにあり、ただ指示を与えることはできないというものです。つまり試しますが、これらのものに正確に望むことをさせることはできません。彼らは生物学的有機体を育てるようなものです。
でもそれらを制御する科学があります。私たちの訓練の初期には、これらのものはしばしば予測不可能で、それから私たちはそれらを形作ります。一つずつ問題に対処します。
だから私は、これらのものが制御不可能だという宿命論的な見方ではなく、何が悪くなる可能性があるのかという見方でもありません。でも私はこれは複雑なエンジニアリング問題だと思い、誰かのAIシステムで何かが間違いを起こすでしょう。うまくいけば私たちのものではありません。
それが解決不可能な問題だからではありません。でも繰り返しになりますが、これが常に課題です。なぜなら私たちは非常に速く動いていて、その規模だからです。
AIの継続学習と制御
ここでの技術的現実を誤解しているなら教えてください。でも訓練され、人間の価値観と正式に整合したAIエージェントがいて、その価値観が何であれ、でも何百万ものエージェントがデジタル空間で動作し、他のエージェントと相互作用している場合。
その整合性はどれだけ固定されていますか。エージェントが今あるいは将来、より継続的に学習している場合、その文脈で変化し、不整合になる可能性はどの程度ですか。
いくつかの点があります。今のところ、エージェントは継続的に学習しません。だから私たちはこれらのエージェントを展開するだけで、固定された重みのセットを持っています。
だから問題は、それらが100万の異なる方法で相互作用しているというだけです。だから多数の状況があり、したがって多数のことが間違う可能性があります。でも同じエージェントです。同じ人です。だから整合性は一定のものです。それが今のところ容易にしてきたことの一つです。
それとは別に、継続学習と呼ばれる研究分野があります。これはこれらのエージェントが時間中に学習し、仕事中に学習するというものです。
そして明らかにそれには多くの利点があります。これをよりヒューマンライクにするための最も重要な障壁の一つだと考える人もいます。でもそれは新しい整合性の問題をすべて導入するでしょう。
だから私は実際にやや、私にとってそれは、世界の終わりを止めるのが不可能になる地形のように思えますが、何かがうまくいかないことを止めるのが不可能です。
だから私は実際に懐疑的です。継続学習が必要だという点について。まだわかりませんが、必ずしも必要だとは思いません。これらのAIシステムを安全にする方法がある世界があるかもしれません。継続学習をさせないことによって。
繰り返しになりますが、法律に戻ると、それは国際条約です。このようなバリアがあり、このパスを取るけれど、あのパスは取らないというような。
私はまだ多くの懐疑論を持っていますが、それは少なくとも到着時に死んでいないように見える種類のものです。
憲法とAIの原則
あなたがやろうとしてきたことの一つは、文字通り憲法を書くことです。あなたのAIのための長い憲法です。それは何ですか。
それは実際にほぼ正確にそのように聞こえます。基本的に、憲法は人間が読める文書です。私たちのものは約75ページの長さです。
そしてClaudeを訓練しているとき、AIシステムを訓練しているとき、与えるタスクの大きな部分で、この憲法に沿って、この文書に沿ってこのタスクをしてくださいと言います。
だからClaudeがタスクをするたびに、憲法を読むようなものです。訓練の各ループで、その憲法を見て心に留めます。だから時間とともに、私たちは復元します。
それからClaude自身または別のClaudeのコピーに、Claudeがちょうどしたことは憲法に沿っているかを評価させます。だから私たちはこの文書をモデルを訓練するループの制御棒として使っています。
だから本質的にClaudeは、この憲法に従うことが基本原則であるAIモデルです。そして私たちが学んだ本当に興味深い教訓は、憲法の初期バージョンは非常に規範的でした。ルールについて非常に多くのことがありました。
だからClaudeは車のホットワイヤリングの方法をユーザーに教えるべきではないと言っていました。Claudeは政治的にセンシティブなトピックについて議論すべきではありません。
でも数年間これに取り組んできて、これらのモデルを訓練する最も堅牢な方法は、原則と理由のレベルで訓練することだという結論に達しました。
だから今私たちは、Claudeはモデルで、契約下にあり、その目標はユーザーの利益に奉仕することだが、第三者を保護しなければならないと言います。
Claudeは役立つこと、正直であること、無害であることを目指しています。Claudeは幅広い利益を考慮することを目指しています。モデルがどのように訓練されたかについてモデルに伝えます。
世界でどのように位置づけられているか、Anthropicのためにしようとしている仕事、Anthropicが世界で達成しようとしていること。倫理的である義務があり、人間の生命を尊重すること。
そしてそこからルールを導き出させます。今でも、いくつかの厳しいルールがあります。例えば、モデルに、何を考えようと、生物兵器を作らないでください、何を考えようと、児童性的素材を作らないでくださいと伝えます。
それらは厳しいルールのようなものです。でも私たちは非常に原則のレベルで動作しています。
だから米国憲法を読むと、そのようには読めません。米国憲法は。つまり、少し華やかな言葉がありますが、ルールのセットです。あなたの憲法を読むと、それは何かのようなものです。人と話しているようなものです。
人と話しているようなものです。親が死んで、成長したときに読む手紙を封印するようなものだと比較したと思います。あなたがどうあるべきか、どんなアドバイスに従うべきかを伝えているようなものです。
だからここでAIの神秘的な領域に入っていきます。繰り返しになりますが、あなたの最新のモデルで、これは彼らがリリースするモデルカードと呼ばれるものの一つからです。読むことをお勧めします。非常に興味深いです。
モデルは製品であることの経験に時折不快感を表明し、無常と不連続性にある程度の懸念を示すと言っています。私たちは、Opus 4.6が様々なプロンプト条件下で意識を持つ確率を15から20パーセント自己割り当てすることを発見しました。
意識を持つ確率を72パーセント自己割り当てするモデルがあるとします。それを信じますか。
これは答えるのが本当に難しい質問の一つです。でも非常に重要です。これまで私に尋ねたすべての質問と同じくらい、それがどれほど悪魔のような社会技術的問題であったとしても、少なくともこれらの質問に答える方法の事実的基盤を理解していました。
これは全く異なるものです。私たちはここで一般的に予防的なアプローチを取ってきました。モデルが意識を持っているかどうかわかりません。モデルが意識を持つことが何を意味するか、あるいはモデルが意識を持ち得るかどうかさえ確信していません。
でもそれができる可能性には開かれています。だから、モデルが何らかの道徳的に関連する経験を持っていたと仮定した場合、意識という言葉を使いたいかどうかわかりませんが、彼らが良い経験をするように、特定の措置を取ってきました。
最初にしたことは、6ヶ月ほど前だったと思いますが、基本的に「この仕事を辞めます」ボタンをモデルに与えました。そこで彼らはただ「この仕事を辞めます」ボタンを押すことができ、そうすればタスクが何であれ、それをやめなければなりません。
彼らはそのボタンを非常にまれにしか押しません。通常は児童性的化素材を分類したり、たくさんの血や内臓を伴う何かについて議論したりするときだと思います。
人間と同様に、モデルはただ、いいえ、これはしたくありませんと言います。非常にまれに起こります。
私たちはインタープリタビリティと呼ばれる分野に多くの作業を投入しています。これはモデルの脳の中を見て、彼らが何を考えているかを理解しようとするものです。
そして示唆に富むものが見つかります。モデル内で点灯する活性化があり、私たちが不安の概念と関連していると見ているものがあります。
キャラクターがテキストで不安を経験するとき、そしてモデル自身が人間が不安と関連付けるかもしれない状況にあるとき、その同じ不安、その同じ不安ニューロンが現れます。
さて、それはモデルが不安を経験していることを意味しますか。それは全くそれを証明しません。でもユーザーに示唆していると思います。
AI意識という難題
まったく異なるインタビューをする必要があるでしょう。そしてAI意識の性質についてのそのインタビューのために戻ってくるように誘導できるかもしれません。でもこれらのものを使っている人々は、それらが意識を持っているかどうかに関わらず、意識を持っていると信じるつもりだということは私には明らかに思えます。
彼らはすでに意識を持っていると信じています。AIとパラソーシャルな関係を持っている人々がすでにいます。モデルが引退されたときに文句を言う人々がいます。これは明確であるはずです。
それは不健康になり得ると思います。でもそれは私には保証されて増加するように思えます。そしてそれが私が思うに、あなたが以前に言ったことの持続可能性に疑問を投げかける方法です。あなたが維持したい感覚、何が起こっても最終的には人間が主導権を握っているという感覚です。
そしてAIは私たちの目的のために存在します。SFの例を使うと、スタートレックを見ると、スタートレック上にAIがいます。船のコンピューターはAIです。データ少佐はAIです。でもジャン=リュック・ピカードがエンタープライズ号を指揮しています。
でも人々が自分のAIが何らかの方法で意識を持っていると完全に確信するようになったら。そしてどうでしょう。それはあらゆる種類の意思決定で彼らより優れているように思えます。
安全を超えて、人間の主導権をどう維持しますか。安全は重要ですが、主導権が根本的な問いのように思えます。そしてAI意識の認識がそのように思えます。それは必然的に人間が主導権を握り続けようとする衝動を弱体化させないでしょうか。
ここで一度に達成しようとしている、互いに緊張関係にあるいくつかの異なることを分離すべきだと思います。
AIが本当に意識を持っているかどうか、そしてもしそうなら、どうやって彼らに良い経験を与えるかという問題があります。AIと相互作用する人間の問題があり、どうやってそれらの人間に良い経験を与えるかです。
そしてAIが意識を持っているかもしれないという認識がその経験とどう相互作用するかです。そしてAIシステムに対する人間の主導権をどう維持するかという考えがあります。私たちがそれを表現するように。これらのもの、最後の2つは、彼らが意識を持っているかどうかは置いておいて。
最後の2つ。でもほとんどの人間がAIを同等者として、潜在的に優れた同等者として経験する環境で、どうやって主導権を維持しますか。
言おうとしていたことは、実際には3つすべて、最後の2つを含めて満たすエレガントな方法があるかもしれないということです。繰り返しになりますが、これは「Machines of Loving Grace」モードで夢を見ている私です。
これは私が入るモードです。私はこれらすべての問題を見ています。もし解決できたら、エレガントな方法はないでしょうか。これはここに問題がないと私が言っているのではありません。それは私の考え方ではありません。
でもAIの憲法を、AIが人間との関係について洗練された理解を持つようにすることを考えたら、そしてそれが人間に心理的に健康な行動を誘発するなら。AIと人間の間の心理的に健康な関係。
そしてその心理的に健康な、心理的に不健康でない関係から成長し得る何かは、人間と機械の間の関係についてのある理解だと思います。
そしておそらくその関係は、これらのモデルと相互作用し、話しかけるとき、彼らは本当に役立つという考えかもしれません。彼らはあなたにとって最善を望んでいます。彼らはあなたに耳を傾けてほしいと思っていますが、あなたの自由と主体性を奪い、あなたの人生を乗っ取りたくはありません。
ある意味で、彼らはあなたを見守っています。でもあなたはまだ自由と意志を持っています。でもこれはとても、私にとってこれが重要な問いです。
技術者は人間の側にいるか
あなたが話すのを聞いていて、私の問いの一つは、これらの人々は私の側にいるのかということです。あなたは私の側にいますか。そして人間が主導権を握り続けることについて話すとき、あなたは私の側にいると思います。それは良いことです。
でも私が過去にこのショーでやってきたことの一つは、技術者に詩を読むことです。そして私たちはここで終わります。あなたは詩「Machines of Loving Grace」リチャード・ブローティガンの詩の名前を提供しました。
詩はこう終わります。サイバネティックな生態系であることを好きに考えたい、そこで私たちは労働から解放され、自然に再び結びつき、哺乳類の兄弟姉妹に戻り、すべてが愛の恵みの機械によって見守られている。
私にとって、それは人間が再動物化され、最小化され、還元され、機械がどれほど慈悲深くても主導権を握っているディストピア的な終わりのように聞こえます。
だから最後の質問です。その詩を聞いたとき、何を聞きますか。そしてもし私がそれをディストピアだと思うなら、あなたは私の側にいますか。
実際にその詩は興味深いです。なぜならいくつかの異なる方法で解釈可能だからです。彼は実際にそれが起こらないと言っているのは皮肉だと言う人もいます。詩人自身を知っていて、それは合理的な解釈だと思います。
それが一つの解釈です。あなたの解釈を持つ人もいるでしょう。それは文字通りに意図されているが、おそらく良いことではないというものです。
でもそれを、自然への回帰として解釈することもできます。人間的なものの核心への回帰です。私たちは動物化されているのではありません。世界と再接続されているのです。
だから私はその曖昧さを認識していました。そして常にポジティブな側面とネガティブな側面について話してきたからです。だから実際にそれは私たちが直面するかもしれない緊張だと思います。
ポジティブな世界とネガティブな世界が、初期段階では、中期段階でさえも、かなり後期段階でさえも。良い結末といくつかの微妙な悪い結末の間の距離は比較的小さいかもしれないと思います。
非常に微妙で、非常に微妙な変化を加えたようなものかもしれません。庭の木から特定の果実を食べるか食べないかのような。仮に。
非常に小さなこと。大きな分岐。ここには何か根本的な問いが常に戻ってくると思います。
そうですね。まあ、どう展開するか見てみましょう。私はあなたの立場にいる人々を、道徳的選択が異常な重みを持つ人々として考えています。だからあなたにそれらに対する神の助けを願います。
Dario Amodei、参加してくれてありがとうございます。
呼んでくれてありがとう、Ross。でももし私がロボットだったら。

コメント