AI安全性を最優先に掲げてきたAnthropicが、米国防総省との対立により重大な岐路に立たされている。同社のAIモデルClaudeがベネズエラでの軍事作戦に使用されたことが発覚し、国防総省は同社に対して安全性ガードレールの撤廃を要求。48時間以内に決断を迫られる中、Anthropicは自社の責任あるスケーリングポリシーを大幅に改訂し、絶対的な安全優先の姿勢を事実上放棄した。国防総省は国防生産法の適用、サプライチェーンリスク指定、契約取り消しという3つの強力な武器を用意しており、Anthropicは自律型兵器と国内監視という2つのレッドラインを守り通せるのか、そしてそもそも守り抜く力があるのかが問われている。この対立は、倫理的AI企業が国家安全保障の要求と直面したとき、その理念を貫けるかどうかを示す試金石となる。

完全自律型兵器への懸念
だからこそ私は心配しているんです。完全自律型のドローン群について、ですね。私たちの軍事構造における憲法上の保護は、違法な命令に対して人間が従わないことを期待できるという考えに依存しています。完全自律型兵器では、そうした保護が必ずしも機能しないんです。
国防総省との対立の始まり
さて、Anthropicが様々な理由で多くの人々から厳しい目を向けられています。でも、本当に敵に回したくない存在が一つあって、Anthropicはその相手を怒らせてしまいました。その存在とは、米国の軍産複合体、国防総省です。
本当に味方につけておきたい相手ですよね。では、一体何が起こったのか正確に見ていきましょう。この動画は最後まで必ず見てください。なぜなら、これから48時間以内に起こることは歴史的な出来事になるからです。私がこの動画を録画している今、文字通り48時間を切っています。何が起ころうと、それは歴史に残るでしょう。時計は刻々と進んでいます。金曜日に期限が切れます。
では詳しく見ていきましょう。Anthropicはある一つの、かなり過激な約束を掲げて設立されました。世界で最も強力なAIを構築し、同時に世界で最も安全なAIを構築するというものです。アモデイ兄妹は2021年にOpenAIを離れ、まさにこの使命を掲げて独立しました。彼らは以前の雇用主、以前の会社がAI安全性を十分に真剣に考えていないと信じていたんです。
そして5年間、Anthropicの責任あるスケーリングポリシー、これは深刻な危険性、負債、リスク、欠陥を発見した場合にAI開発を停止するという公的なコミットメントでした。言い換えれば、安全性が能力に追いつかない場合、すべてを停止するということです。この2週間で、そのアイデンティティが崩壊しました。
そして今日、そのAI安全性ポリシーは終わりました。消えてしまったんです。
何が起こったのか
では何が起こったのでしょうか。時計を巻き戻しましょう。たった2週間前です。Claudeといえば、みんなのお気に入りのチャットボットですよね。まあ、みんなのお気に入りではないかもしれませんが、多くの人がClaudeに対して特別な思いを抱いています。優れたコーダーですし、何か個性のようなものがあるんです。
どう説明すればいいかわかりませんが、多くの異なるチャットボットを体験したほとんどの人が、Claudeは特別だと感じていると思います。何かが人の心を引きつけるんです。そのClaudeが秘密裏の軍事作戦で使用されました。統合特殊作戦司令部、JSOCが、ベネズエラのカラカスで軍事作戦を実施し、元大統領マドゥロを拘束しました。
その作戦は、その時点まで極秘にされていました。しかしウォール・ストリート・ジャーナルとAxiosが、その作戦がどのように達成されたかについての詳細をリークしたんです。それは、AnthropicのフラッグシップモデルであるClaudeが襲撃を実行するために使用されたというものでした。つまりAnthropicの技術が、Palantirを通じて使用されたということです。
AnthropicとPalantirのパートナーシップですね。Palantirは米国政府のためにスパイ活動や軍事関連の仕事をたくさんしています。非常に秘密めいたものですが、Anthropicはその任務の一部としてPalantirを通じて採用されました。Palantirは防衛請負企業です。Maven Smartシステムを持っています。国防総省にデータ分析や様々なターゲティング、位置情報サポートを提供しています。これは2024年に発表されました。
そしてこれにより、Anthropicはこれらの機密軍事ネットワークと作戦でサービスを提供することを許可された最初のAI企業となりました。Claudeはリアルタイムの作戦計画、リアルタイムのデータ分析に使用されました。正確な役割は機密扱いです。わかりません。でも、その任務で使用されたことはわかっています。
つまりどういうことか。Claudeが致死的な軍事作戦に使用されたということです。これはまさに起こってはならないシナリオでした。これこそがAnthropicのポリシーが防ぐように設計されていたことなんです。Semaphorによると、Anthropicの人々とPalantirの人々の間で会議が行われました。Anthropicの従業員が、ねえ、Claudeはこの作戦に使用されたのかと質問を投げかけました。Palantirの幹部はそれを潜在的な不承認と解釈しました。繰り返しますが、ここで何が起こったかは100%確実ではありませんが、彼はそれを連鎖的に米国政府、国防総省に報告しました。そしてこれが国防総省とAnthropicの関係における亀裂を生み出すか、少なくともそのきっかけとなりました。
ちなみに、国防総省はこの緊張を確認しています。単なる噂ではないんです。国防総省が出てきました。国防総省の首席報道官ショーン・パーネルは、国防総省とAnthropicの関係が見直されていると述べています。我が国は、パートナーがどんな戦いでも戦闘員の勝利を支援する意志を持つことを要求しています。
2月19日、つまり1週間足らず前に、国防総省の最高技術責任者がメールで公に軍事AI使用についてルビコン川を渡ることを促しました。ルビコン川を渡るとはどういう意味か疑問に思っているかもしれませんが、これは実はローマ帝国にさかのぼる言及なんです。
ルビコン川はローマ帝国とガリア属州を隔てる川で、ローマ法は将軍が軍隊を率いてその川を渡ることを禁じていました。しかしカエサルはとにかく軍隊とともにそれを渡り、有名な「賽は投げられた」という言葉を残しました。基本的には軍事行動にコミットする、前進するという意味です。基本的に、安全第一のアイデンティティに戻ることはないということです。
コミットしなければならない。つまり国防総省は非常に明確です。この安全性アイデンティティには余地がない。防衛パートナーにとって受け入れられないということです。一方、1月初旬には、国防長官ピート・ヘグセス。彼とチームはすでに新しいAI文書を発表していて、すべての防衛パートナー、これらのAI請負業者に対して、米国政府に提供するサービスについて、会社独自の特別な安全性ガードレールを持つことを禁じています。
基本的に、すべての企業が米国政府による技術の合法的な使用について承諾しなければならないんです。合法的に許可された技術の使用はすべてオープンでなければなりません。企業は特別な小さなガードレールや、この特定のことには使えませんというようなことを持つことはできません。企業には180日間の猶予がありました。
これが1月初旬だったことを覚えておいてください。そのタイマーは48時間以内に切れます。先ほど言ったように、ちなみにこれはAnthropicを直接照準に捉えているんです。つまり、これはすべての人のためのものですが、実際には今Anthropicをターゲットにしています。それが国防総省の観点から正しい方向に後押しする必要がある会社なんです。
その文書はAnthropicを従わせるためにあります。そして昨日、昨日の朝、Anthropicの主要創業者であるDario Amodeiが国防総省に召喚され、国防長官ピート・ヘグセスと話をしました。ちなみに、報道や引用に基づくと、これは友好的な話し合いになる予定ではありませんでした。
これはどちらかというと、ねえ、ここで協力してもらう必要があるんだ、さもないと良いことにはならないぞ、というタイプの話し合いでした。断れない申し出をする、というやつです。さて、ここで理解することが重要なのは、もしAnthropicが拒否した場合、ただ立ち去るというわけではないということです。契約を失うだけではないんです。
そういう状況ではありません。国防総省はAnthropicに対して使える3つの武器を用意しています。一つは国防生産法です。これは冷戦時代の法律で、大統領またはその代理人に、民間企業を徴用し、国防に必要とみなされる契約を受け入れることを強制する法的権限を与えるものです。
これは事実上、Anthropicに自社の感情に関係なくAIを提供することを強制することになります。Anthropicは法的にその技術を国防総省に提供するか、少なくとも国防総省が要求する技術を使ったサービスを提供しなければなりません。二つ目はサプライチェーンリスク指定です。もし企業、例えばAnthropicがサプライチェーンリスクとしてラベル付けされた場合、これは事実上、彼らをすべての連邦ネットワークから排除することになります。
つまり連邦政府の仕事を得ることができません。連邦政府と仕事をしている企業は、その仕事で彼らを使うことができません。だから本当に多くのことが遮断されるんです。そして連邦政府との契約、その連邦政府の仕事を獲得したい多くの企業も、Anthropicに対してあまり親切ではなくなると確信しています。つまり、ほとんど追放者のようになってしまうんです。
そしてもちろん、国防総省は元々持っていた契約をキャンセルする意志があります。最大2億ドルです。つまりAnthropicは契約に署名し、2億ドルを得て、サービスを提供することになっていました。三つ目の武器は単にその契約をキャンセルし、お金を取り戻すことです。でも繰り返しますが、それはおそらく最も恐ろしくない結果です。
最初の2つは、おそらくAnthropicにとってはるかに恐ろしいものです。
Anthropicの立場と国防総省の要求
さて、Anthropicは自社の立場を維持してきました。AIを使って最終的なターゲティング決定を行う自律型兵器は望んでいません。それらの決定を下すのは人間でなければなりません。人間をループに入れるということです。完全に自律的な殺人機械はAnthropicにとってノーです。そしてもう一つの大きなことは、監視がない、アメリカ市民の国内監視がないということです。
それがAnthropicの立場です。そして国防総省の立場は、これをあらゆる合法的な用途に使用できるということです。それは我々の決定です。Anthropicのものではありません。つまり、法的に認められていれば、できるんです。Anthropicが決めることではありません。期限は金曜日、今から48時間以内です。金曜日の午後1時。
おそらく東部時間でしょう。さて、誰が譲歩するのか疑問に思っているなら、繰り返しますが、わかりません。でもこういうことなんです。AnthropicはDario Amodeiがヘグセスと座った同じ日に。繰り返しますが、それはDarioに圧力をかけていた人物です。会社固有の安全性ポリシーを撤回することについてのメモ、文書を出した人物です。
彼はビデオゲームでいうところの最終ボスのようなものです。AnthropicはRSPを更新しました。つまり今はRSP 3.0です。RSPとはその責任あるスケーリングポリシーのことです。AIを安全に構築するという彼らの使命、目標です。彼らは3.0バージョンを公開し、持っていたフラッグシップの誓約が消えました。
もうそこにはありません。2023年以来、AnthropicのRSP、責任あるスケーリングポリシーには、この断定的なコミットメントが含まれていました。同社は、事前に用意した安全対策が適切であることを保証できない限り、AIモデルを訓練しないというものです。それが彼らの大きな差別化要因でした。でもそれはもうありません。
消えました。新しいRSP 3.0は、その厳格な制限をより柔軟な二重条件に置き換えています。つまり、彼らはAI競争のリーダーであると信じている場合、開発を一時停止することを検討します。つまり、もし彼らが突破して大きく先行し、他のすべてがその時点で遅れている場合、その時に減速または一時停止を検討するかもしれません。つまり、先を急ぐ代わりに、他の人が追いつくのを待つかもしれず、その時点で一時停止を検討するでしょう。
またはB、もし私が先ほど言い間違えていたら申し訳ありません。これらは二重条件です、つまり両方が満たされなければなりません。AとB、Bは大惨事のリスクが非常に高く、重大とみなされる場合です。つまり、大惨事のリスクが現実的で差し迫っていると信じているということです。
つまり両方の条件が同時に真でなければなりません。これは何を意味するのか。5つのラボがあって、そのうち4つが潜在的に壊滅的な能力を持つ新しいAIモデルを開発し、それを展開した場合、Anthropicも同じ能力のモデルを展開するということです。だから他のみんなが危険なモデルを公開しているなら、自分たちは控えたりしません。
AnthropicのチーフサイエンティストであるJared Kaplanは、Time誌に決定を説明し、「私たちがAIモデルの訓練を止めることが実際に誰かの役に立つとは感じませんでした。AIの急速な進歩を考えると、競合他社が先を急いでいる場合に、一方的なコミットメントを行うことは意味がないと本当に感じました」と述べています。
新しいポリシーは明示的に、もし一つのAI開発者が安全対策を実施するために開発を一時停止し、他の開発者が強力な緩和策なしでAIシステムを訓練し展開し続けた場合、それはより安全でない世界につながる可能性があると述べています。ちなみに、あなたがこれに同意するかどうか下のコメント欄で教えてください。その理由は納得できますか?
このような競争状態では、誰もが開発し、安全性に取り組み、より良いモデルを公開する必要があるということに同意しますか?それとも反対側で、バスの車輪が外れかけているように感じますか?そしてその制限を撤廃する代わりに、それを相殺するためのいくつかのことを約束しています。
フロンティア安全性ロードマップ、リスクレポート、外部レビュアーなどです。彼らは他のものでバランスを取ろうとしていますが、想像できるように、これは一種の妥協です。リスクを相殺するものではありません。Meterのポリシー責任者であるChris Painterは。私たちは2つ前のビデオで彼らの研究を取り上げました。
それはエージェント型AI、能力のようなものです。その巨大な曲線、対数曲線を見ていると、AIモデルができることがどれだけ加速しているかがわかります。エージェント的能力を与え、特定のタスクに取り組ませると、時間軸がどんどん長くなっていきます。
Anthropicのモデルは現在トップで、そのチャート、そのAI進歩が私たちが以前考えていたよりもさらに速く加速しているという考えを本当に示しているので、絶対的に図抜けていると言えます。AnthropicのモデルOpus 4.6がトップで、15時間かかるタスク、人間の専門家が完了するのに15時間かかるタスクを処理できます。Opus 4.6は今それらをワンショットで処理しており、それは約50/50の能力率です。
詳細には触れません。前の動画ですべてカバーしましたが、ポイントは、モデルがより良くなっており、私たちが予想していたよりも速く良くなっているということです。でもこのMeterのポリシー責任者Chris Painterは、AnthropicからのこのRSP 3.0を確認した後、こう言っています。
この変更は、Anthropicがリスクを評価し緩和する方法が能力のペースに追いついていないため、安全性計画をトリアージモードにシフトする必要があると信じていることを示しています。これは、社会がAIによってもたらされる潜在的な壊滅的リスクに対して準備ができていないことのさらなる証拠です。
歴史的な岐路に立つAI業界
では、これは何を意味するのか。このRSP 3.0の公開は、Darioの会議と同じ日に公開されたのは大きな偶然なのか、それとも国防総省の最終ボスとの会議ですが、あるいはAnthropicが譲歩の準備をしているというシグナルなのか。ちなみに、Anthropicはこれは、ポリシーは長い間作成されていたものだと主張しています。
現在の軍事的対立や国防総省との対立、何と呼びたいにせよ、それとは何の関係もないと。でも、もちろん批評家たちはこれを先制的な降伏のように見ています。それは理にかなっています。つまり、そう見えるんです。傍観者としてこれを観察していると、「ああ、これは偶然だったかもしれない?」と思うでしょう。おそらく違います。
これが大きな転換点である理由は、この倫理的で善意のAI企業が、政府に直面したときに倫理的なレッドラインを維持できるかどうかを見ることになるからです。「お前と何の軍隊だ」という表現を知っていますか。誰かがあなたに何かをさせたいと思っているとき、「ああ、そうだな、お前と何の軍隊が私にこれを強制するんだ」というような昔の言い回しです。その質問に対して聞きたくない答えは、「まあ、米軍だ」とか、より具体的には米国、あるいは時々言及される軍産複合体のようなものです。
深入りしすぎないようにしますが、一種のフライホイール効果があります。このフィードバックループがあり、そこには多くの力が集中しているんです。だからこれは文字通り、対立したくない種類の存在の一つです。
必ずしも軍事的対立ではありません。ただ単に、遊んではいけない、ちょっかいを出してはいけないんです。お分かりでしょう。そして重要なのは、法の境界の外で何かをする必要さえないということです。法律がそこにあります。必要なものを差し押さえることができます。
国防にとって重要とみなされれば、差し押さえることができます。人々に必要なことをさせることができます。Anthropicが必要とするサプライチェーンの多くのものからAnthropicを切り離すことができます。ブラックリストに載せられたら、おそらくAmazonやGoogleなど、他の多くのプロバイダーがいるでしょう。
国家の敵とみなされる人々、何と呼ぶにせよ、あまりにも密接に協力することを躊躇するでしょう。良いことにはなりません。そしてもちろん、この国防生産法は、冷戦時代の鉄鋼工場や弾薬工場のためのものでした。戦争中で、鉄を製造する人が「私は戦争に反対です。これを特定の目的に使われたくない」と言った場合、まあ、同意するか同意しないかは別として、それはある意味理解できます。
戦争だし、特定の生産物が必要なら、本当に国防のことであれば、それを説明できます。でもこれは違います。別の領域にいます。これはAIです。これがAIモデルに適用されるのを見たことがありません。そしてこれはこの法的先例を適用することになり、どのAIモデル企業、フロンティアラボも、彼らの好みやポリシーが国家安全保障の要求を覆すことはできないということになります。
Anthropicは2つのレッドラインを維持しています。繰り返しますが、自律型兵器と国内監視はノーです。そして次の2日間が決定するのは、Anthropicがそれらのレッドラインを守る意志があるかどうかだけでなく、それができるかどうかです。意志だけの問題ではありません。そうする能力があるのでしょうか。
一方で、Anthropicの評価額は急速に成長しています。現在3800億ドルの評価額です。ウォール街の投資家たち、これは多くの人々が彼らの収益が成長し続けることに賭けているというシグナルです。毎年10倍になっています。絶対に驚異的です。彼らは防衛契約から離れることができます。これはお金の問題ではありません。それが理解すべき重要なことです。
彼らは3800億ドルの価値があり、収益は年間10倍で成長しています。それはエンタープライズです。コーディングです。だから賢いビジネス判断としては、紙の上のお金、キャッシュフローなどの観点からは、2億ドルから離れて、エンタープライズアプリケーションに集中することかもしれません。
でも連邦政府との関係では、多くの利点があります。モデルを訓練するために使用できる多くのデータセットがあり、それはおそらく誰にでも利用できるものではありません。他のすべての企業、他のすべてのAIラボが連邦政府と協力していて、あなただけがそうしていない場合、それは問題かもしれません。イーロン・マスクとxAIとGrokは、連邦政府ともっと多くのことをしています。
Anthropicが自分のやろうとしていることについて煮え切らない態度でいればいるほど、競合他社がそこに入り込んで必要なことをするでしょう。そしてそれは彼らに大きなアドバンテージを与えます。お金だけではありません。
連邦政府は様々な防衛請負業者に使う資金を持っていますが、AIラボにとっての金鉱のようなデータセットもほぼ確実に多くあるでしょう。そして明らかに、連邦政府と親密で居心地の良い関係にあることは、つまり百万もの利点があります。国家資産、国家安全保障資産とみなされ、重要な供給の一部、いわば米国の利益の一部になることです。つまり強力です。
過去数十年にわたって石油会社にとって、彼らの利益は米国の利益と一致していたため、非常によく保護されていました。石油業界の利益に手を出せば、米軍、米軍事複合体に侵略されるかもしれません。だから彼らの良い側にいることは多くの利点があります。悪い側にいることは、今話したように、本当に、本当に悪くて恐ろしいことです。
そして、そう、2日間、金曜日、午後1時。東部時間だと思いますが、いずれにせよ、金曜日の午後までに、この物語がどのように決着するかがわかります。金曜日は2日後です。このチャンネルを始めてから1、2年前を思い出します。AI議論の大部分は、「ああ、考えることはできない。何もできない。馬鹿げている。AIは単なる幻影だ。
偽物だ。AIのトリックに騙されるな。基本的に人々は、AIが何らかの形で役に立つと考えることは馬鹿だと呼んでいました。たった2年でなんと興味深い違いでしょう。ちなみに、多くの人々が今、米国政府がAIラボを国有化し始めると言っています。それがどれほど大きな問題かを理解し始めるからだと。私はそうは思いません。
米国政府は物事を国有化しません。彼らはそれらをこの枠組みに組み込みます。公式ではありませんがそこにあります。大手テクノロジー企業がどのように扱われるか、Googleがどのように扱われるか、石油会社がどのように扱われるかを見れば、彼らは米国の国家利益です。特別な保護と特別な特権を得ています。様々な裏のチャネルを持っています。
だから政府が彼らに何かをさせたい場合、彼らは協力します。でも何も国有化されていません、書類上では。すべて別々の実体です。だから、同じだけど違うんです。ここまで見てくださった方、本当にありがとうございます。私の名前はWes Rothです。


コメント