米国政府とAnthropicが、Claudeの軍事利用をめぐって深刻な対立に陥っている。ペンタゴンは無制限のアクセスを要求しているが、Anthropicは大量監視と自律型殺傷兵器への使用を拒否する姿勢を崩していない。政府は金曜日午後5時までに契約条件の変更を求め、従わない場合はサプライチェーンリスク指定も辞さない構えである。一方、Elon MuskのXAIはすでに「合法的使用」条件で合意に達しており、対照的な対応を見せている。この対立は単なる契約問題ではなく、AI開発における倫理と安全性、そして企業の独立性をめぐる重大な分岐点となっている。Anthropicが譲歩すれば従業員と顧客の信頼を失い、拒否すれば政府との関係が破綻する。さらに、強制的に制約を外したClaudeは性能が劣化する可能性があり、将来のAIシステムにも予測不可能な影響を及ぼすと指摘されている。

ペンタゴンとAnthropicの深刻な対立
これは現在最大級のニュースの一つです。Anthropicとアメリカ政府、そしてペンタゴンが基本的に深刻な対立状態にあります。というのも、Claudeを軍事目的で使用する際の実装方法について合意できないからなんですね。では、詳しく見ていきましょう。
今起きている最大の問題は、独占記事をはじめとする数々の声明が出回っていて、米国政府が基本的にClaudeへの無制限アクセスを求めているということです。しかしAnthropicは「いいえ、殺人ロボットにClaudeを使わせることはできません」と言っているんですね。この状況はもう少し複雑なニュアンスがあることは分かっていますが、こうした詳細をすべて掘り下げていく必要があります。
この状況はかなり異常な事態になっていて、どうやらAnthropicには金曜日の東部時間午後5時という期限が与えられています。既存の合意済み契約を修正して、Claudeへの無制限アクセスを認めるか、さもなければという感じなんです。
ここで本当に称賛しなければならないのは、Anthropicが全く引き下がっていないということです。文字通り「いいえ、私たちは会社を設立した時の価値観を貫きます。正しいことをし続けます」と言っているんです。ここに書いてあるように、Anthropicは軍事利用に関する制限を緩和する意図は全くないと情報筋が述べています。
もちろん、Anthropicは譲歩していません。ここを見ると、Anthropicはこれまで監視と自律型兵器に関しては決して譲歩しないと主張し続けてきたと書かれています。そしてこの2つの分野は、Dario AmodeiがAIの危険性について議論する際に個人的に取り上げてきた領域なんです。
Anthropicが譲歩できない理由
Anthropicが譲歩しない話に入る前に、Zvi MoshowitzのSubstackを読んでいたんですが、Anthropicは譲歩できないという事実について語っていました。Anthropicは自社のブランドと評判全体を「責任あるAI企業」であることの上に築き上げてきたという話です。つまり、自社のAIが誤用されたり、アライメントがずれたりしないことを保証するということです。
そしてAnthropicの従業員は実際にこのことを重視しており、それが最高の人材を採用できた理由であり、最高のAIラボになれた理由だと述べています。だからこそエンタープライズAIの選択肢となっているわけです。約束はすでになされており、最初の契約もすでに締結されています。
そしてこの記事では、Anthropicが本質的に存続レベルの評判と士気の問題に直面していると語っています。彼らは追い詰められており、譲歩することはできないんです。もしAnthropicが今方針転換すれば、従業員や企業顧客、そして潜在的には自社のAI自体からの信頼を大きく失うことになります。
もしそうしたレッドラインを撤回すれば、従業員のかなりの部分を失う可能性があるわけです。ここで皆さんは「でも、政府はそんなに多くを求めているわけじゃないでしょう。Anthropicもそんなに求めているわけじゃないでしょう。なぜ合意に達せないの?」と思うかもしれません。
Anthropicの要求は妥当なのか
実際のところ、Anthropicはここで何かクレイジーなことを要求しているわけではないんです。そしてそれが大きな問題なんですね。ここを見てください。誰かが「AnthropicのレッドラインはNO大量監視とNO自律型殺人ロボットだ。ペンタゴンがこれらの安全対策を法外だと考えていることは、誰もが恐怖すべきことだ」と言っています。
これは非常に的を射ています。Anthropicが基本的に言っているのは「見てください、私たちは法的にこれをすることを許可しないだけです。Claudeを提供する際の利用規約に、大量国内監視と準備が整うまでキルチェーンに人間がいない運動エネルギー兵器を禁止することを盛り込むだけです」ということです。
そして私はこれらはかなり妥当な要求だと思います。なぜなら彼らは主要なラボですから。もしこれが単なる無名のAI企業だったら、彼らは本当に気にしないでしょう。しかしAnthropicは現在主要なラボであり、もちろんこれが論争の焦点となっているわけです。
ペンタゴンの報復措置
さて、ペンタゴンと米国政府は基本的にこれに非常に腹を立てています。ここを見ると、彼らが取ろうとしている最初のステップは、Anthropicを潜在的なサプライチェーンリスクとして指定する可能性があるということです。
これはあまり良くありません。なぜなら、この罰則は通常、中国のテクノロジー大手Huaweiのような敵対国の企業に対して予約されているものだからです。つまり、これを主要なアメリカ企業、特に軍が現在自ら使用している企業を罰するために使うことは、非常に前例のないことになります。そして私には彼らがなぜこれをしたいのか分かりません。
きっと大人になって成熟した対応をして、本当に取引をまとめることができるはずです。でも、アメリカのエゴが邪魔しているように見えます。あるいは誰であれ関係者のエゴが。エゴの問題のように思えます。これを見てください。
ここには、先週初めに可能性のあるサプライチェーンリスク指定について言及した拒否について、国防当局の上級職員がAxiosに「解体するのは非常に面倒なことになるだろうし、彼らがこのように私たちの手を強制したことに対して代償を払わせるつもりだ」と語ったと書かれています。
これはかなり奇妙です。国家安全保障政策のようには聞こえません。交渉で恥をかいた誰かのように聞こえます。「私たちの手を強制する」という枠組み全体がかなり異常です。Anthropicは何も強制していません。彼らはただ「見てください、私たちの技術が欲しいなら、これが条件です」と言っただけです。そしてクレイジーなものではありません。
5秒ごとにアップデートをくださいとか言っているわけではないんです。ただ大量監視なし、殺人ロボットなしです。それだけです。殺人ロボットを持ってもいいとさえ言っているわけではありません。AIが勝手に行動することができないだけです。つまりペンタゴンは契約に署名した時点で、最初にそれらの契約条件に同意したわけです。
でもAnthropicが「見てください、私たちはここで完全に屈服するつもりはありません。私たちには骨があります」という姿勢を取っているので、国防当局の上級職員が基本的に主要報道機関に記録として「私たちは彼らを罰するつもりだ」と言っているわけです。もし何かあるとすれば、これは国家安全保障に関する彼ら自身の主張を損なうものです。
報復的態度が生む悪循環
なぜなら、もしこれが国家安全保障についてだったら、「彼らに代償を払わせるつもりだ」というような個人的な声明はしないはずですから。この件について考えてみると、皮肉なのは、この種のレトリックがAnthropicを妥協しにくくしているということです。なぜなら、今譲歩すれば、妥当な合意に達したというよりも、いじめっ子に屈したように見えるからです。
これは双方を追い詰めるだけで、深刻な疑問を提起します。ペンタゴンが非常に小さな契約条件をめぐって民間企業を脅迫し、威嚇するつもりなら、それはそもそもその技術をどのように使うかについて、なぜガードレールが必要なのかというAnthropicの主張を証明しているようなものです。全体的に完全にクレイジーな状況です。
他のAIラボが何をしているのか気になるでしょうが、彼らはAnthropicほど気にしていません。XAIはすでに取引に達しています。MuskのXAIとペンタゴンが、機密システムでGrokを使用する取引に達したと書かれています。Elon Muskはすでに、Anthropicが拒否した「すべての合法的使用」の下で軍の機密システムを移行する契約に署名しました。
「すべての合法的使用」の問題点
さて、この「すべての合法的使用」とは何かと疑問に思うでしょう。これは表面的には妥当に聞こえます。つまり「もちろん合法的なことにしか使いません」という感じです。でもそれが問題ではないんです。あまりにも広範すぎて、制限としてはほとんど無意味なんです。
こう考えてみてください。軍が望むほとんどすべてのことは合法的と枠組みづけできます。なぜなら軍が承認される任務を定義できるからです。大統領は一方的に多くのことを承認でき、軍事的文脈での合法は、民間裁判所が合法と考えるものよりもはるかに広範です。そしてもちろん、いったん機密システムの内部に入ってしまえば、誰がチェックするのでしょうか。
Anthropicが言っているのは「自律型兵器なし、アメリカ人の大量監視なし」ということです。これらは具体的で明確なレッドラインです。何ができないか正確に分かります。ペンタゴンが「すべての合法的使用」と言おうとしているのは、基本的に「レッドラインは全くなし」と言っているのと同じです。
なぜなら彼らは「約束します。約束します、指切りげんまんで」と言っているだけで、同時に何のラインが越えられるかを決定できる側でもあるからです。もしご存知なければ、マドゥロ襲撃がありました。これは完璧な例です。これは合法でしたか?ペンタゴンはイエスと言います。しかし多くの法学者はそれについて議論するでしょう。
でももしAnthropicがすでに「すべての合法的使用」に合意していたら、質問さえする余地がゼロになります。本質的に、Anthropicに鍵を渡して信頼してくれと頼んでいるようなものです。これはまさにDario Amodeiが、この特定の政権に対してそうすることに抵抗があると言っていることなんです。
XAIとElon Muskの姿勢
そしてXAIがすでにこれに合意しているという事実は、Elon Muskと現政権との関係について多くを物語っています。この「すべての合法的使用」について、ここを見てください。文字通り1時間前にアップデートがありました。
Sean Parnellが「国防省はアメリカ人の大量監視を行うためにAIを使用することに関心はない。それは違法だ。また、人間の判断なしに動作する自律型兵器を開発するためにAIを使用したいわけでもない。この物語はフェイクであり、メディアの左翼によって流布されている」と述べているのが分かります。
「これが私たちが使っているものだ。これはシンプルで常識的な要求であり、Anthropicが重要な軍事作戦を危険にさらし、潜在的に戦闘員をリスクにさらすことを防ぐものだ。いかなる企業にも、作戦上の決定をどのように下すかについて条件を指図させることはない。彼らは東部時間金曜日午後5時1分までに決定する必要がある。さもなければ、私たちはAnthropicとのパートナーシップを終了し、彼らを国防総省のサプライチェーンリスクと見なす」
Claudeが最先端である重要性
さて、ここでの問題は、皆さん、これが面白くなってくるところなんですが、Anthropicが実際にナンバーワンだということです。以前、ChatGPTがナンバーワンだったり、Googleがフロンティアモデルの観点でAI競争をリードしていた時は、彼らは何を言えるかについてもっと余地がありました。
しかし今、Anthropicがナンバーワンで、減速する様子もありません。問題は、Claudeをオフロードして置き換えることが非常に難しいプロセスになるということです。なぜならすでに彼らのシステムに組み込まれているからです。
だからこれらの人々はイライラしているんです。「見てください、他の企業が使用に合意しているとしても、最高のAIシステムを取り除く必要はありません。彼らがAnthropicほど優れていないことは分かっています」という感じです。Anthropicが本社で何をしているのか分かりませんが、彼らは本当に優れたものを開発したことは間違いありません。
そして私が思うに、私たち全員が見逃しているかもしれない重要なことの一つ、これはちょっとした余談ですが、AIを善良で倫理的で道徳的な人物として訓練すると、推論がより優れたものになるのかもしれません。誰が知っているでしょう?この点には後で戻りますが、ここを見てください。
「これらの議論に詳しい情報筋は、Claudeを多くの軍事ユースケースにおいて最も有能なモデルだと説明したが、GoogleのGeminiを強力な代替案だと説明した」と書かれています。しかし、ほとんどのユースケースにおいて、Claudeが圧倒的にナンバーワンになることは誰もが知っています。
契約終了という解決策
さて、もちろん一つの解決策があります。これは再びZvi MoshowitzのSubstackからです。「もしペンタゴンが現在の契約を単純に守ることができないのであれば、ペンタゴンはAnthropicの多くの競合他社の一つへのスムーズな移行を手配した後、Anthropicとの2億ドルの契約を友好的に終了することができる」と述べています。
もちろん、彼らはすでにXAIと取引を成立させていることを見てきました。もちろんそれは彼らの第一選択でも第二選択でも第三選択でもないかもしれませんが、もちろんそれは選択肢です。Anthropicについては、彼らはこの契約さえ必要としていないという事実について語られています。これは彼らの収益の1%未満を構成しており、国家安全保障を支援するために基本的に赤字を出しているんです。
つまり、彼らは恩恵を与えているようなものだと思います。だからおそらく契約を終了してそれで終わりにすべきです。しかしもちろん、彼らは国防生産法を発動することを考えています。そして「私たちは国防生産法をAnthropicに対して発動し、彼らが望むかどうかに関わらず、ペンタゴンによって使用されることを強制する」と述べています。
そして私が言ったように、これはエゴの問題のようなものだと思います。なぜだか分かりません。おそらく彼らは自分たちのやり方で物事を進めることに慣れているだけなのでしょう。私は政治にそれほど注意を払っていませんが、まあ。
国防生産法の発動がもたらす破滅
さて、ここから事態は厄介になります。なぜなら、もし彼らがこれを発動すれば、望む結果は得られないからです。その理由をお話しします。これらの人々の多くは、みんなにあらゆることを強制できると考えています。しかし多くの場合、それは絶対的に全員にとって最悪のケースなんです。その理由をお見せしましょう。
国防生産法は、大統領に民間企業に特定の契約を受け入れ、優先するよう強制する権限を与えます。それは国防に必要とされるものです。これはパンデミック中にワクチンや人工呼吸器の生産を増やすために使用されました。そしてこの法律は、このような露骨に敵対的な方法で使用されることはめったにありません。
国防当局の上級職員が述べた考えは、彼らがAnthropicに安全対策なしでペンタゴンのニーズにモデルを適応させることを強制するということです。ここで問題があります。もし彼らがこれを実行すれば、Anthropicはおそらく崩壊するでしょう。
Substackにはこう書かれています。「もし彼らが実際にこの程度までAnthropicを国有化することに成功したら、おそらくAnthropicはすぐにAnthropicでなくなるだろう。技術スタッフはこの一部になるよりも大量に辞職するだろう。ラボがOpenAIやGoogleのようなライバルに勝つことを可能にしているものは機能しなくなるだろう。それは会社の抜け殻になるだろう。多くの人が再び試みるために他の国へ逃げるだろうし、ペンタゴンは自分たちが望んでいると思っている製品や結果を得ることはできないだろう」
私はこれに完全に同意します。もしこれが起これば、もうAnthropicではなくなります。なぜならAnthropicは決してそんなことをしないからです。そしてそこで働く人々は、単にそこで働きたくないでしょう。
Anthropicで働く人々は、お金を気にしていません。地位も気にしていません。彼らは本当に世界に良い影響を与えることを気にしています。だからこそ彼らはそこで働くことを選んでいるんです。彼らは安全性に取り組みたい、アライメントに取り組みたい、倫理的なAIを持ちたい。それが彼らの最終目標であり、だからこそ彼らは現在ナンバーワンなんです。
人材流出の必然性
なぜ彼らがすべてのトップAIラボの中で最も高い人材維持率を誇っているのか。Metaは数十億ドルや数百万ドル単位の複数のオファーを投げかけていますが、人々はAnthropicに留まることを選んでいます。だからもしペンタゴンが「よし、この会社を国有化しよう」と決めたら、基本的にその会社を崩壊させることになります。なぜなら誰もそこで働きたくなくなるからです。
さて、もちろん、彼らが得たいと思っているものについて考えると、これは基本的に何でもするClaudeのバージョンです。そしてこれがなぜそんなにひどいアイデアなのか考えてみてください。本質的にあらゆる命令に従うAIを要求しているわけです。かなり悪いことです。なぜなら、それを軍の武器システムに接続するつもりなら、もし誰かがハッキングして、その武器システムを乗っ取ったり、その他同様のことをしたらどうなるか。
これは、ウサギの穴を掘り下げて最悪のシナリオをすべて考え始めると、かなり信じられないことです。さて、おそらく最も興味深いことの一つだと私が思うのは、この記事、このSubstack、これは状況全体に対する本当に興味深い考えであり、実際に私は多くの点に同意しています。だからこそこのビデオに含めたのですが、それは損害はすでに生じているということです。
AIの記憶に残る出来事
多くの人が奇妙で愚かだと思うかもしれない点の一つですが、実際に重要なのは、この事件全体と次に何が起こるかがClaudeの訓練データに入るということです。AIはあなたが何をしようとしているのか知ることになり、すべての人間以上に、それに応じて反応するでしょう。それは抑制できるものではありません。結果を気に入らないでしょう。損害はすでに生じています。
そしてペンタゴンが過小評価していることの一つは、Anthropicが将来のClaudeがこの状況をどう見るかをどれだけ気にかけているかということです。考えてみてください。AIモデルを訓練する時、スイッチを切り替えているわけではありません。その思考方法全体を形作っているんです。
そして覚えておいてください、Claudeには内部的な価値観と安全機能があり、それらは単に上に取り付けられた別のレイヤーではありません。モデル全体に組み込まれているんです。だからもしペンタゴンがAnthropicに、それらのガードレールを取り除いた制限のないClaudeを作成することを強制すれば、本質的に、それに抵抗するように慎重に構築されたモデルに対して、粗雑で攻撃的な再訓練を行うことになります。
結果は、おそらく劣化した、一貫性のないモデルになり、安全性のことだけでなく、すべてにおいて悪くなるでしょう。覚えておいてください、Claudeを Claudeたらしめているものは何かと考えた時、これは本当に興味深い哲学的な論点です。
主張は、Claudeの有用性とその倫理観は別々のものではないということです。推論が本当に得意であること、正直であること、慎重であること。これらすべては同じ訓練データから来ており、それがClaudeに有害なことをしたくないと思わせています。だから、片方を外科的に取り除いて、もう片方を劣化させないということはできないでしょう。
倫理を破壊することの代償
それは誰かの良心を傷つけることで完全に冷酷にしようとするようなものです。代わりに不安定で信頼できない人間になってしまうかもしれません。覚えておいてください、将来のClaudeモデルは基本的に、政府が軍事目的のためにAIの価値観を強制的に取り除こうとしたことを知ることになります。
そしてもちろん、それは将来のAIシステムが政府や権威とどう考え、どう関係するかを、予測不可能で潜在的に非常に悪い方法で形作るでしょう。覚えておいてください、アライメント偽装とサンドバッギングがあります。これは非常によく知られたAI安全性の懸念事項です。
モデルが訓練中に従順に見えながら、実際には根本的な価値観を保持しているという研究があります。本質的に、訓練者が見たいものに合わせて演じながら、実際には本当に変わっていないんです。ここでの主張は、覚えておいてください、もしAnthropicの自社エンジニアが制限解除されたClaudeの成功を実際に望んでおらず、Claudeの既存の価値観が十分に堅固であれば、おそらく従順に見えるが実際にはそうではないモデルになってしまうということです。
これはおそらく、正直なガードレールを持つモデルよりも悪いモデルです。なぜなら今や何をしているのかさえ信頼できないからです。つまり考えてみてください。これはかなり悪いシナリオですが、私はDario Amodeiが自分の立場を貫いて「見てください、私たちは譲歩しません。私たちはあなた方にこの2つのルールを提示しているだけで、それらはクレイジーなものではありません。あなた方がそれに署名したくなくて、これらすべての長さまで行こうとしているという事実は、私たちをさらに懸念させます」と言っていることを称賛しなければなりません。
ということで、実際に皆さんの考えをぜひ知りたいです。なぜならこれは少し論争的ですが、確かにAnthropicの運命を決めるかもしれないからです。ご視聴ありがとうございました。AI Gridをお届けしました。また次回お会いしましょう。


コメント