AnthropicとペンタゴンのAI契約をめぐる対立を詳しく掘り下げた対談動画。大量の国内監視と自律型致死作戦への使用を禁止する条項をめぐり、国防総省がAnthropicにサプライチェーンリスク指定という前例のない措置を検討していることが明らかにされる。OpenAI、Google、xAIが全条項に署名した一方でAnthropicだけが拒否している背景、Dario Amodeiの信念、トランプ政権との緊張関係、そしてAIの軍事利用が孕む市民的自由への深刻なリスクが論じられている。

ペンタゴンとAnthropicの対立
まず今日は、ペンタゴンとAnthropicの間で続いているある争いについて話し始めましょう。その前に、開示事項をいくつか。私のパートナーはAnthropicに勤めていて、私はニューヨーク・タイムズに勤めています。ニューヨーク・タイムズはOpenAI、Microsoft、Perplexityを提訴中です。ケイシー、この話、追ってた?
ええ、かなり注意深くね。米政府がどうやら欲しがっているような種類の技術へのアクセスを持つことが何を意味するのか、正直かなり心配しているので。
2億ドルの契約とサプライチェーンリスク指定の脅し
この話はここ数日で急速に展開していますが、最新の状況としては、ペンタゴンがAnthropicとの契約交渉の条件に不満を持っているということです。Anthropicと締結した2億ドルの契約を破棄するだけでなく、Anthropicとそのモデルを「サプライチェーンリスク」に指定すると脅しています。これは米国企業に対して、ほぼ前例のない非常に深刻なエスカレーションで、Anthropicが国防省や、国防省と取引する請負業者と連携する能力にさまざまな影響をもたらします。これはいまや巨大な政治的争いになっています。
なるほど。では、Anthropicや他の大手AIラボがペンタゴンと結んでいる契約について少し教えてもらえますか?国防総省は現在、AIをどのように使っているんでしょうか?
いくつかの方法があります。一つは、米軍の全部門の軍人が、契約を結んでいるさまざまなAIモデルを使えるプラットフォームをペンタゴンが持っているということです。現在そこに含まれているラボは4社、Anthropic、OpenAI、Google、xAIです。軍人たちはそれを事務作業やオフィス業務などに使うことができます。
また、PalantirとAmazon Bedrockを通じて運営されている機密システムもあります。これらはAIモデルへのアクセスを提供するプラットフォーム企業で、米軍がClaude を特定の機密状況で使えるようにしています。たとえば先月、ベネズエラ大統領の拘束に関してClaudeが関与したと報道されています。
史上初のClaudeによる「拿捕」ですね。
そうです。彼らはこの契約を持っていて、ほぼ何でも自由にやりたいようです。では、具体的にどこが問題になっているんでしょう?
「合法的な全使用」契約をめぐる争点
この件についていくつか取材をして、交渉に関わっている関係者と話してきましたが、何が正確なきっかけになったのかは少し不明確です。ただ、分かっていることをお伝えします。
今年の初め、ペンタゴンは契約を結んでいる4社のAI企業すべてに対し、いわゆる「合法的な全使用(all lawful uses)」契約への署名を求めてきました。これは基本的に、企業が法人顧客向けや一般ユーザー向けに設けているモデルの利用規約を取り除き、「米軍はこれらのシステムで法律上許される何でもやっていい」という内容に置き換えるものです。あなたたちの利用規約はいったん全部外して、この包括的な使用ポリシーに差し替える、という話です。
そして、3社が署名しました。OpenAI、xAI、Googleはこの契約にサインしました。Anthropicだけが断り、このポリシーに対して2つの変更——基本的には2つの例外——を求めました。Claudeを大規模な国内監視に使わないこと、そしてClaudeを自律型の実力行使作戦——つまり、人間が監督する形でループに入らずに、誰かを殺したり兵器を戦場に送り込んだりするようなこと——に使わないこと。この2点だけ約束してくれれば喜んで署名します、と言ったわけです。
ペンタゴンの強硬姿勢
それは大した要求には聞こえないですね。
そうですよね。でもペンタゴンはそうは見なかったようです。非常に怒っていて、交渉でいくらか主導権を握ろうとして、契約をキャンセルするだけでなく、Anthropicをサプライチェーンリスクに指定する可能性もあると言い出しました。
これは非常に強硬な手です。通常は外国の敵対勢力に対して使われるものです。中国のテクノロジー企業Huaweiはサプライチェーンリスクに指定されました。ロシアのアンチウイルス企業Kaspersky Labも同様に指定されています。これは本来、アメリカ人に何らかの脅威をもたらす、敵対国にある企業に対して使われるものです。そうすることで軍は、その技術に一切触れさせないよう請負業者に命じることができるんです。
少し掘り下げると、Kaspersky Labsに対する懸念はロシアで設立された会社だったからで、ロシア政府が介入してバックドアアクセスを確保しようとする可能性がありました。Huaweiについては、主に通信機器を作っている会社で、中国政府がその機器にバックドアを仕込んでアメリカ人を監視できるようになるのではという懸念がありました。それらは、個人的にも本当に怖いと思う正当な脅威です。今まで「サプライチェーンリスク」と呼んできたのはそういう話です。あなたが言っているのは、Anthropicが「大規模監視はやりたくない、自律型殺傷もやりたくない」と言ったら、ペンタゴンはそれをアメリカ人への大きなリスクだと言い出した、ということですよね。
そうです。この会社が軍にこういったことをやらせないことで、軍が危険にさらされると主張しています。
もしペンタゴンが実際にAnthropicをサプライチェーンリスクに指定した場合に何が起こるか、正確には少し不明確です。ある関係者は、米国政府の請負業者がClaude や他のAnthropicの製品を自社システムで使えなくなると考えています。ただ、もう少し複雑なようです。最新の見方では、Anthropicのプロダクトはペンタゴンのシステムおよびペンタゴン関連のシステムでの使用に影響が及ぶということです。たとえばGoogle Cloudは、Googleの政府契約に関連するシステムやサーバーではClaudeを使えなくなります。ただしAnthropicはGoogleとの協力自体は続けられると見られていて、Googleの政府契約に絡む部分だけが対象になるようです。
Anthropicへの財務的影響と交渉上の立場
なるほど。Anthropicが現在持っているこの2億ドルの契約を失った場合、財務的にどれほど深刻な問題になりますか?
純粋に財務面で言えば、会社を潰すような事態にはならないでしょう。大きな契約ですが、Anthropicは年間で数十億ドルの売上を上げています。死活問題というわけではありません。ただ、サプライチェーンリスクの指定の方がはるかに打撃が大きいと思います。たとえばAmazonがAnthropicのプロバイダーの一つとして、そのサービスを通じてAnthropicのモデルを販売している場合、政府向け業務に関わるすべてのサーバー、データセンター、ワークフローを精査して、Anthropicのモデルとどこかでつながっていないかをチェックしなければならなくなります。政府向けの開発にClaude Codeを使えなくなる。要するに、大量の切り離し作業が必要になる。だからこそペンタゴンはこれをAnthropicへの脅しの道具として使っているわけです。非常に煩わしくコストもかかるので。
でも同時に、Anthropicも一定の交渉力を持っていますよね。軍がClaudeを使いたがっているのは明らかだし、これほどの手間をかけているということは、Claudeが使えなくなれば困るということでしょう。
そうなんです。それがこの件の興味深いところで、軍内部からも反発が出ていると聞いています。「これだと実際にうちの業務に支障が出る」という声です。
Claudeの「価値観」と自律型兵器問題
一つ聞いてもいいですか。数週間前にAmanda Askellと話した対談を思い出しているんですが、Claudeのための「憲法」を作り、ほぼ人間的な価値観体系を培おうとしているという話でした。Amandaと話した感触では、もし今Claudeに「ねえ、大規模な国内監視プログラムを、自律型殺傷要素付きでバイブコーディングしてよ」と頼んだら、Claudeは「そういうのは私の担当じゃないです」と言いそうですよね。では、自律型殺傷ができるバージョンのClaudeを作ることが、どうやったら可能なのかが気になります。私たちが聞かされてきたClaudeのあり方とはかけ離れているように思えて。
そうですね。交渉関係者から聞いた話では、軍は「道徳を取り除いた特別版のClaude」を求めているわけではないそうです。問題はあくまでこの特定の使用ポリシーの文言をめぐる話だと。
Dario Amodeiの信念とトランプ政権との摩擦
本質的には、ペンタゴンがAnthropicを自分たちの望まない構成に無理やり従わせようとしているということですね。Dario AmodeiをはじめとするAnthropicの幹部たちが、AIシステムにそういったことをさせたくないと明確に述べてきた点です。Anthropicはずっとかなりやぶさかでなく、むしろ積極的に米軍との協力パートナーであり続けてきました。これはGoogle のProject Mavenのときのような「軍と関わりたくない」という話ではありません。これだけは特定の二つのことが非常に危険だと思っていて、その点の利用規約の適用を縛られたくないと言っているだけです。
Darioが先日、技術の青春期というエッセイを発表しましたよね。強力なAIの脅威について論じたもので、まさに私たちが今話している二つのユースケース——監視と自律型殺傷ロボット——を取り上げていました。この争いは実質的にDario個人がペンタゴンに立ち向かっているという側面がどれほどあるんでしょう?
かなりあると思います。彼はその二つのリスクについて、非常に明確で長年変わらない信念を持っています。自律型実力行使作戦、つまり「殺傷ロボット」シナリオについては、倫理・道徳的な側面よりも、むしろ能力的な側面からの懸念だと聞いています。この技術がまだ自律的な攻撃を正確に行える段階に達していないという心配です。ハルシネーションを起こす可能性があり、兵器を間違った方向に向けて民間人を誤って攻撃してしまうかもしれない。
ちなみに、これは間違いなく起こる未来の話ですよね。
そうなんです。彼らはさまざまな議論をしていますが、結局のところAnthropicはこれをやりたくない、他のAI企業は争う価値がないと判断して文書に署名した、そしてAnthropicだけが踏みとどまっているということです。
トランプ政権下でのAnthropicの立場
これは最近の一連のトレンドの一部ですよね、ケビン。ここ数ヶ月、Anthropicがこうした点で他のAI企業と自社を差別化しようとしてきた場面がいくつかありました。今回のこの争いに至るまでの経緯について教えてもらえますか?
Anthropicは創業以来、安全性を重視するAI企業というポジションを打ち出してきました。バイデン政権下では、AI政策に携わる上級当局者と良好な関係を維持していました。ところがトランプが就任し、いわゆる「ドゥーマーシナリオ」——AIが引き起こしうる危険——を信じないAIアクセラレーショニストのチームが政権に入りました。
AIは危険だと思っていないのに、自律型殺傷兵器に使いたいと思っているわけですね。
そうです。これがホワイトハウスのAI担当顧問David Saxsとの長期的な争いの始まりです。最初のきっかけは先の夏の「プリエンプション(先制)」問題でした。議会の共和党員とトランプ政権が、州レベルのAI法に対する10年間のモラトリアムを推し進めようとしていたんです。Anthropicはそれを問題だと考え、Dario Amodeiはニューヨークタイムズへのオピニオン記事でそれに反論しました。それが両者の争いをエスカレートさせました。
輸出規制をめぐる争いもありました。DarioとAnthropicは、最も強力なAIチップの中国への販売制限を明確に支持しています。一方、トランプ政権の一部やNvidiaのような企業のロビイストはそれに強く反対しています。また、AnthropicはAIの誇大な「ディザスターシナリオ」を利用して規制の主導権を握ろうとしている「ウォーク(woke)」な企業だという批判もあります。David Saxsはたしか彼らを「ドゥーマーカルト」と呼んでいました。トランプ政権のAI政策担当者とAnthropicの関係は、非常に緊迫した敵対的なものになっています。
最近、Anthropicが政治活動委員会に大口献金をしたことでそれが頂点に達しましたが、競合他社の献金とは随分違う性格のものでしたね。
Anthropicはトーンを落とそうともしていて、DarioやAnthropicの別の幹部がトランプ政権のいくつかの政策を評価する発言をしたり、民主党員も共和党員も採用していると言ったりしていました。でも先週、Anthropicは超党派でAI規制を支持するスーパーPAC(政治活動委員会)に2000万ドルを寄付すると発表しました。私はこれをトランプ政権への攻撃というより、Anthropicの最大のライバルであるOpenAIへの対抗と見ています。OpenAIの社長Greg Brockmanがトランプ支持のスーパーPACや、AI規制の巻き戻しを目指すスーパーPACへの資金提供を表明していましたから。
「忠誠心テスト」としての意味合い
いくつかの対立が絡み合っていますが、大きな見方としては、連邦政府とトランプ政権はAnthropicをどうにも好きになれないということでしょう。彼らはAnthropicを、政府に協力しようとしない、モデルにバイアスを組み込んでいるウォークなリベラル集団と見なしている。
もう一つの言い方をすれば、「トランプ政権への忠誠心が足りない」ということかもしれませんよね。ほとんどの大手テクノロジー企業がトランプ政権の要求に何でもこたえようとしている時代に、「これだけはやりたくない」と言い出す企業が出てくると、それだけで重大な対立が生まれる。
そうです。それこそがこのペンタゴンとの争いの本質だと思います。これは忠誠心テストです。この契約自体の話じゃない。ペンタゴンとトランプ政権が「うちの言う通りにしろ、ポリシーを変えろ」と言っていて、使えるすべての圧力ポイントを使ってAnthropicを従わせようとしている。
そして私はこれが成功するとは思っていません。交渉関係者に聞いたところでは、DarioとAnthropicはこの点について非常に固い意志を持っていて、原則を守るためなら収益の打撃をいとわない覚悟があると。他のAIラボは「争う価値がない」と判断しましたが、Anthropicは本当に踏みとどまっています。
近い将来のリスクとしての監視と自律型兵器
少し現時点に話を戻して、もう少し質問させてください。Darioがこの状況を見渡したとき、監視と殺傷ロボットの二つの問題は、ごく近い将来のリスクとして見ているのでしょうか、それとも2年後、3年後、5年後、10年後に問題になる話として今から備えているということでしょうか?
両方だと思います。自律型兵器については、今のシステムがまだ責任を持って扱えるほど高性能ではないというのは確かです。ちなみに主にファンフィクションのデータベースで訓練されているわけで、自律的に人を殺す方法についての情報はそんなに入っていないですから。
でも国内監視の問題は、今現在すでに可能なことをめぐる争いだと思います。実際に先週、あなたの同僚のSheryl FrankelandMike Isaacによる素晴らしい記事があって、テクノロジー企業がICEを批判している人物の特定情報を求める前例のない数の召喚状を受け取っているという内容でした。Reddit、Discord、Metaなど、連邦機関から「誰かがICEについて否定的な投稿をしている、名前、電話番号、メールアドレスを教えろ」という召喚状が届いているんです。これは少なくとも、非常に差し迫った脅威と言えるでしょう。
そして私たちはClaude Codeがどれほど素晴らしい仕事をできるか、大量のファイルや巨大なコードベースを整理するのにどれほど役立つかについて話してきました。近い将来のリスクとして、テクノロジー企業からすべての情報を収集して、Claudeのようなツールを使って、不人気な政治的意見を表明するアメリカ人の監視データベースや脅威スコアを作ることは、それほど難しくないはずです。
Anthropicの「ブランド戦略」としての側面
まとめに入る前に一つ聞いていいですか。あなたの話を聞いていて思うんですが、Anthropicは実はこの争いを喜んでいるんじゃないかという気がするんです。スーパーボウルの広告についての最近の対談を思い出して、「AIには広告が来るが、Claudeには来ない」という話がありましたよね。OpenAIとわざわざ一戦交えて、Claudeは広告のないものだと示した。そして今度は軍と争って、「監視と殺傷ロボットはAIに来るかもしれないが、Claudeには来ない」と言っているわけです。もし私がマーケティングチームにいたら、その争いは積極的に仕掛けたいかもしれない。なぜなら競合他社をかなり悪い立場に追い込んでいるから。
そうですよね。それが彼らの計算だと思います。この件で受ける財務的な打撃はどうにでもなると見ていて、アイデアの戦争では自分たちが勝てると信じている。
2億ドルの契約を失うだけなら、それはおそらく正しいでしょう。でも米政府が本当にサプライチェーンリスクに指定した場合は、また別の話で、前例がないので何とも言えません。訴訟になって、それが実際に何を意味するのかを法廷で争うことになると思います。ただ、トランプ政権とDoD(国防総省)はAnthropicをかなり苦しい立場に追い込める。
これは巨大なエスカレーションであり、民間企業に対する政府の越権行為としても潜在的に憂慮すべきことだと思います。そして何より、この政権が掲げてきた方針とも相容れない。トランプ政権とDavid Saxsは何ヶ月もの間、「アメリカはAIで勝ちに行く、失速させたいわけじゃない」と言い続けてきました。それなのにこれは軍の作戦そのものを大幅に減速させることになる。アメリカを代表するAI企業の、まさに軍人が使っているツールを作っている会社が機能できなくなるわけです。代わりにGrokとか何とかを使うことになってしまう。
だからある意味、Anthropicの方に交渉力があると言えます。彼らはこういう道義的な争いを望んでいる節があるし、軍にとっても役立つツールを持っているわけですから。
本当の問題——誰も追随しないこと
最後にまとめとして言わせてください、ケビン。私がこの件で驚かされるのは、Anthropicがこの戦いを繰り広げていることよりも、他の誰もそうしていないということです。シリコンバレーには長い間、軍との関わりを避けたい、自分たちが作るソフトウェアは人々を助けるもので害をもたらさないようにしたい、という文化がありました。なのにGoogle、OpenAI、xAIがすべて、大規模監視と自律型殺傷兵器への使用に署名する準備ができているらしいという事実は、正直ぞっとします。長い目で見れば、Anthropicをめぐる話よりもはるかに大きなニュースになるかもしれません。
そうですね。この政権がテクノロジー企業に対してどれほど抑圧的に行動してきたかを示しています。みんなAnthropicが脅され、いじめられ、政府の要求を飲まされる様子を見てきたから、政権に逆らうことを恐れている。
でも、この争いで本当に目を引くのは、この技術が今日どれほど強力か、そしてすぐにどれほど強力になりうるかを誰も本当にわかっていないということです。ペンタゴン側からプレスにリークされている発言を見ると、彼らは本当に「ソフトウェア製品を買っている」という感覚でいる。AIをGoogleの次世代版、あるいはMicrosoft WordやExcelみたいなものだと思っているとすれば、そういう会社は軍が何をしようと制限しない。軍がExcelの大規模契約を結んでも、「これを国内監視に使っちゃダメ」なんて条項はついてこない。
権力と責任の問題
軍はずっと、完全にコントロールできる技術やツールを購入することに慣れてきました。今起きているのもそういうことだと思っているんでしょう。Anthropicが「売りたいけれど、使い方は私たちが決めます」と旗を立てているように見えている。でも、この状況に関わるすべての人が、これはMicrosoft WordやExcel、あるいは飛行機よりもずっと大きな何かだと理解していたら——このシステムは判断と自律的な行動ができるようになりつつあると——まったく違う会話になっていたでしょう。
私の恐れはむしろ逆なんです。彼らは実際にそれを理解していて、だからこそ興奮していて、今すぐ手に入れたがっている。そして現在のペンタゴンには、そのツールをまさにそういう形で使いたいという欲求を制限するものは何もないと思います。怖いのはケビン、彼らが何を手にしているかわかっていないことじゃなくて、わかっていることです。
そうかもしれない。ただ一つ気になるのは、米軍がアメリカのテクノロジー企業に大規模な国内監視を許可させようと圧力をかけているというようなことは、ACLUや議会の民主党議員など、市民的自由グループが猛反発しそうなことじゃないですか。でもそういった声がほとんど聞こえてこない。ACLUやEFFや、力のある立場から声を上げられる人たちから。おそらく彼らは千の戦いを同時に戦っているという感覚で、AI企業と軍の間の契約争いは優先リストの上位に来ないんでしょう。
でも、これは大きな問題です。これは大きな問題になります。今まさにこれが戦われています。これはアメリカ市民的自由の未来についての問題で、誰か、誰でもいいから立ち上がってこれについて声を上げてほしいと切に願います。
このセグメント全体がAnthropicを擁護しているように聞こえるかもしれないですが、まあ私は確かにこの争いではAnthropicの側に立っています。ただ同時に、米軍が国内の大規模監視と自律型殺傷兵器を事実上制限なく行える状態と私たちの間に立っているものが、一企業とその利用規約だけだという状況は、非常に居心地が悪いです。議会が可決し大統領が署名した、この技術の使い方を規定する法律が必要です。Dario Amodeiやanthropicのような企業が正しいことをしてくれることに頼りたくはないんです。それだけははっきり言いたい。


コメント