ペンタゴン内部者が語る Anthropicとアメリカ国防総省の次なる行方

USA・アメリカ合衆国
この記事は約33分で読めます。

Anthropicとペンタゴンとの契約破綻の背景には、技術的な相違よりも信頼の崩壊と政治的対立が存在する。元国防総省副次官補のマイケル・ホロウィッツ教授が、軍事AI政策の内側から両者の対立を解説。Anthropicは大量監視と自律型兵器への使用制限を求めたが、ペンタゴンは「すべての合法的用途」条項を要求。実際には現在進行中のプロジェクトでの対立はなく、マドゥロ作戦後の技術使用確認がきっかけとなった。サプライチェーンリスク指定という極端な措置は法廷闘争の可能性が高く、イラン攻撃作戦でもClaudeが使用されていた事実と矛盾する。AIは軍事において汎用技術として、後方支援から情報処理、そして将来的には戦場での自律システムまで幅広い影響を及ぼすが、現時点でのLLMは完全自律兵器には技術的に準備不足である。

Pentagon Insider: What's Next For Anthropic and The Department of War — With Michael Horowitz
Michael Horowitz is the former deputy assistant secretary of defense for force development and emerging capabilities at ...

Anthropicとペンタゴンの対立の核心

Anthropicとアメリカ国防総省の関係が爆発的に崩壊した今、両者はこれからどこへ向かうのでしょうか。今回は、実際にペンタゴンのAI政策、特に兵器システムに関する政策を設計した専門家とこの問題について話し合います。

Big Technology Podcastへようこそ。このショーは、テクノロジーの世界とその先にあるものについて、冷静で繊細な会話を提供する番組です。

多くの皆さんから、Anthropicとペンタゴンの対立に詳しい専門家をゲストに呼んでほしいという要望をいただいていましたが、今日はまさにその適任者をお招きしています。マイケル・ホロウィッツ教授です。ペンシルベニア大学で政治学と経済学の教授を務めておられます。

また、外交問題評議会では技術とイノベーションに関するシニアフェローでもあります。そして重要なのは、国防総省で戦力開発と新興能力担当の国防副次官補を務めていたということです。冒頭でも触れましたが、ペンタゴンで、特に兵器システムに関する政策に取り組んでこられました。

ですから今日の議論は、ペンタゴンの実際の考え方や、Anthropicとの対立が最終的にどこに落ち着くのかについて、深く掘り下げた内容になるでしょう。教授、お会いできて光栄です。番組へようこそ。

お招きいただきありがとうございます。この会話を楽しみにしています。

三つのシナリオと真相の探求

素晴らしい。では、Anthropicとペンタゴンの対立の本質が実際には何なのか、私たちは推測を重ねてきました。金曜日には、これはAnthropicのマーケティング活動かもしれないと考えていました。しかしその後、彼らがサプライチェーンリスクと見なされたことで、これは単なるマーケティング以上に深刻な問題だということが明らかになりました。

私たちの視聴者の間では、基本的に三つの異なるシナリオが議論されています。これらをお伝えして、どれが真実に最も近いとお考えか聞かせてください。

まず、念のため状況を説明しますと、Anthropicと国防総省の間には契約があり、国防総省がAnthropicの技術を使用するというものでした。Anthropicは、自分たちの技術が大量監視や自律型兵器には使われないようにする例外条項を求めていました。そしてそれが決裂したのです。

ペンタゴンは契約を解除しただけでなく、Anthropicをサプライチェーンリスクと宣言しました。これについては後ほど詳しく触れます。では、この対立で実際に何が起きているのか、私の三つの選択肢を紹介します。

一つ目は、単なる文化の衝突で、実際には取るに足らない細かい点をめぐるエゴの爆発かもしれないということです。二つ目は、AnthropicのCEOダリオ・アモデイが、AIによる大量監視とその可能性に対して勇敢に立ち向かっているという可能性です。

三つ目は、実際には国防総省が、民間企業が戦争の進め方を指図することに対して勇敢に押し返しているという可能性です。どれが真実に最も近いとお考えですか。

おそらく、少しずつAもBもCも含まれているという感じでしょうね。根本的には、ですが。しかし私にとって、これは政策論争を装った人間関係と政治の問題なのです。

どういう意味か説明させてください。Anthropicとペンタゴンの関係を見てみると、Anthropicは最前線のAIラボとして初めて、アメリカの国家安全保障を支援するために機密作業を行う意思を示した企業でした。つまり、その時点ですでに、他の最前線AIラボがまだ準備できていなかった方法で、Anthropicはペンタゴンと舞台裏で協力する用意があったのです。

そしてAnthropicは、自分たちが行っている現在のプロジェクトについて、ペンタゴンとの間で何の対立もありませんでした。ペンタゴンがAnthropicに何かを依頼して、Anthropicがそれを拒否したり懸念を示したりしたわけではないのです。また、ペンタゴンがAnthropicに依頼しようとしていた今後のプロジェクトについても、Anthropicが疑問や懸念を持っていたようなものはなかったようです。

この問題が始まったきっかけは、マドゥロ作戦の後だったようです。アメリカがベネズエラの指導者をその国から連れ出してアメリカに連行した後、Anthropicの誰かが基本的にPalantirの誰かに電話をかけて、「ねえ、あの作戦に私たちの技術は使われたの?」と尋ねたようなのです。

というのも、Anthropicの技術がペンタゴン内で統合される方法は、多くの場合、Maven Smart Systemと呼ばれるPalantirの製品を通じてだからです。

それでAnthropicがPalantirに電話をかけて、「ねえ、私たちの技術は使われたの?」と聞いた。それが悪いと言っているわけではないのですが、ペンタゴンがそのことを知って、Anthropicが尋ねたこと自体に不快感を示したのです。それが本質的にこの問題の引き金となりました。

つまり、実際に争われている現在進行中の案件がなかったという事実と合わせて考えると、これは少なくとも実質的な意見の相違と同じくらい、人間関係や政治に関係していると私は考えています。

監視をめぐる言葉の争い

では、そこから監視をめぐる言葉の争いにどうつながったのでしょうか。つまり、本当に一つの言葉の問題だったわけですよね。国防総省はAnthropicに、すでに法律で定められている法律に「一致して(consistent to)」大量監視には技術を使用しないという契約上の文言に同意することを求めました。

一方、Anthropicはその言葉を「に従って(pursuant to)」にしたかったのです。これは非常に大きな違いだという人もいれば、大した違いではないという人もいます。しかし、Anthropicが「私たちの技術はどう使われているのか?」と尋ねたポイントAから、突然、マドゥロ事件とは全く関係のない契約書の一語をめぐる訴訟のようなポイントBに、どうやって辿り着いたのでしょうか。

全く関係ないですね。おそらく、ペンタゴンが約1ヶ月ほど前に人工知能政策を更新したことが関係していると思います。そしてペンタゴンが行ったことの一つは、今後AIベンダーと締結するすべての契約、つまり必ずしも最前線のAIラボだけでなく、すべてのAIベンダーとの契約に、「すべての合法的用途(all lawful uses)」条項を含めなければならないと言ったことです。つまり、彼らの技術が、お待ちください、すべての合法的用途に使われることに問題はないということです。

一方で、昨年の夏、Anthropicとペンタゴンは契約を結びました。国防総省が喜んで署名した契約には、Anthropicが自分たちの技術の使用について安心できるような条項が含まれていました。

そしてペンタゴンが政策を更新し、基本的にこの契約の再交渉について話し始めるわけです。多かれ少なかれ。

そしてマドゥロの引き金が本質的に起こり、最終的に起きたのは、Anthropicとペンタゴンの間の信頼の根本的な崩壊だと思います。ペンタゴンは、Anthropicが重要な国家安全保障の使用事例、ちなみに数分後にイランについて話せますが、そうした場合にそこにいてくれると信頼できないと判断しました。

そしてAnthropicは、ペンタゴンが自分たちの技術を責任を持って使用するとは信頼できなかったのです。大量監視の議論は、ある意味でこれの良い例証です。

ペンタゴンは、自分たちは法律に従っていると非常に明確にしています。そして大量監視は、驚くことではないですが、憲法修正第4条に違反します。それはペンタゴンが誰かに心配してほしいと思っているようなことではないのです。

一般的にペンタゴンをどれだけ信頼するかが、この点についてのあなたの見方を反映するかもしれません。

ですから彼らは、Anthropicのその点に関する条項は不要だと考えています。なぜなら、ペンタゴンがすでに負っている義務の中に本質的に含まれているからです。Anthropicはこうした保証を求めています。なぜなら、人工知能の進歩が、匿名化されたデータの非匿名化のようなことにつながり、アメリカ市民を含む本当の大量監視問題を引き起こす可能性について心配しているからです。

そこに対立があるのです。そしてその対立の核心は、ある意味で、ペンタゴンがAIベンダーやサービスを、兵器を購入するのと同じように考えているということです。例えば、ロッキードがF-35航空機やミサイルをペンタゴンに販売する場合、ロッキードはペンタゴンに「ああ、この国に対してのみ使えて、あの国には使えない」などとは言えないのです。

ですからペンタゴンの視点からすると、Anthropicが求めていることは前例のないことなのです。Anthropicの視点からすると、AIはサービスです。常に更新され続ける技術であり、彼らが関与し続ける必要があるのです。ペンタゴンにミサイルを売るようなものではないのです。

それが、舞台裏で起きていることの一部だと思います。

自律型兵器と監視の実態

ここで明確にしておきたいのですが、これは重要なことです。この対立について話しているとき、私たちはAnthropicがイランに対する自律的な攻撃を特定するために使われるというような話はしていませんよね。また、国防総省が今から監視データベースの作成を始めたいと考えているという話でもありません。

これは単に、マドゥロ事件の後に浮上した言葉であって、今議論されている重要な戦闘能力でもなければ、進行中のプログラムでもないのですよね。

これについてはいくつか異なる考え方があると思います。この対立が必ずしもどこからともなく来たとは思いません。

Anthropicは、国防とは無関係なトランプ政権の他の活動、例えば中国に対するAI輸出規制の緩和などについて、公に批判してきました。ですから、Anthropicとホワイトハウスの間に何らかの悪感情があって、それがここで役割を果たした可能性もあると考えざるを得ません。ただ、誰にも分かりませんが。

しかし国防側の話に戻ると、人工知能の進歩がどのように大量監視を可能にするかについて、個人的な観点から心配する理由はあると思います。ただ、ペンタゴンがその懸念の適切な焦点かどうかは分かりません。根本的に、他の省庁や機関の方を先に心配するかもしれません。

そしてAnthropicのもう一つの異議、自律型兵器システムに関する異議について興味深いのは、木曜日の夜にAnthropicのリーダーシップが出した声明です。彼らは実際には自律型兵器システムに問題があるわけではなく、単に自分たちの技術がまだそれに対応できていないと考えているというのです。

ペンタゴンの自律型兵器システムに関する政策を起草した人間として言わせてもらうと、Anthropicはその点で間違っていません。自律型兵器システムを訓練しようとする場合、そのシステムにやってもらいたいことは、一般的に人々が最も恐れているようなことではありません。例えば、このアルゴリズムが個人が戦場で合法的な戦闘員かどうかを判断できるか、といったことです。それは非常に難しいでしょう。

もっとお話しできますが、一般的にやろうとしているのは、アルゴリズムを訓練して何か特定のことをさせることです。例えば、ロシアの戦車や中国の戦闘機を標的にするといった、非常に具体的でカスタマイズされたデータを使ったことです。

そして多くの場合、そうした文脈で使用する可能性が最も高いアルゴリズムの種類は、インターネットの雑多なデータで訓練されたClaudeよりもはるかに決定論的なものです。ですからAnthropicは、自分たちの技術が自律型兵器システムの実用レベルにはまだ達していないという点で間違っていません。

彼らは将来、ペンタゴンがそうした種類の使用事例に対応できるよう技術を準備するのを手伝うことさえ申し出ていました。それを考えると、これがどのようにエスカレートしたのか、ますます不可解です。

ペンタゴンでのAI技術の実際の使われ方

ところで、興味深い視点を提供してくださっていますね。これが、あなたを番組にお招きして本当に嬉しかった理由の一つです。この技術が実際にどのように使われているかについて、実際の知識をお持ちだからです。

ちなみに、これまで私にとっては、完全には分からない大きな雲のようなものでした。ペンタゴンの中で正確に何が起きているのか分からなかったのです。そして、この対立にもかかわらず、ペンタゴンはイランへの攻撃でAnthropicのツールを使用したという話がありました。

それは、Claudeがイラン側の戦闘員を標的にしているという意味なのか、それとも何らかのデータベースを照会して、Claudeが何らかの推測をした後にトリプルチェックをしているだけなのか。あるいはそれも重要かもしれません。

ですから、あなたの視点を伺いたいのです。Anthropicのツールは国防総省の中でどのように使われているのでしょうか。

素晴らしい質問ですね。Anthropicのツールは国防総省の中で様々な方法で使われています。そして今私たちが最も注目しているのは、イラン作戦の文脈での使用です。なぜなら、それに類するものが、おそらく考察する上で最も示唆に富んでいるからです。

機密側では、Anthropicのようなツールは、先ほど述べたように、Maven Smart Systemと呼ばれる別のツールに組み込まれることになります。基本的にダッシュボードのようなものだと想像してください。

中東の全米軍を担当する人物や、インド太平洋の全米軍を担当する人物のような、戦闘指揮官を支援するために設計されたダッシュボードです。

その人物が地域で何が起きているかを理解し、起きているあらゆる種類のことを理解するのを助けるために設計されています。非機密データフィード、機密データフィードを処理し、そのすべての情報をまとめて、指揮官がアメリカ軍に関して良い決定を下せるよう支援するのです。

そしてClaudeは、そのシステムへの多くの異なる入力の一つに過ぎません。そして私は疑いませんし、この文脈でClaudeのようなものが使用される可能性のある方法がいくつかあるという報道もありました。

一つは、公開データベースを照会し、公開情報を照会することです。イランで最も重要なニュースサービスは何か。イランのメディアで今どんなおしゃべりがあるか。そうした種類のことすべてです。

Claudeはまた、シミュレーションを手伝うこともできます。攻撃の文脈で何が起こるかのシミュレーションをより迅速に生成するのを助けるのです。

Claudeが間違いなくやっていないこと、少なくとも私が知る限り、本当に驚くようなことですが、それは今日の戦場での自律的な標的設定です。もしそれがClaudeに特化したタスクだったら、私は本当に驚愕するでしょう。

繰り返しますが、それは技術的な準備状態と同じくらい、他の理由によるものです。そしてここで重要な文脈があります。ペンタゴンがAIのような新しいツールを取り入れて、不適切に使用したり、実装において過度に攻撃的になったりするのではないかという懸念がよくあります。

新しい技術を統合する際には事故が起こります。それはいつも起こります。それは何百年も続いてきたことです。しかし、アメリカの軍事システムが効果的に機能することを、戦闘員以上に望んでいる人はいません。なぜなら、信頼できないシステムは機能しないからです。

機能しないシステムは、あなたを殺すことになります。ですから、私たちのツールが本質的に効果的であることを、戦闘員以上に望んでいる人はいないのです。

ですから、アメリカ軍は実際、AI全般の統合に関しては、ある意味で非常に保守的でした。Claudeのようなツールは言うまでもありません。

ですから、この文脈でClaudeから出てくる情報は、戦場の近くで何かに影響を与える前に、人間による何層もの審査を経ていることに疑いはありません。

Claudeを使用することで軍隊にどれだけの優位性が得られると思いますか。つまり、これは戦闘におけるその重要性に関わることです。

イランのメディアクリップを要約することは、長い間テクノロジーができてきたことのように思えます。おそらく、報道されている例を一つ挙げると、諜報機関がテヘラン中の交通カメラをハッキングして、動きを見ることができたということですが、それは大規模言語モデルを使うようなことでしょうか、それとももっと従来のコンピュータビジョンシステムを使うものでしょうか。

使えるでしょうが、おっしゃったようにコンピュータビジョンでもできます。そして軍隊は、その仕事に最適なツールを使うことについて、しばしば非常に無慈悲です。

この場合、何年もかけて実証されたツールがあり、特にコンピュータビジョンツールは、ある意味では洗練度は低いですが、AIツールとして何年もかけて実証され、これらのタスクの多くを実行できるのです。

ですから、Claudeをコンピュータビジョンの代わりに使うことはないでしょう。Claudeをそれに使うかもしれませんが、それらがどのように比較されるか、評価がどうなるかを見るためです。でも正直なところ、これはすべて推測です。

そして人々に心に留めておいてほしい重要なことの一つは、これはMaven Smart Systemのようなプラットフォームを通してフィルタリングされているということです。そしてこれらのツールは、Maven Smart Systemであろうと他のものであろうと、常に裏側では映画やテレビで見えるよりもユーザー集約的なのです。

軍隊にとって、それらは常に少し不格好です。常に少しユーザー集約的なのです。ですから、人間がこのプロセスから排除されているわけではありません。

そして注目すべきは、この文脈で話しているClaudeの使用は、軍事用語で言うところの、より作戦的な、戦場で何が起きているかを見ることです。本質的に戦場の指揮官のための意思決定支援ツールです。これはAnthropicが持っていた大量監視の異議でも、自律型兵器システムに関わることでもありません。

そうですね。私がこれらの大規模言語モデルについて知っていることから考えると、私の推測は常に、教育を受けた推測だったかもしれませんが、これは副次的なものだということでした。おそらく有用ではあるけれど、今日軍隊がやっていることの中核ではなく、大部分は副次的なものだと。それにほぼ同意されるようですね。

100%、100%同意します。

つまり、Claudeがもう少し実験的な方法で使用されているとしても、私は驚かないでしょう。ここで舞台裏にあるもう一つのことは、イランとの紛争なので、アメリカ軍にとってそれを取り仕切っているのは米中央軍です。

そして米中央軍は、世界中の様々なアメリカ戦闘司令部の中で、実験やプロトタイピング、イノベーションに関して最も積極的だったと言えるでしょう。彼らは、新興能力で何ができるか見てみようということに、ある意味で最も熱心でした。

私がペンタゴンで以前の立場で働いていたとき、彼らと多く仕事をしましたが、彼らが多くのものを試運転に出していることは疑いありません。Claudeを含めて。同時に、より実証された能力を使って大きな決定を下すことには慎重であり続けながら。

自律型兵器システムの定義と誤解

そうですね。ダリオ、あなたが言及されましたが、ダリオは「私たちは、今日の最前線のAIモデルが完全自律型兵器に使用されるのに十分信頼できるとは考えていません」と言いました。それは私には非常に妥当に思えます。

番組で話していたのは、LLMに発射させるかどうかということで、これらのツールを使っている人なら誰でも、Claude Codeは素晴らしいツールで、コーディング方法を知らなくてもソフトウェアを構築できますが、デバッグに費やす時間は、プロンプトを与える時間よりも確実に長いのです。

ですから、ダリオのその異議は妥当に思えます。

公共サービスアナウンスです。

Anthropicにやめてほしいことがあるとすれば、それは「完全自律型兵器(fully autonomous weapons)」というフレーズを実際に使うことです。理由はこうです。

それは専門用語ではありません。ですからペンタゴンの視点からすると。ダリオが「完全自律型兵器はこれやあれをしたくない」と言うとき、それは率直に言って、国防コミュニティの一部にとって混乱を招く可能性があります。なぜなら、アメリカの政策における用語は「自律型兵器システム(autonomous weapon systems)」だからです。

そしてそれらとの間には違いがあります。その違いはこうです。

アメリカ軍は40年以上にわたって自律型兵器システムを使用してきました。現代の兵器システムに組み込まれている自律性の度合いを、人々は本当に過小評価していると思います。今日私たちがAIと呼ぶものの前の世界でも、いわゆる古き良きAIのような世界でも。二つ例を挙げましょう。

一つは、誘導弾やレーダー誘導弾のようなものです。誰かが地平線の向こうにレーダーがあると信じて、そのレーダーに向けてミサイルを発射するかもしれません。発射後、そのミサイルに人間の監視はありません。単にシーカーをオンにして、レーダーに向かって飛んでいき、命中するのです。

もしそのレーダーが学校の上にあったらどうでしょう。もしそのレーダーが病院の上にあったらどうでしょう。分かりません。もう飛んで行ってしまっているのです。

二つ目の例は、近接防御兵器システムと呼ばれるもので、大規模攻撃から船舶や一部の軍事基地を保護する兵器システムです。

ですから、もし10発のミサイルが入ってきて、オペレーターであってもそのすべてをポイント・アンド・クリックすることさえできない場合、本質的にアルゴリズムをオンにして、それらを自動的に検出して撃つことができます。アメリカ軍は1980年頃からこのシステムを使用しており、世界中の数十の軍隊も同様です。

ですから、自律型兵器システムについて話すときは注意する必要があります。何を心配しているのか、技術が何に対応できているか、できていないかについて明確にする必要があります。

先ほど言ったように、Anthropicは自分たちの技術が実用レベルではなく、自律型兵器システムへの組み込みには準備ができていないという点で絶対に正しいと思います。

また、エッジでの計算能力を考えると、それをミサイルにどうやって組み込むのか。分からないですね。しかし、自律型兵器システムが欲しいなら、LLMを含まない方法が他にたくさんあるのです。

しかし公共サービスアナウンスとして、自律型兵器システムというフレーズが適切な専門用語です。自律型兵器システムとは、起動後、さらなる人間の介入なしに標的を選択し、交戦する兵器システムです。以上です。

それが、少なくともペンタゴンが自律型兵器システムを定義する方法です。人によって定義は異なりますが、少なくともペンタゴンはそう定義しています。

政府と民間技術の時差

あなたがこれを説明してくださった今、どこからこれほど多くの混乱が来ているのか、お話しできますか。

もちろんです。

私は数年間政府で働いたことがあります。そしてあなたも技術について話されました。私たちは両方とも、政府の技術が商業的な使用事例よりもほんの少し遅れがちだということを知っています。

ほんの少しだけですね。

そうです。AI業界はこの1年半で二つの段階を経てきました。AIのチャットボット段階がありました。それにはコンテンツの合成、要約、これらのタイプのことも含まれます。そして今、彼らはエージェント的な瞬間に移行しています。

政府がすでにエージェント的な段階にあるという誤解があると思います。技術が独自の決定を下すところです。しかし、あなたから聞いているのは、実際にはまだチャットボット段階にあるということです。商業より1年、2年遅れていて、技術がエージェント的になることへのこの心配は、政府がどこにいるかを考えると、的外れなのではないでしょうか。

それはおそらく大体正しいと思います。ただ率直に言って、Anthropicがそもそもペンタゴンと機密作業をしようとしていたことの一部は、それを修正することでした。舞台裏に入って、自分たちの技術を、アメリカの戦闘員が最先端に近いものにアクセスできるようにすることでした。

しかし、心に留めておくべきもう一つのことは、テストと評価基準、軍隊がT&E基準と呼ぶものが、商業市場に技術を投入するために必要なものとどう違うかということです。

会社として、前世代のチャットボットのようなシステムか、今世代のエージェント的システムを市場にリリースすることを想像してみてください。

エラーや問題があったとしても、それは恥ずかしいことですが、その場で修正します。そして率直に言って、最初にそこに到達することで市場シェアを得ることができます。営利企業がそうするかもしれない経済的な理由は様々あります。

軍隊でうまく機能しないものをリリースすると、人が死にます。

ですから、インセンティブ構造は非常に異なります。そして、これらのシステムのテストと評価は、軍事的文脈では非常に異なります。何かが実戦配備可能になるために必要な信頼性とサイバーセキュリティなどのレベルは、非常に異なります。

ですから、少なくとも理論的には、システムが適切に機能していれば、人々はその点で安心すべきです。

その通りです。さて、政府の視点と、このサプライチェーンリスク指定がAnthropicに何をするかもしれないかについて話したいと思います。この後すぐにそれについて話しましょう。

サプライチェーンリスク指定の重み

戻ってきました。Big Technology Podcastです。ペンシルベニア大学のマイケル・ホロウィッツ教授と一緒です。また、元国防副次官補で、戦力開発と新興能力担当でした。

さて、政府の視点について少し話しましょう。政府がAnthropicに、あなたは自分の技術をどう使うかについて考えがあるかもしれないが、私たちに何をすべきか指図することはできない、私たちは信頼されるべきであり、それを決定するのはあなたではなく私たちだと伝えることに、妥当性はありますか。

政府にはここでいくつかの点で正当性があると思います。どういう意味か説明させてください。以前にもほのめかしましたが、政府が技術を購入するとき、政府はハードウェアを購入することに慣れています。

政府が戦闘機や潜水艦やミサイルなどを購入するときを考えてみてください。それらの技術を構築する企業は、政府にそれをどう使うかを指示しません。前提は、政府がそれらの技術を使用する際に法律に従うということです。そうでなければ、私たちは一体何をしているのかということになりますから。

ですから政府は、Anthropicからのこれらの要求と、それに対して譲歩を拒否することを、本質的にペンタゴンの権限に挑戦するものと見なしました。

そしてこれは、先ほど話していた文化と人間関係の衝突がどこから来るのかの一部だと思います。なぜなら、ペンタゴンは「ねえ、私たちはルールに従っています。それは私たちが間違いなくやっていることです。アメリカの法律に従わないのではないかと心配する必要はありません。技術が対応していないような無茶なことをするのではないかと心配する必要はありません。それが起こらないようにするための法律と政策とプロセスがあります。他のベンダーに、シナリオXでは技術を使えるがシナリオYでは使えないと言わせることはしません。ですから、あなたが求めていることは不合理です」と言っているのです。

そして私は、政府の視点からすると、なぜそんなことを言うのか理解できます。

それが、先ほど示唆したように、私たちがここで実際に見ているのは、実質的な意見の相違と同じくらい、信頼の崩壊だと思う理由でもあります。

その通りです。問題は次に何が起こるかです。

ある意味で、もし政府が技術ベンダーを信頼できないと思うなら、おそらく彼らを交代させるべきだと私は考えています。しかし、政府はここで止まりませんでした。

彼らがしたことは、Anthropicをサプライチェーンリスクと見なしたのです。つまり、会社はアメリカ政府機関と仕事ができなくなりました。

そして国防長官ヘグセスはさらに進みました。彼は事実上、即座に効力を発揮すると言いました。アメリカ軍とビジネスを行う請負業者、サプライヤー、パートナーは誰も、Anthropicといかなる商業活動も行ってはならないと。

ちなみにこれにはAmazonも含まれます。Amazonはアメリカ政府の請負業者であり、Anthropicのモデルもホストしています。

これは国防総省の考えを知る情報源から得た情報です。国防総省内の現在の感覚は、彼らはAnthropicを破壊したいということです。

この反応についてどう思われますか。

これについては多くの考えがあります。まず結論から言わせてください。世界で最も革新的な企業の一つを潰して、土地を塩で覆うようなことは、アメリカのイノベーションやアメリカ経済にとって良くありません。お願いですから、彼らがそれを解決することを願いましょう。

しかし少し戻りますと、通常の市場状況では、ペンタゴンの見方が妥当か不合理かは別として、それは事実です。通常の市場の見方では、ペンタゴンは二つのことのうち一つをするでしょう。

一つは、Anthropicとはこれらの使用事例では協力するが、彼らがやりたくないものではやらない、と言うでしょう。そして思い出してください、彼らは今それらをやっていないので、現在または計画されている将来の使用についての争いはなかったのです。将来それらをやりたいなら、XAIやOpenAIなど、それをやってくれる別のAIベンダーを見つけるということです。

あるいは政府は、「Anthropicとビジネスをする価値はない。契約をキャンセルして、段階的に移行し、XAIやOpenAI、Metaなど、誰か他の人を連れてきてこれに対処しよう」と言うこともできたでしょう。

しかし明らかにそうはなりませんでした。政府がAnthropicをサプライチェーンリスクとして分類しただけではないのです。ある意味で、それ以上に不可解なことです。

サプライチェーンリスク指定は、アメリカの国家安全保障に明確な危険をもたらすと考えられる企業のためのものです。サプライチェーンリスクとして分類された企業の例は、Huaweiやあなたもご存知の中国企業です。懸念は、アメリカ政府機関が彼らと仕事をすると、バックドアや脆弱性を挿入してアメリカの国家安全保障を危険にさらす可能性があるというものです。

ここで話しているのは、本当にそういうことではありません。ですから、その指定が法廷で維持されるかどうか疑問に思う人が多いと思います。また、サプライチェーン指定が実際にAnthropicに届けられたのかもまだ明確ではありません。

約1日前の時点ではまだでしたが、脅迫はされていました。

つまり、Anthropicは、手紙と実際の指定を受け取ったらすぐに法廷に行くでしょう。

そして印象的だったのは、言葉遊びではないですが、サプライチェーン指定から24時間以内に、アメリカ政府がイランに対するOperation Epic Furyの文脈でAnthropicの技術を使用していたことです。

進行中の軍事作戦の文脈で彼らを使用しているのに、どうやって本当にサプライチェーンリスクになり得るでしょうか。

しかし政府はさらに進みました。一方でAnthropicをサプライチェーンリスクとして分類できる、あるいは分類していると言いながら、他方でAnthropicが望まないかもしれない使用事例について政府と協力するよう強制するために、防衛生産法を使用することを検討していると言っています。

防衛生産法、DPAは、戦争が起きていて、もっと戦車などが必要な場合に、政府が車両製造業者の列の最前列にいることを確保するために設計されたものでした。この種の環境のために設計されたものではありません。

しかし政府がこれら二つの異なることを考えています。防衛生産法の指定とサプライチェーン指定の両方です。それらは反対方向を向いています。

一つは政府と仕事をすることはできないと言い、もう一つは政府と仕事をしなければならないと言っています。ここにある混乱を示しています。

各省庁でのAnthropicからの移行

さて、あなたは政府機関内で働いてこられました。国防総省内で働いてこられました。これはロイターからです。「国務省がOpenAIに切り替え、アメリカ政府機関がAnthropicの段階的廃止を開始」とあります。

この記事によると、「国務省だけでなく、財務省や保健福祉省のリーダーたちも、トランプ大統領の命令により、従業員にAnthropicの言語訓練チャットボットプラットフォームClaudeの使用を中止するよう指示した。彼らはプラットフォームの使用を中止したアメリカ軍に加わった」とあります。

政府が特定の技術を評価するときの速度について、あなたの視点をお聞きしたいのです。なぜなら、あなたは政府の内部にいたことがあるからです。これがAnthropicにすでにどのような損害を与えたと思われますか。これだけ多くの機関が離脱しているのを見ると。

ここにはいくつか異なる要素があると思います。繰り返しますが、私は弁護士ではありませんが、多くの人がこの指定は法廷で維持されないと考えているようです。

でも確かに、そうですね。

ああ、絶対にそうですね。

使用事例ですが、重要なのは、AnthropicがAWSと仕事ができないという意味ではないからです。AnthropicがAWS政府部門と仕事ができないという意味になるでしょう。理論的には、AWSと仕事をすることに対する致命的な打撃ではありません。

しかし政府機関側から見ると、これが実際に私に示唆するのは、アメリカ政府の省庁や機関におけるLLMの統合が、まだ遅れており、率直に言って私のような人間が望むところよりも遅れているということです。

昨年の文脈で、すべての最前線AIラボが、連邦政府に対して無料か、1ペニーか1ドルかそんな感じで技術を利用可能にしたと大々的に発表されました。普及を促進しようとしていたのです。

ですから、これらの機関の政府職員は、理論的には複数のこれらに長い間アクセスできていて、様々なタスクに使いたいものを選んでいるのです。

そして非機密側では、Claudeを使っている人々が「Claudeを使うな、代わりに何か他のものを使え」という指示を受けているように聞こえます。これは率直に言って、政府にしてはかなり速い動きです。

しかしトランプの発表とヘグセスの発表の両方で注目すべきだったのは、彼らが本当の国家安全保障の使用事例のために6ヶ月の段階的移行期間を設定したことです。なぜなら、彼らは今Anthropicの技術に依存しているからです。Anthropicが機密環境で現在のカーテンの後ろにいる唯一のベンダーだからです。

ですから、これらの非機密使用事例では、「これを切り替えて、代わりにChatGPTを使うか、Grokを使うか、何か他のものを使え」という感じで、率直に言って、将来取引がまとまれば、望むなら単にClaudeを使うことに戻すだけです。

機密側では、Claudeの統合と、Anthropicが国防機関とそうした種類の仕事をする意思を持った最初の企業だったという事実のため、はるかに困難な道のりになるでしょう。

企業へのメッセージと将来への影響

問題は、政府と仕事をすることを考えている企業にとって、サプライチェーンリスクと宣言される可能性があるということが何を意味するかです。これはディーン・ボールからの引用です。彼はトランプ政権でAI政策に取り組んでいたと思います。

彼は、「最も狭いサプライチェーンリスク指定でさえ、政府はあなたを外国の敵対者のように扱うと言った。実際、彼らはある意味で外国の敵対者よりも悪く扱う。単にビジネスの条件への屈服を拒否したというだけで、異なる考えを持ち、その考えを言論で表現し、その言論を自分の財産の展開方法と展開しない方法についての決定において実現させたというだけで。

これらの一つ一つが私たちの共和国の根本であり、それぞれが先週国防総省によって攻撃された」と述べています。

そして基本的に懸念されているのは、もしこれがあなたに起こり得ることなら、企業が国防総省と仕事をすることを警戒するだろうということです。私はそれについてあまり心配していませんが、内部にいた人としてのあなたの視点をお聞きしたいです。

つまり、これは複数の政権にわたって超党派的な方法で、シリコンバレーとの関係を構築するために本当に懸命に働いてきたペンタゴンにとって、厳しい見た目です。

そして明らかに、このトランプ政権は、シリコンバレーの一部の場所では深いつながりを持っています。他の場所ではそれほど深くないつながりです。

しかし確かに、政府と契約に署名できて、彼らがその契約を変更するよう求め、それに同意しなければ、彼らがあなたを破壊しようとするかもしれないという概念は、そもそもペンタゴンと関わることの企業にとってのリスクという点で、非常に異なります。

なぜなら、先ほど話していた使用事例に戻ると、Anthropicが様々な種類の方法で懸念するかもしれないものについて。つまり、覚えておくべきことは、ペンタゴンとビジネスをするなら、ペンタゴンのビジネスは戦争だということです。

ですから、ペンタゴンがあなたの技術ですべての戦争的なことをやりたがっても驚くべきではありません。なぜなら、それがペンタゴンがすることだからです。

しかし、ペンタゴンと契約上の争いがあった場合に、彼らがあなたのビジネス全体を壊滅させようとするかもしれないという考えは、契約をキャンセルするだけでなく、政府と仕事をするかしないかについて限界的な選択をしている企業にとっては、疑問を引き起こす可能性があると思います。

とは言え、他の最前線、XAIやOpenAIなどの他の最前線AIラボの一部は、すでに機密側で仕事をする意思があります。そしてサム・アルトマンは、本質的に平和を仲介し、Anthropicも参加できるかもしれない取引を作ろうとしています。

さて、彼がそれに成功したとしても、Anthropicはそのドアを通るでしょうか。つまり明らかに、OpenAIとAnthropicの間には確執があります。

XAIとOpenAIの間にもそうですが、しかし明らかにこれらのことをやりたいと思っている他のベンダーがいます。しかしまた、アメリカの戦闘員がOperation Epic Furyで見たことを通じて非常に明確に言っているのは、Anthropicが良い製品を提供していて、それを使いたいと思っているということも事実です。

そうですね。そして私の視点についてあなたの見方を聞きたいのですが、これはAnthropicに長期的な損害を与えると思います。なぜなら、これらの法律が、あるいはサプライチェーンリスク指定が彼らに届かなかったり、覆されたりしたとしても、公共部門の企業、請負業者は、将来Anthropicの技術を展開する前に、頭の片隅で二度考えるだけだからです。

分かりません。ある意味でそのシナリオは想像できます。もし狭く、たとえサプライチェーン指定が取り下げられたとしても、すべての契約がキャンセルされ、6ヶ月後にペンタゴンが他の種類のものを使っていて、Anthropicがそのビジネスに二度と戻らなければ、それが起こることは想像できます。

ただ、中間選挙や将来の大統領選挙の文脈で見ることになるものの中で、政治が変化して、これも再調整する可能性があります。

しかし、この6ヶ月の段階的移行期間が、私は、これは希望的観測かもしれませんが、率直に言って国家安全保障の観点からの希望的観測ですが、交渉が起こることを可能にする可能性もあります。

TikTokでそれを見ました。6ヶ月は起こりませんでした。

ええ、ええ。その通りです。そして

サプライチェーンレターが初日に届けられなかったことで、私は「ああ、もしかしたらここで交渉の機会があるのかな」と思いました。誰にも分かりません。つまり、ここでの別の課題は、もしアメリカ政府の中で、完全に前進、常に攻撃、常に全力という組織があるとすれば、それはヘグセス国防長官のペンタゴンです。

ですから、Anthropicとペンタゴンの両方にとって、公的な観点から双方にとっての勝利がどのようなものかを見出すのは挑戦的だと思います。しかし、そこには多くの有用性があるでしょう。そして、もしかしたら数週間かかって始まるかもしれないし、今起きているかもしれない交渉があって、最終的には何らかの取引につながるとしても、私は全く驚きません。

AIが戦争をどう変えるか

さて、最後の質問です。あなたは自律型戦争について多く考えてこられた人です。ですから、このエピソードを、AIが戦争をどう変えると思うかを聞かずに終わらせたくありません。これはほんの数分で答えられるものではないことは分かっています。

ええ、どれだけ時間がありますか。

つまり、あなたが持っているだけです。しかし、ここからどこに向かうのかについて、あなたの視点を聞きたいのです。

私はAIを汎用技術として考えています。ウィジェットではありません。兵器でもありません。汎用技術です。つまり、AIが軍隊やより広く勢力均衡に与える影響を想像したいなら、私にとっての類推は他の汎用技術です。

電気、内燃機関、飛行機、コンピューティングのようなものを考えてください。

そして私がAIの影響を入れる三つの異なるバケツがあります。一つは商業世界に類似したバケツで、軍隊が給与処理、ロジスティクス、調達書類にAIを使用することです。

神様ご存知のように、軍隊はその観点からもっと効率的になれるでしょう。最近数年間ペンタゴンの官僚機構で過ごしましたから。ですから、最低限そこには潜在的に大きな機会があります。

二つ目のバケツは、より情報収集、監視、偵察の種類のカテゴリーです。先ほど話していた意思決定支援のようなものに出血していきます。そこではすでに、軍隊と諜報機関が世界について得るすべてのデータを処理し、信号とノイズを分離するのを助けるコンピュータビジョンアルゴリズムのようなものがありました。

しかし、信頼性が向上すれば、それらのLLMのいくつかを使って、それをはるかに速く、はるかに正確にする本当の機会があります。なぜなら、人々はこの文脈でのAIからのエラーについて心配しますが、しばしばAI業界が率直に言って、AIからの潜在的なエラーや事故について推測しているだけで、人間は間違いなくエラーを起こしやすく、私たちはそれを常に見ています。

例えば1999年のコソボ爆撃作戦の文脈で、アメリカが誤って中国大使館を爆撃したときのことを考えてください。分かりませんが、もしかしたらコンピュータビジョンアルゴリズムやLLMがそれをキャッチしたかもしれません。その二番目のバケツには、より効果的で、本質的に意思決定者に時間を買うための多くの機会があります。

なぜなら、軍事的文脈では、人々が決定を下すためにより多くの時間を持つほど、これは行動科学の洞察であって軍事的洞察ではありませんが、一般的により良い決定を下すことになる傾向があると考えるからです。

ですから、それがAIが役立つもう一つの方法です。

三番目は、戦場の近くまたは戦場上です。そして自律型兵器システムは、軍隊にとって非常に重要になる可能性があります。特に、大国の敵対者との将来の紛争を想像する場合、例えば米中紛争のようなものがあった場合。

その種の紛争の文脈で人々が心配することの一つは、衛星へのアクセスを失うこと、宇宙へのアクセスを失うこと、そして軍隊が劣化または拒否された通信環境と呼ぶものにおいて、自律型兵器システムのようなものが、多くの異なる種類の兵器が動作できるために不可欠になるでしょう。

そしてアルゴリズム的な作戦計画が指揮官を助けることで、おそらくアメリカのような軍隊が最悪のシナリオでも競争して勝つことができる一つの方法です。

ですから、人工知能の様々な使用方法があります。マクロ的に残しておきたいのは、軍隊にとって莫大な結果について話しているということです。これが米中AI競争の一つの次元である理由です。確かに唯一の次元ではありませんが、それに入り込むとき、私は人々に、AIを一枚岩の技術としてではなく、特定の使用事例の文脈で軍隊におけるAIについて考えることを勧めたいです。なぜなら、使用するAIの種類と、それを戦争でどう使うかは、使用事例によって大きく異なるからです。

つまり、自律型ロボット戦争はすぐそこまで来ているわけではないと。

つまり、私は私たちのロボットの支配者に対する準備はできています。何年も前からです。ただ、短期的にではありません。

分かりました。マイケル、来ていただいて本当にありがとうございました。これは非常に啓発的で、これまでにした会話のどれよりも、何が起きているのかについての深い理解を私に与えてくれました。ですから、番組に来ていただいて本当にありがとうございました。

お招きいただきありがとうございました。いつでも喜んでお話しします。

素晴らしい。ではそのお言葉に甘えます。皆さん、聞いていただき、見ていただきありがとうございました。金曜日に戻ってきて、今週のニュースを分析します。それまで、Big Technology Podcastでまたお会いしましょう。

コメント

タイトルとURLをコピーしました