MicrosoftがAnthropicを支持し、米国防総省による「サプライチェーンリスク指定」を差し止めるよう裁判所に求めた異例の動きについて議論する内容である。AI企業と政府の関係、政治的判断が技術競争に与える影響、Amazonや他のテック企業の沈黙、Elon Muskの批判などを通して、AI産業・軍事利用・企業倫理の複雑な力学を解説している。さらに、AIが軍事ターゲティングに利用された可能性や、Anthropic創業者Dario Amodeiが警告する「人間を介さないAI兵器」の危険性についても議論が及び、AI開発と国家安全保障の緊張関係が浮き彫りになる。

MicrosoftがAnthropicを支持し国防総省と対立する異例の展開
Squawk Boxへようこそ。
Microsoftが、現在のこの環境においては非常に珍しいとも言える行動に出ています。AIスタートアップAnthropicとペンタゴンとの争い、より広く言えばTrump政権との対立において、MicrosoftがAnthropicを支持しているのです。
裁判所への提出書類の中で、Microsoftは「amicus brief」と呼ばれる意見書を提出しました。これはいわゆる「法廷の友」と呼ばれるもので、裁判所に対して第三者として意見を述べるものです。
その中でMicrosoftは、国防総省がAnthropicを「サプライチェーンリスク」と指定した決定について、既存の契約すべてに影響が出る可能性があるため、裁判官は一時的差止命令を出すべきだと主張しています。
もし差止命令が出なければ、Microsoftや他の企業は、ペンタゴンが利用している既存の製品や契約の構成を急いで変更しなければならなくなると警告しています。
Microsoftは昨年11月、Anthropicに最大50億ドルを投資する計画を発表しました。
ここで注目すべき点がいくつかあります。シリコンバレーの開発者およそ130人もまた、Anthropicを支持するamicus briefを提出しています。
しかし、他の主要なテック企業はこのような行動を取っていません。
私はよくCEOの沈黙について話しますが、これは非常に興味深い状況です。というのも、Microsoftはこの国で最大級の政府契約企業の一つだからです。
つまり、本当の報復がどのようなものか、そして本当に信念を持って立ち上がるとはどういうことかを考えると、実はMicrosoftはほぼ誰よりも多くを失う可能性を抱えている企業なのです。
Amazonの沈黙とテック企業の恐れ
さらに興味深いのはAmazonです。
AmazonはAnthropicの初期投資家の一つですが、報道によるとPete Hegsethとの会談で、Andy JassyはAnthropicを支持しなかったと言われています。
つまり、彼や彼のような企業は、この政権に対して立ち向かうことを恐れていると見ることもできるでしょう。
その意味で、最大級の政府契約企業の一つであるMicrosoftがこうした立場を取ったのは実に興味深いことです。
おそらくMicrosoftの計算の一部にはこういう考えもあるでしょう。
「我々は政府システムのあらゆるところに入り込んでいる。だから政府がMicrosoftをすべてのシステムから引き剥がすことは非常に難しい」という考えです。
もしPete Hegsethや大統領が「Microsoftを政府システムから全部排除する」と言ったとしても、それは極めて大きな痛みを伴うことになります。
私はこの法的争いはかなり明白なケースだと思っています。
そしてこれは、他の企業が声を上げる転換点になる可能性があります。
企業も気づくでしょう。
「今回はAnthropicだが、次は自分たちかもしれない」と。
もしAnthropicに起きていることを黙認すれば、将来それが自分たちに返ってくる可能性があるのです。
AI競争と国家戦略
あなたはあの記事を読みましたか。とても興味深い内容でした。
ある人物が100年前のイギリスの兵器システムに関する似たような事例を取り上げているのです。
同じような政治的判断の結果、結果的に非常に大きな機会を逃してしまったという話です。
いわば、自分の顔を守るために自分の鼻を切り落とすような決断でした。
そしてそれは最終的に中国に利益を与える結果になった、と彼らは言っています。
もしAI開発のトップ企業の一つであるAnthropicの活動を制限し、事業を進めにくくするなら、それは技術競争において大きな影響を与える可能性があります。
現在は基本的にAIの軍拡競争のような状況ですから。
ただし、私は最終的にはこの問題は解決されると思います。
どこかの時点で合意が形成されるでしょう。
PalantirとAI軍事利用の問題
PalantirはMavenというソフトウェアを使っています。
そしてそれはAnthropicによって運用されています。
この意味を考えると、かなり大きな問題になります。
ちなみに、この件について沈黙していない人物もいます。
Elon Muskです。
彼は当然ながら競合企業の立場でもありますが、Xでこう投稿しています。
「Anthropicよりも偽善的な企業はあるのか?」
ここ最近の投稿でした。
彼はこの件をかなり挑発的に扱っているように見えます。
競争相手として、かなり日和見的な形でこの問題に介入しているようにも見えます。
Sam Altmanの立場
ただ、Sam Altmanについては少し違う見方をしています。
Samはこの番組にも出演していて、実際にAnthropicを公に支持していました。
彼がまとめた契約内容を見ても非常に興味深いものです。
というのも、結果的にほぼ同じ条件の契約が結ばれたからです。
それは、この政権やPete Hegseth、財務省などの判断がどれほど政治的だったかを示しているように見えます。
最初は「彼らは日和見的だ」と批判されましたが、実際には翌日ほぼ同じ契約が結ばれました。
確かにそうです。
ただ、Samがこれまで繰り返し言ってきたことを見ると、彼はAnthropicを攻撃しているわけではありません。
むしろ、契約を取りに行きながらも、完全に対立する姿勢ではなかったのです。
AI契約と政府の選択
ちなみに、政府が複数の企業と契約するのは良いことだと思います。
一つのAIサービスに独占させるべきではありません。
では、そもそも国防総省がAnthropicに対して怒っていた理由は何だったのでしょうか。
Maduroの作戦でAIが使われたのではないかという疑問をAnthropicが提起したことでした。
Anthropicは、自分たちのAIが使われたのかどうかを質問したのです。
それがPalantirだったのです。
Palantirはそれに対して「はい、ターゲティングに使われています」と答えました。
するとEmil Michaelが非常に怒りました。
まずAnthropicがそんな質問をしたことに怒り、さらにPalantirがその答えを出したことにも怒りました。
彼の主張では、それは機密情報であり、Anthropicが知るべきではないというのです。
それがこの問題の発端でした。
政治とAI倫理
内部メモや調査の問題もありました。
愚かな判断だったと言う人もいます。
しかし、それでもAnthropicが排除されているように見える状況は変わりません。
ここでは「woke」という言葉が何度も出てきます。
Anthropicには元Biden政権関係者が多いという印象も持たれています。
しかし、大規模な国民監視に協力したくないという立場が、そこまで問題視されるべきなのかという議論もあります。
問題は兵器なのか、それともAIなのか。
Pete Hegsethにとっては、それが問題だとされているようです。
ただし、この説明は実際には正しくない可能性があります。
なぜなら、政府はOpenAIとはほぼ同じ条件の契約を受け入れているからです。
つまり、Anthropicだけを問題視する理由としては弱いのです。
企業の価値観とAI人材
むしろ問題は政治です。
それが最大の問題です。
しかし、それ以上に問題なのは、Amazonや他の企業が「これはおかしい」と言う勇気を持てないことかもしれません。
その中でMicrosoftは立ち上がりました。
だから今日はMicrosoftに一定の評価を与えたいと思います。
自分たちの信念をはっきりと表明したからです。
さらに興味深いのは、多くのエンジニアが今Anthropicで働きたいと考えていることです。
ランキングでも上昇しています。
企業もまた、自分の価値観を守る企業と仕事をしたいと思うものです。
長期的に見て、それは本当に不利になるでしょうか。
私は必ずしもそうとは思いません。
むしろこれは転換点になる可能性があります。
「価値観を守る企業」が評価される瞬間です。
Anthropicはまさにその理念で作られた会社です。
創業者たちはOpenAIを離れ、価値観を重視する企業を作りたいと考えてAnthropicを立ち上げました。
そして実際にその信念を曲げていません。
そこには大きな価値があると思います。
そして今、Microsoftも同じ立場を取っています。
AI軍事利用と倫理的グレーゾーン
ただし、AnthropicのソフトウェアはPalantirのシステムに統合されており、ターゲティングにも使われている可能性があります。
つまり、この問題は完全な白黒ではなく、さまざまなグレーゾーンが存在しています。
多くの人がAnthropic側に立っていますが、議論はまだ続いています。
さらに、一部では恐ろしい可能性も指摘されています。
子どもたちが標的にされた悲劇的事件がありましたが、そのターゲットリストがAIによって生成された可能性があるという推測です。
つまり、Anthropicのシステムが何らかの形で関与していた可能性も議論されています。
もちろん、まだ確定した事実ではありません。
AIがターゲットを識別する状況になっているという点が問題なのです。
Dario Amodeiの警告
これはDario Amodeiが以前から言っていることの例かもしれません。
つまり、AIはまだ完全に実戦投入できる段階ではないということです。
特に自律型兵器や完全自動の意思決定に使うには、まだ準備ができていない。
人間が介在しないシステムではうまく機能しないと彼は言っています。
まさにその通りです。
しかし、軍が実際にはそうしていない可能性もあります。
つまり、人間を介さない形でAIを使っている可能性です。
しかも興味深いことに、軍は一方でそれを望まないと言いながら、OpenAIを使う形では受け入れているようにも見えます。
では、これはどう説明すればいいのでしょうか。
実際のところ、ターゲットがどのように決定されたのかはまだ完全には分かっていません。


コメント