うわっ AIが戦争と監視に使われる時代

戦争
この記事は約15分で読めます。

AIが戦争に使われる時代が現実となった。米国防総省はAnthropicのClaude AIを軍事作戦に利用していたが、Anthropicが大量監視と自律型兵器への利用を拒否したことで関係が破綻した。その数時間後、OpenAIのサム・アルトマンが同じ契約を受け入れると表明し、大規模な不買運動が発生する。民生用AIと軍事用AIには性能差があり、軍事用は専用ハードウェアと特化モデルで圧倒的な処理能力を持つ。PalantirのMavenシステムとClaudeの組み合わせは、イランでの作戦において24時間で1000以上の標的を処理するなど、戦争のペースを劇的に加速させた。この技術は監視インフラとしても機能し、データブローカーから購入した市民の位置情報や閲覧履歴を分析する可能性がある。人類の利益のために設立されたはずのOpenAIは、今や軍事契約を優先する営利企業へと変貌を遂げ、技術の最悪の使い道へと突き進んでいる。

Yikes.
Early March of 2026 became a defining moment in world history. For the first time AI was used in a major military operat...

AIが戦争の現実になった

ウォールストリートジャーナルは、ペンタゴンがベネズエラ大統領ニコラス・マドゥロを捕獲する作戦の一環として、AnthropicのAIモデルであるClaudeを使用したと報じています。

史上初めて、ペンタゴンが標的を特定するために人工知能を使用しているんです。

我々の同盟国は、我々がここでどのようにAIを使っているかを研究することになるでしょう。

UAEのデータセンターが攻撃を受けました。

こんにちは、Cold Fusionの新しいエピソードへようこそ。もはや隠しようがありません。私たちは、AIが戦争で使用されることが現実となった世界に生きています。AIは米軍によって少なくとも2つの注目すべき事例で使用されました。1つはベネズエラ大統領マドゥロの捕獲作戦、そしてイスラエル、イラン、米国間の戦争においてです。

米軍に基盤技術を提供したAI企業はAnthropicでしたが、両者の間に緊張が高まり始めました。政府は彼らに、自律型AI兵器の制御とデータ収集を通じた米国市民の大量監視を許可する契約への署名を求めました。Anthropicはこれを拒否しましたが、その結果、すべての政府契約から完全に締め出されることになりました。

すべての政府機関に対し、AnthropicがペンタゴンのAI技術使用に関する要求に同意することを拒否した後、同AI企業との関係を断つよう指示が出されました。

そのニュースだけでも十分衝撃的でした。しかしその後、かなり驚くべきことが起こりました。企業のイメージとしては史上最悪のケースの1つと言えるでしょう。対立のわずか数時間後、サム・アルトマンが自社OpenAI、つまりChatGPTの開発元が米軍との契約を引き受けると発表したのです。

こうしてOpenAIの転落は完成しました。彼らはもともと、がんの治療のような人類の利益のための目標を掲げた非営利企業だったのに、手段を選ばず投資が必要な営利企業へと変わり、ミッションステートメントから「安全性」という言葉を削除し、軍と提携するまでに至りました。

その結果として理解できる、非常に公然とした、そして非常に大きな声でのChatGPTの不買運動が起こり、数十万人、おそらく数百万人がサービスから退会しました。そこで今日のこの大きな物語では、AIが主流になってからわずか3年で戦争における地位を見出した経緯を明らかにします。

AIは戦争でどのように機能するのか? そして最も重要なのは、これが私たちにとって何を意味するのかということです。

Tool Fusion TVをご覧いただいています。

ChatGPTと軍事用AIの違い

さて、ここで質問です。今日、ChatGPTが生成する情報を信頼できず、洗車の仕組みすら理解していないのに、どうして軍事目標の特定に信頼できるのでしょうか? 実は、一般の人々が利用できるAIと軍が使用するAIは同じではないのです。

驚くことではありませんけどね。これはAnthropic CEOのダリオ・アモデイとのインタビューで分かりました。

私たちは国家安全保障目的のためにカスタムモデルを作った最初の企業でした。

主な違いは、モデル自体とそれが動作するハードウェアの両方にありました。Anthropicは軍のためにカスタムモデルを作成し、機密情報が満載のデータセンターで直接実行しました。

Anthropicは最近、ニューラルネットワークのブラックボックスの中を覗き、倫理と行動を内部的かつ数学的に理解し制御する方法を見出しました。この論文の科学者たちが魔法を見せた場所です。驚くべきことに、彼らはモデルの脳の中で、アシスタントのペルソナを表す特定の幾何学的方向を発見したのです。

これは人格の変化にスピードリミットをかけるようなものです。

さらに、モデルは専用ハードウェア上で動作しています。この場合、利用可能な計算能力の100%が単一の顧客、つまり軍のために存在します。多くの場合、1つのリクエストのためだけにデータセンター全体が使われることもあります。対照的に、私たち一般市民は、容量が数億人のユーザーに分散されているAIシステムを使うことに慣れています。

要するに、軍事用のセットアップは、消費者向けAIと比べて、リクエストあたりのパフォーマンスが5桁から6桁も高い可能性があるということです。つまり明確に言うと、集中したコンピューティングクラスターと特化されたデータにより、軍事用AIは一般向けのものよりはるかに優れているのです。しかしそれでも、まだ完璧ではありません。

新アメリカ安全保障センターのエグゼクティブバイスプレジデントであるポール・シェアーは次のように述べています。「AIは間違いを犯します。生死に関わる場合、生成AIの出力を人間がチェックする必要があります」と。ダリオ自身も、まだそこまでは到達していないと言っています。

私たちのモデルが何を確実にできて、何を確実にできないかについて、私たちは適切に判断できていると思います。完全自律型兵器については、実際のところ私は懸念しています。追いつく必要があるかもしれません。技術はまだ準備ができていないのです。

OpenAIがカスタムClaudeモデルの性能に匹敵できるかどうかは、まだ分かりません。

これらのAIシステムのいずれかが標的を間違えれば、それは大きな悲劇です。だから本当のリスクがあるのです。しかし先ほど述べたように、リスクがあるにもかかわらず、AIシステムはすでに戦争で使用されています。

イランでの作戦とMavenシステム

では、AIは戦争で正確にどのように機能するのでしょうか? イランで24時間以内に1000の標的を攻撃することは、専用のAIシステムなしには不可能でした。そのシステムはMaven Smart Systemと呼ばれています。それを構築したのは他でもない、Palantirです。そしてAnthropicのClaude AIのカスタム版によって動いています。

このシステムは、衛星、監視、その他の情報源から膨大な量の機密データを収集します。例えば、イスラエル政府はテヘランのほぼすべての交通カメラをハッキングし、誰がいつどこから出入りしているかを監視できるようにしました。システムは合計179のデータソースから情報を取り込みました。このデータの海はClaudeを通じて処理され、そのデータを解釈した後に洞察を出力します。

戦争の開始日には、システムはリアルタイムで軍事作戦のためにイランの標的を整理し、優先順位をつけました。作戦に詳しい人々によると、「正確な位置座標を発行し、重要度に応じてそれらの標的に優先順位をつけた」とのことです。ジョージタウン大学の研究によれば、このシステムにより、1つの砲兵部隊がわずか20人のチームで2000人のスタッフの仕事をこなせるようになりました。

MavenシステムとClaudeの組み合わせは、戦争のペースを加速させるツールを生み出しました。一部の情報源によると、数週間かかっていた戦闘計画をリアルタイムの作戦に変えているとのことです。つまり事実として、消費者向けAIと軍事用AIは光年の差があるのです。

MavenとClaudeのハイブリッドシステムは、マドゥロの捕獲にも不可欠でした。伝えられるところによると、Anthropicは自社のソフトウェアが襲撃で使用されていることを認識していなかったそうです。その懸念が、Anthropicと米国政府の対立の引き金となりました。エミル・マイケルズが語ります。

そして引き金となったのはマドゥロ襲撃の後でした。彼らの幹部の一人が、我々が購入しているPalantirに電話をかけて、我々のソフトウェアがその襲撃で使用されたかどうかを尋ねたんです。ちなみにこれは機密情報です。

とにかく、彼らは機密情報を入手しようとし、もし襲撃で使用されたとしたら、それが利用規約に違反する可能性があることを示唆したわけです。これは国防総省との信頼関係を持つPalantirに十分な警告を発し、彼らは私に伝えました。私は驚いて、もしこのソフトウェアがダウンしたら、何らかのガードレールが作動したら、次のような戦闘で何らかの拒否が起こって、我々の人員を危険にさらしたらどうするんだと思ったのです。それでヘグセス長官のところに行きました。

こうなると言ったんです。そしてペンタゴンの全リーダーシップにとって、代替手段なしにソフトウェアプロバイダーに潜在的に依存しているという事実は衝撃的な瞬間でした。そのプロバイダーには、ソフトウェアをシャットオフする権利や能力があるだけでなく、おそらく悪意のある開発者がモデルを毒化して、望むことをさせなかったり、意図的に幻覚を起こさせたり、指示に従わないようにすることもできるわけです。

NATOとPalantirの契約

しかし、戦争でAIを使用するという概念は米国だけにとどまりません。NATOは昨年Palantirと契約を結び、独自版のMavenを持っています。さて、OpenAIと彼らがこの全体像にどう関わるかについて話しますが、まず話題になっているので、Anthropicと米国政府の対立についてもう少し理解しましょう。

Anthropicとペンタゴンの対立

ワイルドな物語は2025年7月に遡ります。この時、AnthropicはPalantirとのパートナーシップを通じてペンタゴンと2億ドルの契約を結びました。パートナーシップが進むにつれ、舞台裏ではすべてがうまくいっていたわけではありませんでした。ペンタゴンは、Anthropicに対して、Claudeを「すべての合法的な目的」のために使用することを許可し、民間部門の制限を設けないよう要求し始めました。

愛国者法は合法であることを忘れないでください。アメリカ人を監視することは合法なのです。

国内の大量監視の可能性があります。政府がアメリカ人に関して生成された大量のデータ、位置情報、個人情報、政治的所属を購入してプロフィールを構築することです。そしてそれをAIで分析することが可能になりました。それが合法であるという事実は、憲法修正第4条の司法解釈が追いついていないことを示しているようです。誰も米国政府に監視されたくありません。誰も米国政府に監視されたくありません。

これに対してAnthropicは、契約に2つの保護措置を書き込むことを望みました。1つ、アメリカ人の大量監視の禁止。2つ、人間が関与しない完全自律型兵器による致命的な決定の禁止。

2月24日、米国政府はAnthropicに最後通告を出しました。金曜日の午後5時1分までに従うか、さもなければ結果に直面するかです。

ダリオ・アモデイはノーと言いました。そして2月26日、彼は「我々は良心に照らして受け入れることができません」と述べました。

ある時点で彼らは、表面上は我々の条件を満たすように見える文言を送ってきましたが、ペンタゴンが適切と判断した場合や、法律に沿って何でもするというような文言がたくさん含まれていました。だから実際には有意義な譲歩は何もなかったのです。

米国政府は激怒しました。イランでの爆撃が始まる数時間前、米国政府はAnthropicのツールのさらなる使用を機関に禁止し、段階的廃止に6ヶ月の猶予を与えました。そして彼らはAnthropicを米国のサプライチェーンリスクと呼びました。これは以前にアメリカ企業に対して使用されたことのないレッテルです。

これは極めて物議を醸し、超党派の上院議員グループがこれを批判しました。こうして関係は傷つきました。出版物Axiosは、AI契約の監視の側面について報じました。彼らはClaudeにアメリカ人に関するデータを分析させたかったのです。そのデータには、データブローカーから購入した位置情報、ウェブ閲覧データ、個人の財務情報が含まれていました。

サム・アルトマンの参戦

そして今、サム・アルトマンの登場です。いつも機会主義者ですね。先ほど述べたように、Anthropicと米国政府の対立のわずか数時間後、驚くべき動きとして、サム・アルトマンはOpenAIがAnthropicが拒否した契約を引き受けると発表しました。彼自身、その契約を「ずさんで急いだもの」と呼びました。450人以上の認証されたGoogleとOpenAIの従業員が、自社のリーダーシップにAnthropicと共に立つよう求める公開書簡に署名しました。

さて、最近のエピソードでOpenAIが財政的に困難な状況にあると言ったことを覚えていますか。米軍とのこの契約でそれが変わります。彼らはもう、企業市場のシェアが2年で50%から25%に落ちることを心配する必要がありません。今やOpenAIは政府から無限の資金を得ています。

サム・アルトマンはXで、OpenAIの契約にはAnthropicが求めていたのと同じ保護措置が含まれていると発表しました。

「我々の最も重要な安全原則の2つは、国内の大量監視の禁止と、自律型兵器システムを含む武力行使に対する人間の責任です。国防総省はこれらの原則に同意し、法律と政策に反映させており、我々はそれを契約に盛り込みました」と。

ニューヨークタイムズが報じたように、OpenAIと政府は約2日間しか協議していませんでした。このように急いだ契約では、サムの言っていることを信じるのは難しくなります。CNNが述べたように、「OpenAIのペンタゴンとの契約が、Anthropicが望んでいたものと何が違うのかは明らかではありません」と。一般の反発は深刻でした。

Quit GPT運動

それは主にQuit GPT運動という形で現れました。推定では数百万人のユーザーがOpenAIサービスの使用を停止したとされています。最近のQuit GPTのInstagram投稿は3600万回以上の閲覧があり、主催者によると250万人以上の人々が、サブスクリプションのキャンセル、ソーシャルメディアでのボイコットメッセージの共有、またはquitgpt.orgでのサインアップなど、何らかの行動を起こしたと言います。

不満は現実世界にも溢れ出し、サンフランシスコで抗議活動が行われました。GPTは去らなければなりません。

さて、この物語はまだ終わっていません。執筆時点で、Anthropicは米軍と再び交渉中です。これはおそらく、サプライチェーンリスクとして指定されることから会社を救うための努力でしょう。

多くの人が、ダリオが自分の言葉を撤回しないことを願って息を呑んでいます。結局のところ、この物語には善玉がいないかもしれません。私たちはただこの状況を注意深く見守る必要があります。

監視技術の未来

AIを戦争と監視に使用することが、おそらくこの技術の最悪の乱用であることを言うのは物議を醸すことではありません。私たちに関するすべてのデータがオンラインにある中で、巨大な政府ハードウェア上で純粋に動作する将来の政府AIは、リアルタイムで人口を分析するのに何の問題もないでしょう。

AIを監視ツールとして使用することは、まさに全体主義的なテクノフューダリズムをテーマにしたフィクション小説のように読めます。欠けているのは、政府がオンラインで誰が誰であるかを正確に知ることだけです。デジタルIDのようなものとか。そんなことは決して起こらないといいのですが。

しかし、悪いニュースばかりではありません。この未来から自分自身を守るためにできる実用的なことがいくつかあります。

これはスポンサーではありませんが、第一にすべきことは、正直に言ってデータブローカーサイトから自分の情報を削除することです。やり方はたくさんあるので、Googleで検索してみてください。民間企業によって収集されたデータが政府に買われ、AIによって大量に分析される。それは実は違法ではないのです。AI時代以前は単に役に立たなかっただけです。

覚えておいてください、米軍の監視契約は、データブローカーから購入した位置情報、ウェブ閲覧、個人の財務情報を分析したかったのです。もしあなたがそもそもデータブローカーネットワークに載っていなければ、リスクは減ります。

しかし次に、明らかに法律が必要です。請願書に署名し、人々と話し、私たちがこれを望んでいないという話を広めてください。

私はアメリカ人でさえありませんが、これがその国や世界の他の地域にとって良い方向ではないことは明らかです。そしてこの種のことはすでに広がっています。オーストラリアでさえ、多くの人が知らないことですが、PalantirはColesスーパーマーケットに監視システムを設置しています。そのシステムにAIが追加され、5年後には公共カメラがある場所ならどこでも展開されるようになることを想像するのは難しくありません。

Meta Ray-Banグラスのスキャンダルが何かを示しているとすれば、それらのカメラは私たちが監視されるために公共のものである必要さえないということです。トイレに行くことから服を脱ぐことまで、MetaのAIをトレーニングするためのフェアゲームです。しかし、たとえあなたがそのグラスを所有していなくても、それらを使ってあなたを公の場で識別する計画があります。

5年前、Facebookは写真で人々をタグ付けするための顔認識システムを停止しました。

今、ニューヨークタイムズによると、彼らはRay-Banグラスの中でそれを復活させています。この機能は内部で「ネームタグ」と呼ばれています。装着者があなたを見ると、MetaのAIがあなたが誰であるかを識別します。あなたがグラスを所有している必要はありません。公開されたMetaプロフィールを持つ誰もが潜在的に識別される可能性があります。そして2024年、2人のハーバード大学の学生が、サードパーティのソフトウェアを使用してグラスが完全な見知らぬ人を識別できることをすでに証明しています。

Metaは昨年700万台以上を販売しました。タイムズが入手したMetaの内部文書によると、現在の政治環境は良いタイミングだと言います。なぜなら市民社会団体が他の懸念事項にリソースを集中させているからです。

ミレニアル世代として育った私は、皮肉なしに、iPodが純粋にユーザーに奉仕する最後の主流技術製品だったと思い始めています。

半分冗談ですが、時には私たちが向かっている方向を見て、自分自身に問いかけなければなりません。これは本当に誰のためになっているのか? AIは私たちの生活をより簡単で便利にするはずでした。しかし最悪のユースケース、戦争と大量監視へと真っ直ぐにスピードランしてしまいました。

個々のケースでは、AIは生活をより便利にすることができます。そして、もしあなたがAIを賢明に使って自分の生産性を高める方法を見つけたなら、それは素晴らしいことです。しかし、ここで大局を見なければなりません。

間違った手に渡れば、この技術は壊滅的になり得ます。そして簡単に言えば、それが私がこのビデオを作ることにした理由です。少し辛口ですが、私は立ち上がって、何が来ているかについての認識を広める必要があると感じました。

広範な行動が始まる前に、まずそれが起こることが基本です。とにかく、このすべてについてあなたの考えは何ですか? このようなことが起こっていることを知っていましたか、それともこれはあなたにとってニュースでしたか? 私からは以上です。私の名前はDogo、あなたはCold Fusionをご覧いただいています。次のエピソードでまたお会いしましょう。

もう少し軽いものを。では皆さん、良い一日を。

コメント

タイトルとURLをコピーしました