米国防総省のAI計画とAnthropic社との対立の裏側:エミル・マイケル次官へのインタビュー

USA・アメリカ合衆国
この記事は約39分で読めます。

本動画は、人工知能が将来の戦争や国防に与える影響について、エミル・マイケル次官へのインタビューを通じて深く掘り下げたものである。国防総省がいかにAIをターゲティングや情報統合に活用しているか、そして完全な自動化ではなく人間の意思決定を補佐するツールとしての位置づけを明らかにしている。さらに、Anthropic社との契約打ち切りに至った背景や、同社がサプライチェーンリスクとみなされた理由、低コストなドローン戦略、サイバー戦の脅威、そして古い軍事調達プロセスの改革など、国家安全保障と最新テクノロジーが交差する最前線の課題を包括的に解説している。最後には、軍事行動の予兆とされる都市伝説「ペンタゴン・ピザ・インデックス」の真偽についても触れられている。

The Pentagon's AI Plan + Behind the Anthropic Fight — With Under Secretary of War Emil Michael
Emil Michael is the Under Secretary of War for Research and Engineering at the Pentagon. Michael joins Big Technology to...

国防におけるAIの導入と戦場の変化

他国が人間の意思決定プロセスを排除するためにAIを使用することを懸念しています。彼らは自国の将軍たちを信頼していないのです。

もし彼らとそこまで協力する意志があったのなら、どうして最終的に彼らがサプライチェーンの脅威となってしまったのでしょうか。

単純に、我々のサプライチェーンに彼らを入れたくないということです。彼らを使いたくないのです。大統領は、政府が彼らを利用することを望まないと決定しました。もし今すぐ自分のオフィスに戻ったとして、どうやって外からピザを注文して中へ配達してもらえばいいのか、私にはさっぱりわかりません。

ということは、ペンタゴン・ピザ・インデックスの存在を信じていないのですね。

ペンタゴン・ピザ・インデックスなんて信じていませんよ。

私たちは今、国防総省(ペンタゴン)にいます。この番組で取り上げているAIの話題が、急速に、それも非常に急速に、国家安全保障の核心的な問題へと発展しているからです。その最たる例が、今年初めに国防総省がAnthropic社を排除した件です。本日は、エミル・マイケル次官をお招きし、AIが将来の戦争をどのように変えるのか、そしてすでにどのような変化をもたらしているのかについてお話を伺います。次官、本日は番組にお越しいただきありがとうございます。

お招きいただきありがとうございます。

AIの能力は驚異的なスピードで向上しており、あなたは国防総省においてそれを実践する任務を負っています。そこでまずお聞きしたいのですが、AIは戦争をどのように変えていくのでしょうか。そして、どのように変えてほしいと願っていますか。

私がよく用いる例えの一つは、Uberでの経験から来るものです。自動運転車が登場したとき、人々はタクシーがUberに奪われることを恐れ、その後はUberの自動運転車を恐れました。しかし現実には、Teslaの完全自動運転(FSD)やWaymoなどを見れば、その安全性の統計は驚くべきものです。

自動運転ですね。

ええ、そうです。人々は変化を恐れますが、その変化は以前のものよりも優れています。Uberのときも同じでした。タクシーからの変化を恐れる声もありましたが、結果的にサービスはより信頼できるものになりました。飲酒運転は減り、利用しやすくなり、信頼性も向上しました。これを戦争の文脈に当てはめると、より多くのことをこなし、より正確に、何を標的にし、何を防衛するのかを明確にすることができます。

私にとって特に興味深いのは、その正確さです。なぜなら、AIを使って検知し、識別する、つまり本物とおとりを見分けることができれば、より正確な行動がとれるからです。私がいつも挙げる例は、軍事基地に向かって飛んでくるドローンの群れです。これらが武装しているのか、そうでないのか、一体何なのか、どう対処すべきかを判断しなければなりません。これらのモデルによる視覚化は、それらを撃ち落とすか、脅威ではないから撃ち落とさないかという判断をより適切に行う助けとなります。一人の人間が何百もの入力情報を同時に処理し、それほど正確な反応を示すことは不可能ですから。

なるほど。視聴者の皆さんにも具体的にイメージしてもらいたいのですが、最近、一般の人々は幸運なことにデモを見る機会がありました。技術の仕組みについて透明性が常に保たれているわけではないこの世界で、国防総省の最高デジタル・AI責任者であるキャメロン・スタンレー氏が公開したものです。彼は国防総省の中核的な技術プラットフォームである「Maven Smart System」の様子を見せてくれました。確か「Target Workbench」と呼ばれていたと思います。これは標的を選択し、システムを通じて攻撃を指示するためのものです。彼らはアクションという言葉を使っているようですね。彼が説明したところによると、ライブ画像を監視しながら標的を選択できる、単一の統合された視覚化システムだということです。

そうですね。そして、その背後にある文脈を想像してみてください。自軍の資産はどこにあるのか、飛行機や船はどこに配置されているのか。その行動を起こした場合、どのような結果が生じるのか。どのような反撃が予想されるのか。そうした情報をすべて統合しつつ、最終的な判断は人間が下すシステムです。言い換えれば、人間のコンテキストウィンドウを拡張していると考えることができます。AIにおけるコンテキストウィンドウの話と同じように、これらすべての情報を吸収し、最善の決断を下そうとしている人間を想像してください。もしその情報を統合して判断を支援できれば、定義上、より多くの情報源を利用することになり、データに基づいた選択はより優れたものになるはずです。

ええ、彼は実際にシステムが動いている様子を見せてくれました。地図上にデータが重ねて表示されていましたね。そして、標的としたいものを見つけたとき、情報が表示されます。彼は非常に興味深いことを言っていました。「左クリック、右クリック、左クリック」という操作で、それがターゲティングのワークフローに組み込まれるのだと。

そのクリックの間に何が起きているのでしょうか。

詳細まではわかりませんが、そのクリックの間にはあらゆる処理が含まれている可能性があります。例えば、それが航空関連の目標であれば、F-35が飛んでいて、天候はどうなっているか、空気抵抗はどうか、機内には何を搭載しているか、何を標的にしているのか、巻き添え被害の可能性はどの程度か、といったことです。具体的な一つの例を挙げるというよりも、情報を収集し統合するコンピューターの支援があれば、正しい判断を下すためにどれほど多くの情報を判断材料として取り入れることができるかを想像してみてください。

興味深いですね。燃料の消費量や使用する弾薬、標的までの移動距離などを最適化するための切り替えスイッチがあり、軍がそれを選択できることも示されていました。

燃料、天候、敵が保有している可能性のある他の資産の位置、そして彼らがどう反応するかなど、吸収できる情報量は無限に近いと言えます。ですから、一人の人間に10人分の力を与えるというアイデアは、潜在的に桁違いのレベルで彼らの能力を高めることになります。

そして、その情報がワークフローに入ると、権限を持っている人がその標的に対してアクションを起こせる、つまり資産を送り出すことができるのですね。

それはそもそも彼らが現在行っていることです。これを仕事としている人々がいるのです。コンピューターがなくても、紙とペン、ホワイトボード、あるいはPowerPointを使って行われてきました。それが今、加速され、より多くのツールが提供されることで、彼らが右クリックや左クリックを行う際、より豊富な情報に基づいた決断ができるようになります。その結果、より良い結果へと導かれることになるでしょう。

AIによる軍事プロセスのデジタル化と意思決定の支援

デジタル化によって何が起きているかを見るのは本当に興味深いですね。以前の状況について「Pirate Wires」の記事によると、今年のイランとの紛争が始まった時点では、ターゲティングのプロセスはPowerPoint、メール、Excelファイルで行われていたそうです。要約すると、ターゲットのリストはスプレッドシートで伝達され、一連の作戦行動はガントチャートやPowerPoint上にあったと。

歴史的に見れば、それはおそらく事実でしょう。AIモデルが一般に普及し、消費者が利用できるようになったのはいつでしょうか? 2022年のChatGPTの瞬間ですよね。それが企業で利用可能になり、さらに政府が戦闘のために使用するネットワーク上で利用可能になったのはいつかを考えれば、これらのツールが利用できるようになったこと自体、ごく最近の現象だと言えます。そして、安全性のテストや、複雑な状況でこれをどのように使用するかのモデリングとシミュレーションなど、多くの手順を踏んできました。私たちが責任を持ってこれを使用できると確信するまでには、多くの道のりがあったのです。

興味深いのは、そのシステムの中にLLM(大規模言語モデル)が見当たらないことです。現在の生成AIのレイヤーはあのシステムに組み込まれているのでしょうか。

Palantirが行っていることの根本は、私たちが入力したデータストリームの上にオーケストレーションのレイヤーを構築することだと考えています。戦場でのあらゆる作戦に通常使用されるデータに加えて、情報の統合を支援するAIを組み合わせています。それらすべてが統合され、視覚化を提供しているのです。

しかし、画面の横にチャットボットのウィンドウがあって、「攻撃したいターゲットのリストを作成してくれ。私の目的はこの戦争に勝つことだ。ターゲットは何か?」と聞くようなものではないのですね。まるで映画の「スカイネット」のようなものではないと。

ええ、違います。それはコンピューターや作戦司令室、あるいはチーム内で使われる他のツールと同じように、視覚化されたツールにすぎません。しかし、チェックとバランスの機能は依然として存在します。行動を起こすには、必要なすべての権限を取得しなければなりません。法務部門のチェックや、紛争時に従うべき倫理や法律に関する内部メモへの遵守など、これまでの手順が変わるわけではありません。ただ、そうした業務をより良く、より簡単に行うためのツールだということです。選択肢をより消化しやすい形で提示してくれるもの、と考えていただければと思います。

この技術は急速に進歩しているので、皆が仕組みを理解できるようにこうして議論することは非常に良いことですね。

実際の状況と誤解を解きほぐしていく上で重要だと思います。Anthropic社の件については後ほど詳しくお聞きしますが、まずはこのプロセスにおいてLLMが具体的に何を行えるのかについてお話ししましょう。LLMが攻撃の意思決定サイクル、いわゆるキルチェーンに関与しているという噂もありましたが、それは少し事実と異なるようですね。

人々が両極端に捉えている傾向があるので、私が国防総省でAIをどのように展開しているかという枠組みで説明しましょう。

まず、第一のレベルは企業や組織全体に関わるものです。この建物内では、想像を絶するほど大量のPowerPointや社内文書が日々作成されています。一般企業では見たこともないような量です。これらすべてをより効率化することができます。これらは、より興味深い仕事に時間を割くために、人々が減らしたいと願っている日常的な雑務です。

次に、インテリジェンスのレイヤーです。世界中から収集される衛星画像の情報を想像してみてください。現在、人間の分析官がすべての情報に目を通し、判断を下さなければなりません。もし、過去のすべての衛星画像の履歴データを持ち、それを分析して「これは異常だ」と指摘できるAIがあったらどうでしょうか。モデル自身が学習し、何が異常検知の対象となり得るかを教えてくれるわけです。これは情報分析のパラダイムを根本から変えるものです。

そして三つ目が、実際の戦闘への応用です。書類作成やモデリング、シミュレーションなどすべての要素を取り込み、より速く反応するだけでなく、より正確に反応できるようになります。

これらが、AIのより具体的な活用方法です。シリコンバレーの人々がこれをより深く理解してくれれば、「なるほど、それは他の大企業や組織が効率化のためにやっていることと同じだ。戦略的にどう活用し、より多くの分析を可能にし、目の前の作戦行動をどう実行に移すかということか」と納得してくれるはずです。

私が今回ぜひお話を伺いたかった大きな理由の一つは、世に出回っている多くの記事が、実際に現場で起きていることと合致していないと感じたからです。ここで事実関係をはっきりとさせたいと思ったのです。

ええ、事実をありのままにお話ししましょう。この省内でよく言うように、「平らに並べて」クリアにしましょう。

確認ですが、LLMが行っているのは、様々な報告書の要約や情報の統合、解釈であり、様々な形態のデータを取り込んで代替案を提示することなのですね。

その通りです。そして、そのほとんどは非常に日常的な業務です。というのも、軍が行うすべての行動は監査され、適切な指揮統制の構造を持たなければならないからです。誰が承認したのか、法務システムを通したか、紛争時の倫理や法律に関する内部規定を遵守しているか、そうしたことは一切変わりません。ただ、それを実行するためのツールがより良く、より簡単になっただけなのです。

なるほど。一方で、この技術の実際の運用を見ている人々の中には、あえて摩擦(フリクション)を残しておいた方が良いと主張する人もいます。私も「Maven Smart System」のデモを見たとき、少し不安を感じた点がありました。標的を攻撃するという非常に重大な決断を下す際には、ExcelのスプレッドシートやWord文書、PowerPointのような、ある意味で面倒なプロセスが残っていた方が良いのではないかと。プロセスを簡単にすればするほど、「アクション」ボタンを簡単に押して、攻撃を送り出すことができてしまいますからね。

摩擦はどのような場合でも存在します。これが重要なポイントです。交戦規定や承認システムはこれまでと全く同じです。今、手元にあるのは、その決定を下すために元々使用していたデータの、より優れた集約と統合です。

つまり、スピードの面もありますが、それ以上にデータポイントの多さが重要なのですね。より良い決定を下すために、できるだけ多くのデータポイントを取り入れようとしているのだと。もしそれらのデータポイントをあちこち手探りで探さなければならないとしたら、確かに時間はかかります。しかし、スピードの重要性を信じない軍隊は世界中どこにもありません。スピードが勝負を決めるのです。ベネズエラで起きたことを見てください。あの作戦の実行スピードのおかげで、我々の側には一人の死傷者も出ませんでした。驚くべきことです。もし情報統合がうまくいかず、より多くの時間を費やす必要があったとしたら、3時間ではなく48時間そこに留まらなければならなかったかもしれません。

ですから、スピードは我々の特権の一つでなければなりませんが、より良い情報こそが目的です。それによって、決定がより正確になり、我々の作戦目標により合致したものになるからです。

AIの限界と自律型兵器への懸念

この技術ができることには限界があるのでしょうか? イランとの紛争を思い浮かべてみてください。数多くの空爆が行われ、その多くは非常に正確でした。イランの指導部が丸ごと排除されたりもしましたが、イスラム革命防衛隊(IRGC)は依然として権力を握っており、同じ姓を持つ新しい最高指導者が就任しています。限界があるのではないでしょうか。

ええ、限界はあります。人類が誕生して以来続いてきた人間の紛争に対して、すべてを見通し、すべてを知っているような完璧な解決策が存在するとは思っていません。最終的に求められるのは、明確な目標です。それを実行するための人員と機械が必要であり、最小限のコスト、最小限の損害、そして最短の時間でそれを成し遂げたいのです。それが目標です。

AIやその他のテクノロジーが、すべての答えになるとは思いません。それは単なるツールの一つにすぎません。

それがここでの根本的な疑問の一つですね。AIは単にスピードを上げ、摩擦を取り除くためのものになるのか、それとも戦争の性質を根本から変えることができるのかということです。

私たちの側からは、その点については心配していません。なぜなら、米国の指揮統制の構造は、憲法に基づく最高司令官がおり、上院によって承認された国防長官を任命し、将軍やあらゆる階級が存在するという仕組みになっているからです。我々が下す決定が、民主的に選出された指導者と、これらの資金を供給する議会の結果であることを保証するためのあらゆる手順が整っています。

私が懸念しているのは、そうした構造を持たない他の国々が、意思決定プロセスから人間を排除するためにAIを使用することです。彼らは汚職や専門知識の欠如ゆえに、自国の将軍たちを信頼していません。そのため、人間の能力を拡張するために機械を使うのではなく、人間の代わりに機械を使い始めるのです。私にとってはそちらの方が懸念事項であり、私がこれらのAI企業に説明しようと試みてきたことの一つでもあります。「代替案を考えてみてください」と。私たちの価値観とは相容れないため私たちが決してやらないようなAIの利用方法を、敵対国はどのように望むでしょうか。

私たちは指揮系統と憲法に基づく政府を持っています。もし他の政府がそれを持たず、人的リスクを排除するためにAIを使いたいと考えるなら、それは全く異なる考え方です。私たちは人間の能力を拡張しようとしているのですから。

具体的にどの政府のことを指しているのでしょうか?

歴史上最大の軍拡を行っている中国について考え、将軍たちの粛清や軍のヒエラルキーで起きていることを見れば、「これらすべての人々をどうやって置き換えるつもりなのか?指揮統制はどうなっているのか?もし自分がその国を運営していたら、米国と比較してどのようなAI戦略をとるだろうか?」と考え始めるはずです。根本的に異なる考え方なのです。

自律エージェントとドローン戦の進化

現在私たちが話しているAI、特にLLMの用途は、情報の統合や判断の迅速化など、いわゆるチャットボット的な領域に留まっています。しかし、AI業界は現在「エージェント」の方向へ進んでいますよね。AIがあなたに代わって何らかの行動を起こすというものです。国防総省では、このエージェント機能の活用計画はあるのでしょうか。ここからさらに発展していくのでしょうか。

人間の判断を必要とする事柄については、考えていません。繰り返しますが、最も重大な結果を伴う決定においては、最終的に人間の監視と裁量で終わるシステムでなければなりません。

しかし、先ほどお話ししたような、夜間に軍事基地に向かって飛んでくるドローンの群れにどう対処するかといったシナリオは想像できます。ただし、それはエージェントのユースケースというよりは、視覚的な識別や判断のユースケースです。指向性エネルギーレーザーで撃ち落とすことができれば、他の方法よりもはるかに安価で、安全で、巻き添え被害も少なくなります。

エージェントに関しては、企業レベル、つまり先ほど話した日常業務をこなすためのレベルで、いくつかのパイロットプログラムを導入しています。しかし、戦闘レベルにおいて私たちが現在焦点を当てているのはそこではありません。

なるほど。つまり、戦争を自動化する計画はないということですね。

ありません。

しかし、もし敵対国が自動化を進めている場合、例えば直接的な紛争になったとしましょう。中国とは限らないかもしれません。その際、マニュアル通りに人間が時間をかけて判断を下す余裕が本当にあるのでしょうか。そうした能力がすでに存在し、システムに統合されている場合、「Maven Smart System」でLLMが99%の答えを出してくれているなら、最後のボタンを押すだけでいいじゃないか、という誘惑に駆られるのが心配なところです。

なぜそうならないのかお答えしましょう。あなたがそれを推奨しているわけではないことは理解しています。

米国がAI分野で圧倒的な優位性を持たなければならない理由はそこにあります。敵対勢力のAIが我々のAIを上回り、そのような苦渋の選択を迫られるような状況に決して陥らないようにするためです。

第二に、人々は自動化を「自動化された軍隊」のようなものと混同しがちです。先ほどドローンの例で自動化について説明しましたが、自動化された機雷探知や掃海作戦はどうでしょうか。水中には人間はいませんが、機雷を見つけたいとします。そこには人間の関与は一切ありませんが、実行したいアクションがあります。これについて人々は「私たちの海岸に機雷があるのは困るから、それは良いアイデアだ」と言うでしょう。

あるいは、宇宙から飛来するミサイルを撃ち落としたい場合。アイアンドームのようなシステムについて話しましたが、発射されてから90秒以内に対処しなければなりません。そのような極限の状況下では、人間は何らかの自動化能力に頼ることができるようにしたいはずです。

しかし、軍隊全体、戦闘機の全編隊、あるいはスーツの全編隊を動員するというようなことは、誰の頭にもありません。国防総省には、人間の監視とこれらのシステムをどのように管理するかについて書かれた35ページにわたる指令があり、常にそれを更新し、適切な制御がなされているかを確認しています。

LLMに関してもう一つ耳にしたことがあります。攻撃が行われる前に、その上のもう一つのデータレイヤーとして役立つ可能性があるということです。例えば、イランのミナブにある学校の近くで、遊び場に石蹴り遊びの跡があったとします。将来、もしそのような場所が標的になった場合、LLMが「ここは攻撃しない方がいいかもしれない」とフラグを立ててくれるかもしれないと。

ええ、まさに自動運転車の例でお話ししたかったのはその点です。もし自動運転車が人間よりも正確に歩行者を検知できるなら、そちらの方が優れた選択肢ではありませんか?

私が人間の意思決定を拡張すると言うとき、それはフロントエンドだけでなくバックエンドにも適用されます。「本当にここを攻撃すべきか確認してくれ」とか「警告のサインを見つけてくれ」といった具合です。双方に機能するのです。

しかし、最終的には人間が決断を下さなければなりません。それが最終的な状態です。視覚データでトレーニングされたLLMは、例えばGoogleのNestカムやYouTubeの膨大な人間の動きのデータなど、独自のデータセットでトレーニングされており、非常に価値のあるものになり得ます。だからこそ、「LLM(大規模言語モデル)」という言葉はいずれ消え去るだろうと私は考えています。なぜなら、それらはもはや言語モデルにとどまらず、視覚的にも機能し、ロボット工学やその他多くの分野で活用されるようになるからです。

一般的なAIの進化の方向性ですね。

その通りです。

ドローン戦術と対抗措置

ドローンについて少し触れておきたいと思います。次官の管轄事項でもありますから、議論する価値があると感じています。現在、ウクライナではかつてないほどのドローンの活用が見られ、イランとの戦争でもこれまでにない使われ方を目の当たりにしました。一つは空中戦、もう一つは地上戦と用途は異なります。これらが実際に運用されているのを見て、主にどのような教訓を得ましたか。また、これが戦闘のあり方をどう変えると考えていますか。

ロシアとウクライナの場合は領土をめぐる争いです。前線が固定化されているため、ドローンというロボットが最前線に立ち、人間は後方に控えています。人間の危険を冒して前線に送る代わりに、まず機械を送り込んで戦えないか、という発想です。もちろん依然として多くの破壊や死が存在し、それは悲しく不必要なことですが、もし人間同士が直接戦い合う内戦のような形であったら、どれほど多くの被害が出ていたか想像もつきません。

イランにおけるドローンの教訓は、コストの不均衡です。安価なドローンが非常に高価な標的に向かって飛んでくる。そして、それを一つ撃ち落とすために何百万ドルも費やさなければなりません。非常に安価なドローンから自国の貴重な資産を守るために、高価な対抗措置を用いなければならないのです。

ここから得られる教訓は、より安価なものを作れる国が我々の高価な資産を脅かすことができるという状況に対して、どうやってコスト比率を同等に近づけるか、ということです。もっと大量に消耗可能な兵器、例えばドローンや対ドローン兵器を導入する方向にどうシフトしていくか。

私にとって、国防総省内での大きな推進目標はそこにあります。「大量に消費可能な兵器」と呼んでいますが、精巧すぎるものではなく、迅速に納品でき、製造しやすいように設計され、安価で、失っても惜しくない兵器をどう導入するか。数十億ドルをかけ、製造に10年もかかるような巨大な兵器の代わりに、です。

米国がこれらの脅威にどう対処しようとしているのか、両方の側面から見ていきましょう。まずは、少し大きめのドローンについてです。3万ドルの低コストな「ルーカス」というプログラムがありますよね。これは相手のドローンに突っ込んでいくものですか? それとも敵のドローンと同じような動きをするのでしょうか。

イランが使っていたシャヘド無人機のようなものを想定しています。長距離を高速で飛行し、かつ安価に製造できる「片道攻撃型ドローン」と呼ばれるものです。ルーカスもそのような位置づけです。これらは、他のドローンを撃ち落とす防衛的な使い方も、攻撃的な使い方もできます。製造コストを抑えるように設計されており、金銭的な観点から言えば、いくつか失っても問題ないように作られています。理論上は、相手と同じような使い方がされるということです。

このプロジェクトではウクライナ人と協力しているのでしょうか? ウクライナ側が協力を申し出たのに米国が断ったという見出しの記事もありましたが、実際のところはどうなのでしょうか。

これには二つのレベルがあると思います。米国とウクライナの大きな関係というレベルでは、私たちは最近「ドローン・ドミナンス(ドローン優位性)・プログラム」を立ち上げました。その中にウクライナの企業が2社参加しており、製造拠点をこちらに移し、彼らの知見を我々の小型ドローンシナリオに役立てようとしています。私たちはその点については柔軟ですが、敵対国からのサプライチェーンへの依存から脱却したいと考えています。ですから、ドローン・ドミナンス・プログラムで使用するドローンが敵対国に依存しないことは、要件の一つとなっています。

なるほど。それは地上戦で使用されている小型ドローン、つまりDJIスタイルのドローンにも関係してきますね。FPV(一人称視点)のドローンなどです。

中国は、空中でドローンの群れを使った壮大なアートパフォーマンスを披露しています。「ドローン・スウォーム(群れ)」と呼ぶべきものですね。一見すると、「中国は花火の分野で素晴らしいイノベーションを起こしているな」と思うのですが、実はこれが完全に軍事シミュレーションであることに気づかされます。

その可能性はあります。これこそが、私たちがAI企業に理解してもらおうと説明してきたシナリオです。あなたが見たあのドローンアートが、もし武装したドローンだったと想像してみてください。そして、それらが互いに通信し合い、我々の防衛網に対して陣形を組んだり再編成したりできるとしたら。それにどうやって対処すればいいのでしょうか? 完全に防衛可能な駐屯地ならまだしも、国境付近の小さな軍事基地だったとしたら。これらは、ロシア・ウクライナ戦争以前には存在しなかった、あるいは少なくとも私たちが考えていなかった新たな課題です。

それに対する答えは何ですか? 米国は防衛面と攻撃面の両方で取り組んでいるのでしょうか。

両方です。常に両方に取り組んでいます。ドローン・ドミナンス・プログラムには両方の要素が含まれています。カウンターUAS(対無人航空機システム)のタスクフォースがあり、私が最重要視している優先分野の一つである指向性エネルギーレーザーから、電子戦を使ってそれらを撃ち落とす方法まで、あらゆる手段を検討しています。それぞれに様々な対策と対抗措置があります。これが、現在の国防総省での任務を非常に興味深いものにしている理由です。

戦争の脅威は変化しています。技術はより高度になり、その技術へのアクセス自体は安価になっています。これらのシステムを相互に連携させる必要性はかつてないほど高まっています。ドローンの群れとは何でしょうか? それは互いに連携して機能するドローンの集合体であり、あなたが言ったように空中でそれを見ることができます。そして、それらが軍事的にどのように利用されるかを想像できるはずです。ここでの技術的な課題は非常に難解ですが、極めて興味深いものです。

サイバー戦の分野についても少し触れさせてください。AIは戦争のこの側面に非常に大きな影響を与えると思います。

そのようです。コードを学習したモデルは、コードの脆弱性を学習できるとこれらの企業は述べており、それはリスクと機会の両方を提示しています。ニュースでも報じられ、公開されているように、間もなく実現するであろうサイバー能力は、間違いなくすべてのフロンティアモデル企業からもたらされますし、敵対国によって抽出・模倣されることも確実です。これは、これらの企業から生まれる次なるイノベーションの波となるでしょう。

Anthropic社との契約問題とサプライチェーンリスク

これまでの話から、AIが国防総省の活動において極めて重要になりつつあることは明らかです。情報の統合、ターゲティング、ドローン技術、そして新たなサイバーセキュリティの前線においてもAIが必要とされています。

そこで、AIベンダーをどのように選定しているのかについてお聞きしたいと思います。Anthropic社との状況について話し、その後いくつかのトピックについてお聞きします。

さて、Anthropic社についてですが、次官の視点から、彼らの企業文化と政府の文化の違いについてどうお感じですか。

まず言えることは、彼らはバイデン政権がAIに関する大統領令を出した後、政府にサービスを提供しようと最も積極的に動いた企業だったということです。市場を見るとわかるように、OpenAIはChatGPTやサブスクリプションなど、消費者向けにより注力していました。xAIは18~24ヶ月前まではまだ本格的に始動していませんでしたし、Googleも消費者向けに注力していました。Anthropic社は、国防総省のような巨大組織や大企業など、エンタープライズ向けに注力していたのです。そのため、自然と彼らとの動きが早くなりました。

現在、これらの企業にはすべて政府部門があり、ある程度の割合の人々が政府の専門用語を理解し始め、私たちが話しているような、世界におけるこれらの能力の進歩が何を意味するのかについて議論できるようになっています。

文化の観点から言えば、私たちは革新と改革を行うために、日々官僚主義の中で生きています。彼らが国防総省や政府に対して抱いているイメージは——これは彼らに限ったことではありませんが——私たちが安全対策を講じておらず、リスクに注意を払っていないというものでしょう。しかし実際には、私たちは何十年にもわたって築き上げてきた、慎重かつ賢明に行動するためのプロセスがあるため、ほとんどのアメリカ人が想像する以上にリスクに注意を払っているのです。

この文化の衝突は、彼らが私たちのことを理解していないこと、あるいは、私たちが国家の価値観や法律に従って物事を進める能力を持っていることを信頼していないことに起因していると私は説明しています。

最近の国防総省とAnthropic社の間に起きたことを簡単にまとめさせてください。彼らは先ほど話した「Maven Smart System」に関わっていましたが、契約には彼らが好まない条項が含まれていました。そこで再交渉が行われ、合意に近づいたものの、最終的にAnthropic社が契約に含めたかった2つの条項——大量監視の禁止と、自律型兵器の禁止——が受け入れられず、決裂したという認識でよろしいですか。

明確にしておきたいのですが、最終的に国防総省に提示された契約書の条項には、「物理的(キネティック)な攻撃の計画には使用できない」「兵器システム(科学、工学、空気力学などすべて)の開発には使用できない」と書かれていました。

それが最初の条件だったのですね。彼らはそれを取り下げることに同意したと。

彼らは例外的なケースについて「この場合はどうなのか」と手取り足取り確認するプロセスに3ヶ月を費やしました。300万人を抱える組織を、例外のルールだけで運営することはできません。

AIを、空気力学や物理学、数学から情報統合、異常検知に至るまで、多くの事柄に適用できるインテリジェンスのレイヤーとして考えるなら、なおさらです。私たちは病院も学校も運営していますし、兵器システムや防衛システムも稼働させています。例外ごとに「このシナリオはどうだ」と確認していくやり方は持続可能ではなく、時間がかかりすぎました。そこから、「彼らは本当に私たちのミッションと方向性が合致しているのだろうか」と疑問を抱き始めたのです。

自律型兵器の問題については、一種のマーケティング戦略だったのではないかと思います。なぜなら、彼らが来る前から私たちには独自の方針がありましたし、彼らのAIを使用して下されるすべての軍事的決定には、人間の監視が行われることを約束していたからです。人間の監視を約束し、既存の指令や法律もあるのに、これ以上何ができるというのでしょうか。最終的に彼らもそこに問題はないと同意しましたが、最後まで私たちが反対しているかのように宣伝したのは奇妙なことでした。

国内問題について言えば、私たちは国内の法執行機関ではありません。国内で大量監視を行う権限は持っていません。議会が制定した法律、1947年の国家安全保障法、FISA(外国情報監視法)、そして憲法で保障されたすべての市民的自由があります。私たちはすべての法律と、与えられた権限と与えられていない権限を遵守すると明言しました。私たちはFBIでも国土安全保障省でもないのです。しかし、それでも彼らには十分ではありませんでした。彼らは、議会が遅れており、新技術が可能にする新たな能力を理解していないと考え、法律を書き直すことを私たちに求めたのです。しかし、それは私たちの任務ではありませんし、そんな権限もありません。

結局、価値観の不一致から協力しないと決定するのは理解できます。しかし、国防総省はそこから一歩踏み込み、Anthropic社を「サプライチェーンリスク」と認定しました。この点には少し戸惑いを感じます。もし彼らが、国防総省が技術を合法的に使用することに同意し、協力する意思があったのなら、なぜサプライチェーンリスクになってしまうのでしょうか。これは実質的に、国防総省が彼らと取引しないだけでなく、政府の請負業者も彼らと取引できなくなり、政権としてすべての政府機関が彼らと取引すべきではないと言っているに等しいですよね。

国防総省がサプライチェーンにおいて何を重視しているかをお話ししましょう。例えば、Lockheed Martin社が私たちのために兵器を開発しており、彼らが物理学や空気力学などの科学的計算を支援するためにある技術を使用しているとします。もしその技術のベンダーが、自社の技術がそのような目的で使われることを望まないという意思を表明していたらどうなるでしょうか。最終的に最前線の兵士に届くそのシステムには、何が組み込まれているのかわからなくなります。ベンダーが急にレッドライン(越えてはならない一線)を変更すると決めたらどうなるでしょうか。「物理的な攻撃に使われる原因になりたくない」という彼らの価値観のせいで、モデルがハルシネーション(もっともらしい嘘)を起こしたらどうなるでしょうか。これらは実際に契約交渉の場で懸念されたことです。

前線の兵士を守り、国を防衛することにつながるすべてのプロセスにおいて、下流でどのような影響が出るかを心配するのは当然です。彼らの方向性が私たちのミッションと本当に合致していないのであれば、それは正当な懸念です。

しかし一方で、そうすることで彼らが持ついくつかの優れた能力を自ら制限することにもなりませんか。先ほどサイバー戦について話しましたが、彼らの新しいモデル「Mythos」のプレビュー版があります。「Glass Wing」というプロジェクトを通じて複数の組織がこれをテストしています。米国AI安全研究所(AISI)によると、このMythosモデルはサイバーセキュリティとサイバー攻撃において非常に優れているそうです。「今週、Claude Mythosプレビュー版のサイバー評価を実施した結果、AISIのサイバー演習をエンドツーエンドで完了した最初のモデルであることが判明しました。これは初期の偵察から完全なネットワーク乗っ取りに至る32段階の企業ネットワーク攻撃であり、人間の専門家なら完了するのに20時間かかると推定されます」と報告されています。つまり、これは自律型のサイバー兵器だと言っているわけです。

使用を推奨しているわけではありませんが、先ほど他のドローンを攻撃するドローンについてお話ししたように、このツールを手元に置いておきたいとは思いませんか。使いたい能力を使わないことで、自らを窮地に追い込んでいるのではないかという指摘について、どうお考えですか。

そもそも最初の過ち(原罪)は、前政権が1つのAIプロバイダーだけを選び、選択肢を持たなかったことです。機密ネットワークにこれらのソフトウェアを導入するのは途方もない労力と複雑さを伴います。消費者向けのAWSクラウドとは違うのです。複数のプロバイダーを確保していなかったことが問題でした。

しかし、他のすべてのフロンティア企業と話をすれば、彼らも同様の能力を持つようになるでしょう。

今はまだ持っていませんが、いずれ持つようになるということですね。敵対国が我々のモデルを使って抽出(蒸留)攻撃を行っている状況を見れば、それがDeepSeekなどの他のモデルに現れるまでにどれくらいかかると思いますか?

数ヶ月ですね。

その通りです。そうしたタイムラインを考慮した上で対応しているのです。私たちは決して国家安全保障のために能力を犠牲にすることはありません。何が起きているかを認識し、すべてのモデル企業と協力しており、我々の現在の体制には自信を持っています。

この件に関してもう一つ言われているのは、過去に国防総省からサプライチェーンリスクとみなされた企業の歴史を見ても、Anthropic社のような企業がこのように排除されるのは非常に稀か、前例がないということです。なぜ今回そのような厳しい措置にまで至ったのでしょうか。この前例のない措置は妥当だとお考えですか。

一方で「彼らはこのサイバー核爆弾のような能力を持っている」と言いながら、他方で「その能力が我々のサプライチェーンにどう入り込み、どう留まるかについて心配すべきではない」とは言えません。この2つの主張は矛盾しています。あなたを責めているわけではなく、もし彼らが「AIが40%の失業をもたらす」と信じていたり、「5万人の天才をデータセンターに集めたような能力を持ち、世界を支配できる」と信じているのなら、生物・化学兵器を生み出す可能性だってあるわけです。当然、国防総省はそれを理解し、制限して、我々の側で何か問題を起こさないようにしたいと考えるはずです。

これらの企業自身が、自らの技術を終末論的な言葉で語っている以上、我々は彼らの経営陣や行動、サービス利用規約を審査し、我々のサプライチェーンにどう適合するかを判断しなければなりません。この技術はこれまで見たこともないようなものです。外国のチップメーカーの部品がサプライチェーンに入り込むのとは全く次元が違います。彼ら自身が語るその力や、アメリカ人の生活に引き起こすかもしれない混乱を考えれば当然です。もし誰かがガレージで核爆弾や生物兵器を作っていたら、政府が何も言わないと思いますか? モデルが何をなし得るか、どこへ向かっているかという認識が高まるのは当然のことなのです。

実用的な課題とモデルの更新

もう一つ、実用的なレベルの話をさせてください。Anthropic社のモデルはAmazonの政府向けクラウドでホストされており、重みデータをアップロードしてAmazon経由で使用するという話を以前されていましたね。Lockheed社がClaudeを組み込んでシステムを設計しているとします。もしAnthropic社がモデルを他の場所でホストしていれば、機能を停止させることはできません。アップデートはできるかもしれませんが、機能を切る権限は実質的にないですよね。

この技術の仕組みをよくご存知ですね。現在、これらのモデルの更新サイクルはどのくらい短縮されていると思いますか? およそ3ヶ月です。

3ヶ月ごとに、新しいモデルの重み、新しいガードレール、新たなバグ、モデルの振る舞い、ハルシネーションの有無、特定の質問への拒否反応などが更新されます。記事にもなった重要なエピソードがあります。Anthropic社は米国疾病予防管理センター(CDC)にもサービスを提供しており、科学者が病原体について調べていたところ、モデルが彼らを悪意のある行為者だと見なし、回答を拒否しました。その拒否設定を解除するのにかなりの時間がかかったそうです。

それは市販の標準モデルだったのでしょうか?

確かに標準モデルでしたが、次の新しいモデルで同じことが起きないという保証はありません。信頼できるパートナーであるためには、これらの問題で方向性が一致している必要があります。HHS(保健福祉省)の場合は合法的な病原体研究であり、政府機関として合法的なすべての用途で使用できなければなりません。

彼らが本当にそうしていることを願っています。

そう願っています。ですから、誰かの判断で機能がオフにされ、「これは古いモデルだから」といった言い訳が通じるようでは困るのです。もし彼らが本当にアメリカ人を守り、アメリカ人のために良いことをしようとするアメリカの企業であるなら、政府が任務を遂行するためにこの強力なツールを使用できなければなりません。彼らの選択によって我々の行動が制限されるとしたら、それは指揮統制の構造そのものを脅かすことになります。

しかし、その問題はある程度解決されているのではないでしょうか。Claudeしか選択肢がないなら理解できますが、GrokやOpenAIのモデルも導入されていれば、Claudeが好ましくないアップデートを行った場合、OpenAIのモデルに切り替えればいいだけですよね。

それは、もし私たちが「最初の過ち」を犯していなければの話です。

もし当初から彼らが政府との契約を巡って競争していれば、非独占的なシナリオのように、顧客とベンダーの間で力関係のバランスが取れていたはずです。最終的にはそうなるでしょうが、当時はそうではなかったため、彼らは自分たちの都合で選択を下すことができたのです。

冒頭で文化の違いについて質問しましたが、もう一つの見方があります。政府側に不安があったのは確かかもしれませんが、つまるところこれは文化の衝突に過ぎなかったのではないかということです。ピート・ヘグセス氏もAnthropic社について、「我々はWoke(意識高い系)な企業に指示されるつもりはない」とツイートしていました。これがもっと大きな問題へと発展した可能性はありませんか?

それはないと思います。Anthropicの担当者が私を訪ねてきたとき、「これは政治とは無関係だ」と伝えました。私はただ、最前線の兵士たちのために最高のシステムを導入したいだけなのです。もし単なる文化の衝突なら、わざわざ3ヶ月も費やしませんよ。CBCのインタビューでも「彼らと仲が悪いだけではないのか」と聞かれましたが、私は彼らのことを個人的には知りません。

しかし、私はシリコンバレーの文化は知っています。だからこそ、政府にやってきた身として、なぜこれが重要なのかを時間をかけて説明しようとしたのです。「いくつかのシナリオを想定してみましょう」と。しかし最終的に、彼らが求めていたのは「コントロール(主導権)」でした。彼らの行動が合法でありガイドラインに沿っている限り、国防総省の活動に対するコントロールを彼らに握らせるわけにはいかないのです。

訴訟と防衛産業におけるパートナーシップ

外部から見れば、「サプライチェーンリスクの指定を受け、どの政府機関も彼らと仕事ができなくなった。これは実質的に、調達を巡る争いを理由に、連邦政府がAnthropic社を破壊しようとしているのではないか」と映るかもしれません。

Anthropic社を破壊するですって? 彼らの収益は3ヶ月で3倍になり、評価額も3倍になりました。彼らは全く問題ありませんよ。馬鹿げた話です。どのモデル企業にとっても、我々が占める収益の割合はごくわずかです。

単純に、我々のサプライチェーンに彼らを入れたくない、彼らを使いたくないということです。大統領も、政府が彼らを利用することを望まないと決定しました。他にも素晴らしい選択肢はありますし、我々は過去の過ちを正し、それらの選択肢が確実に利用できるようにしなければなりません。他のモデルが時間とともに同等かそれ以上になると、私は強く確信しています。

この件について最後の質問です。全てにお答えいただきありがとうございます。あなたの視点をお聞きできて有益です。現在Anthropic社はその指定の解除を求めて訴訟を起こしていますが、担当判事の一人であるリタ・リン判事は次のように述べています。「国防総省の記録によれば、Anthropic社をサプライチェーンリスクに指定した理由は、同社が報道機関を通じて敵対的な態度をとったからだ。政府の契約上の立場に対して世間の厳しい目を向けさせたことを理由にAnthropic社を罰するのは、典型的な違法な修正第1条(言論の自由)に対する報復である」。これは報道戦略と何か関係があるのでしょうか?

進行中の訴訟についてコメントすべきではありませんが、修正第1条の主張が認められるとしたら驚きです。なぜなら、それは政府には選択の余地がないということを意味するからです。もしどんなベンダーであれ、「あなたの条件には同意しない」と言い、政府が「それなら、うちの仕事は頼まない」と返したことが修正第1条の侵害になるのなら、それはあまりにも行き過ぎた解釈であり、現実的ではありません。

ただ、国防総省が他の多くの政府機関と異なる点は――大げさに言うつもりはありませんが――我々は本当に人命を預かっているということです。政府の官僚は何も気にかけていないと言う人がいますが、ここにいるキャリアの職員たちは本当に気にかけています。前線の兵士を思い、国を思っています。ここは真に愛国的な場所であり、300万人の従業員を抱えるペンタゴンの中枢は非常に非党派的です。

その使命は非常に繊細です。だからこそ、イランで何かが起き、企業に迅速に動いてもらう必要があるときのように、我々のビジネスには多くの予測不可能性が伴うため、これらの企業との関係のあり方に敏感になるのです。彼らとは信頼関係と価値観の共有が必要ですし、彼らに経済的な利益があることも理解しなければなりません。同時に、我々のニーズは脅威の環境によって変化することも理解する必要があります。

だからこそ、それが重要なのです。彼らが公の場でいくら訴訟を起こしても構いませんが、我々が同じ部屋に入り、実際の紛争に直面したとき、本当に方向性が一致していると言えるのでしょうか。だからこそ、私はそうした外野の動きには動じませんでした。

軍関係者が利用できる「JADC2(統合全領域指揮統制)」というウェブサイトがありますが、興味深いことにそこにはGoogleのGeminiも含まれています。Googleもかつて、従業員が抗議行動を起こすという、ある意味もっと爆発的な出来事を経験しましたが、今では再び国防総省と協力しており、ある程度許されているようです。Anthropic社にも同じようなことが起こり得るでしょうか。

そう思います。2018年にGoogleの「Project Maven」の件が起きた当時のことを振り返り、現在関わっているGoogleの人々に話を聞けば、彼らはあの時のことを後悔していると思います。なぜなら、私たちがこの政権で行っていること、そしてそれはAIの重要な転換期にあるため将来の政権にも引き継がれるであろうことを、彼らが十分に理解していなかったからです。

私たちにとってこれは非党派的なものであり、未来のためのものです。2018年にあのような経験をしたGoogleのような企業が、成熟し、政府と協力することの意味をより深く理解するようになれば、良い関係を築けるはずです。8年もかからずにそうなることを願っています。

今回は少し時間がかかりましたね。

ええ。しかし、今回の生成AIの大きな転換期を迎える前から、Googleは素晴らしいパートナーでした。

私が2016年から2017年にかけてUberにいた頃、テクノロジー業界全体がそういったものには触れようとせず、従業員が自社の製品やサービスが何に使われるかに対して大きな発言力を持ち、経営陣や創業者がそれに非常に敏感になっているような、少し「群集心理」のようなものがありました。今の状況は、そのバランスが少し改善されていると思います。Palantirで働きたくなければ、働かなければいい。Uberで働きたくなければ、働かなければいい。他にも働く場所はたくさんありますから。

そして、私たちがシリコンバレーに対してより積極的にアプローチしていることで、彼らからの知識の移転もより速く進むことを期待しています。

もう一つ、ニュースについてお聞きします。今週、次官がxAIの株を保有していたという記事が出ました。SpaceXの株も保有していますか? それは利益相反にならないのでしょうか。

SpaceXの株はすべて売却しました。

このような職務に就く際、政府の倫理局に保有するすべての資産を報告します。彼らはそれを非党派的な立場から審査し、「これとこれはレッドライン(抵触する)だ。防衛関連企業の株は売却しなさい」と指示します。私の場合、防衛関連株はあまり持っていませんでしたが、SpaceXはリストに入っていたため売却しなければなりませんでした。

そして、職務の役割に応じて、特定の企業との関わりを避ける(忌避する)こともあります。私の場合、秋にAIのポートフォリオを任されるまでは、xAIとの関わりを避けていました。ポートフォリオを任された際、「これに関わりたいので忌避を解きたい」と申し出たところ、「それなら売却しなければならない」と言われました。許可を得て売却し、その間は忌避していました。

軍事調達プロセスの改革と「ペンタゴン・ピザ・インデックス」

最後にもう二つだけ、手短にお聞きして終わりにしたいと思います。まず調達についてです。退屈な話題だと思われるかもしれませんが、これらのサービスがどのように購入されるかは非常に重要です。なぜなら、国防総省の予算は、一部のベンダーが法外な価格を請求してきたために膨れ上がっている面があるからです。調達プロセスの改革にどのように取り組んでいるのか、そしてそれがなぜ国民にとって有益なのかについて教えてください。

1980年代の冷戦のピーク時、我々には約50社の防衛請負業者が存在していましたが、それが5社にまで統合されました。これが競争相手の劇的な減少をもたらした一つ目の要因です。

さらに、コア能力の多くを他国にアウトソーシングしたため、サプライチェーンは脆弱になりました。そして、中国は2010年代半ばまで軍備を増強していませんでした。これらが重なり、少ない競争相手がリスクを取らなくなり、我々は彼らの時間に対して対価(コストプラス契約)を支払うようになってしまったのです。

もちろん、誤解のないように言っておきますが、研究開発(R&D)の資金を支援しなければ、どの企業も経済的に実行できないほど投機的なプロジェクトもあります。10年、15年、20年先を見据えたようなものです。

しかし、戦争の性質が変化し、国の歴史上最大の防衛テック分野におけるベンチャーキャピタルブームが起きていること、そしてパルマー・ラッキーのような創業者たちがこの業界に参入する意欲を持っていることで、我々はよりビジネスライクな契約を結びやすくなりました。

視聴者の皆さんに分かりやすく言うと、ビジネス取引のことですね。

ええ、非常に重要です。「兵器を期日通りに納品し、それが機能すれば支払いを行う。機能しなければ支払わない」という契約ができるようになりました。

当たり前のことのようですが。

そうでしょう。そして、もし彼らがより安く製造し、少し多くの利益を得たとしても、私はそれで構いません。そこにリスクの共有が生まれるからです。

特に、月面着陸船を発明するような壮大で困難なプロジェクトではなく、より簡単に、早く製造できるものについては、企業にとっても我々にとっても有益な、よりビジネス志向の契約へと移行していくのを見ることになるでしょう。

それは間違いなく納税者にとっても良いことですね。

我々は皆、十分な税金を払っているのですから、それがどこに使われ、無駄になっていないかを知るべきです。

さて、最後になりますが、「ペンタゴン・ピザ・インデックス」について聞かずには帰れません。この建物の周辺でどれだけのピザが注文されたかを追跡し、それを軍事行動の予測に使っている人々がいることをご存知ですか? X(旧Twitter)で見かけました。

正直なところ、どうやって外からピザを注文して中へ配達してもらえばいいのか、私にはさっぱりわかりません。ペンタゴン専用のPapa John’sがあるわけでもありませんし。

ということは、ペンタゴン・ピザ・インデックスの存在を信じていないのですね。

ペンタゴン・ピザ・インデックスなんて信じていませんよ。

真に受けるべきではないと?

ええ、信じていません。なぜなら、外からどうやって食べ物を配達してもらうのか、文字通り知らないからです。

ここは何千マイルも離れた国と戦争ができるペンタゴンですよ。なのに建物の中にピザ一つ持ち込めないと言うんですか?

誰かがペンタゴンの端まで歩いて行ってピザを受け取り、中に持ち込む方法はあるかもしれませんが。ここは世界最高の兵站(ロジスティクス)機関ですからね。

予測市場を混乱させるために、誰かが意図的に操作している可能性もありますね。

誰がやってもおかしくありません。だからこそ、簡単に操作できてしまうため、指標としては本質的に信頼性に欠けると思います。

この周辺のピザ屋についてですが、確か建物の中に夕方5時に閉まるピザ屋が一つか二つあったはずです。だからこそ、深夜のPapa John’sの注文に注目が集まるんですよ。

この話題はこれくらいにしておきましょう(笑)。

次官、本日はどうもありがとうございました。わざわざワシントンDCまでお越しいただき感謝します。

こちらこそ、お招きいただきありがとうございました。

リスナーと視聴者の皆様、ありがとうございました。これで「ペンタゴン・ピザ・インデックス」の秘密がお分かりいただけたと思います。次回のBig Technology Podcastでお会いしましょう。

コメント

タイトルとURLをコピーしました