国防総省とAnthropicの対立について、皆が誤解している理由

AI規制・制度
この記事は約13分で読めます。

国防総省とAnthropicの契約紛争をめぐり、AI規制を支持してきた人々が政府の介入に反対することは偽善なのかという問いが投げかけられている。本動画では、この紛争に対する三つの批判——偽善、ナイーブさ、非民主性——を検証し、それぞれがいかに誤った前提に基づいているかを明らかにする。政府の関与を支持することと、あらゆる政府行動を支持することは別物であり、抽象的な原則が常識や実態から目を逸らさせる危険性を指摘する。AI統制の議論が単純化された文化戦争に陥ることなく、具体的な政策内容こそが重要であると論じる分析である。

Everyone is wrong about the Pentagon-Anthropic conflict
When the Pentagon tried to strong-arm Anthropic into dropping its ban on AI-only kill decisions and mass domestic survei...

偽善という批判は成り立つのか

私は何年もの間、最先端AI開発に対する政府の監視強化を求めてきました。それなのに、国防総省がAnthropicに対して「企業殺し」を試みることに反対するのは偽善なのでしょうか。そういった声を耳にしてきました。ベンチャーキャピタリストのマーク・アンドリーセンがTwitterで述べたように、AIの政府統制に賛成していた人々が今ではAIの政府統制に反対している、という指摘です。確かに自然な考え方に思えます。

しかし、これは完全に間違っています。そして私はなぜこれが間違っているのかを説明したいのです。なぜなら、同じような根本的な混乱があちこちで見られるからです。

ただ偽善だけではありません。批評家たちがAnthropicとそれを支持する人々に対して少なくとも三つの異なる非難を浴びせているのを数えることができます。偽善の批判については既に触れましたが、別にナイーブさに関する非難もあります。AIのように強力なものを構築している時、もしその使用に条件を付けようとすれば国家が必然的にあなたを潰すだろうから、Anthropicがこの争いを始めたのは間違いだったという主張です。

そして三つ目は、非民主的であるという非難です。民間企業が選挙で選ばれた政府に対して軍事技術で何ができて何ができないかを指示する立場にはない、というものです。

私はこれらの非難それぞれを真剣に受け止め、どこが間違っていると思うか、そしてその理由を説明していきます。では、詳しく見ていきましょう。

まず偽善から始めましょう。これが最もよく耳にする批判であり、三つの中で最も単純明快だからです。

話題になっている紛争について簡単に記憶を呼び起こしておきましょう。AnthropicはAIの使用に二つの制限を含む国防総省との契約を結んでいました。大規模な国内監視の禁止、そして人工知能単独による殺害決定の禁止です。トランプ政権はこれらの制限の撤廃を要求し、Anthropicは拒否しました。そして単に契約を終了するだけでなく——これについてはほとんどの人が問題ないと同意しているのですが——戦争・国防長官のピート・ヘグセスはAnthropicを「サプライチェーンリスク」と宣言しました。この指定は以前は外国の敵対勢力にのみ使われていたものです。そうすることで、同社が米国内でビジネスを行う能力全般を脅かすことになりました。

この指定を覆すための訴訟は、予想される味方だけでなく意外な味方からも支持を集めています。Anthropicの競合であるOpenAIやMicrosoftを含め、その他の点ではトランプ政権のAIアプローチに賛成している保守的なテクノロジー専門家たちからもです。

何年もの間、AI安全性の世界の人々——私自身も絶対に含めて——は、最先端AIは重要すぎて危険すぎて民間企業だけに任せておくことはできないと主張してきました。私たちは政府の監視、安全基準、さまざまな異なる事柄を求めてきました。

だから偽善のロジックはこうなります。あなたたちはAIの政府統制を望んでいた。さて、今あなたたちはAIの政府統制を手に入れた。だから何を文句言っているのか、というわけです。

しかし明白なことを述べると、最先端AIトレーニングに対する公的監視を支持することは、政府が企業を強引に従わせて自社製品を国内の大規模監視に使用させることを支持する必要があるわけではありません。これらの見解は表面的にも矛盾していません。

もちろん、人々が気にするのは誰が決定するか、誰がAIをコントロールするかだけではありません。彼らは何を決定するか、何をすることに決めるかも気にしているのです。私は都市の消防局長が公共の安全のために道路を閉鎖することを許可する法律を支持するかもしれませんが、もしその消防局長が恣意的に道路を閉鎖し始めて通過するために賄賂を要求するようになったら、それにも反対することは偽善ではありません。

ここで人々が混乱する理由は、極めて多次元的なものを単一の変動軸に精神的に圧縮しているからです。この場合、その軸は「AIに対する政府のコントロールを増やす」対「AIに対する政府のコントロールを減らす」というものです。

しかしこれは物事を考える上であまりにも粗雑な方法です。誰もが常に十分に理解していたことは、政府が関与するかどうかだけが重要なのではなく、どのように関与するか、どんな条件で、そして関与する時に何を達成しようとしているかが重要だということです。

一般的なAI規制の支持者たちが、具体的にどんな詳細が有益か有害かについて自分たち同士で絶え間なく口論していることを聞いても驚かないでしょう。これほど複雑で繊細なものを「政府が増えれば良い、減らせば悪い」という単純な話に煮詰めることはできません。

ナイーブさという批判を検証する

Anthropicと国防総省の紛争に関する議論が特にこれほど早く抽象的になったのは、一部にはAI評論家にとって「誰がAIをコントロールすべきか」という問いが狭い軍事契約紛争よりもはるかに興味深く重要で生産的なトピックだからだと思います。そして一部には、国防総省を擁護したい人々にとって、国防総省が実際にこの事例で行っていることを擁護するよりも、政府がAIに対して何らかの影響力を持つべきだという一般原則を擁護する方がはるかに簡単だからです。

ここで作用している現象は、抽象的に最善と思われる意思決定プロセスと、特定のケースで最善と思われる結果についての私たちの意見との間に、しばしば本物のトレードオフがあるということです。

例えば、私は都市計画の決定は都市レベルで行われるべきだと考えているとしましょう。それが正しいプロセスだと。しかし現在の市長がたまたま新しい住宅建設をすべて阻止していて、私はその逆を支持しているとします。ここで私は本当の緊張関係に直面します。一般的なルールとして最善だと思うプロセスを採用すると、少なくとも短期的には本当に有害だと思う結果が生じてしまうのです。

どの考慮事項がどんな場合に優先されるべきかについて、理性的な人々が異なる意見を持つことは可能です。しかしプロセスだけを評価することしか許されず、そのプロセスが実際の人生で生み出す結果は決して評価してはいけないというルールはありません。これら二つの間の緊張に気づき、それらを互いに比較検討することは、偽善的ではありません。それは明晰な思考なのです。

二つ目の批判は、Anthropicがこのケースで政府の要求に抵抗したのはナイーブあるいは愚かだったというものです。この論調の最も影響力のあるバージョンは、ブログStratecheryのベン・トンプソンから来ています。

トンプソンの論理は大体こうです。AnthropicのCEOダリオ・アモデイは、AIの進歩を核兵器に非常に公然と例えてきました。さて、もしAIが本当にそれほど強力なら、それを構築している企業は米軍に匹敵し得る権力基盤を築いていることになります。現実的に、どの政府もそれを容認するつもりはないでしょう。

そしてトンプソンは、国際法は最終的には権力の関数であること、つまり「力は依然として正義を作る」ということも観察しています。そして彼は同じ論理を国内に適用し、厳しい結論に達します。Anthropicは米国政府に対して完全に従属的な立場を受け入れるか、さもなければ米国政府は必然的にそれを破壊しようとするだろう、と。

私は二つの根本的な議論を順番に評価していきます。一つ目は、この件における政府の行動があまりにも自然で、それに反対するのは不合理で逆効果だというもの。二つ目は、政府が自分たちの主権を脅かす民間企業への恐れによって動機づけられていたというものです。

まず最初に、トンプソンの記事は国際法が本質的に偽物であり、権力のダイナミクスが国際レベルでの行動を決定するという長い一節で始まります。彼はその同じ現実主義的な枠組みをAnthropicに適用します。同社は行政府からの要求に抵抗することで「現実と根本的にずれている」と——結局のところ、行政府は民間企業としてのAnthropicよりもはるかに、はるかに強力なのです。

強力なアクターがどのように振る舞う傾向があるかの予測としては、少なくとも大部分において正しいかもしれません。しかしその記事は現実を記述しようとすることから、私たちが受け入れるべきことやそれにどう反応すべきかという処方箋へと滑り込んでいます。文字通り、圧倒的な力を持つことがあなたの行動を正しくすることができると主張しているのです。

何かが一方で予測可能であることと、他方で受け入れ可能であることとを偶然に同一視してしまうのは実に簡単です。そしてトンプソンはここで非常に誠実で、自分自身を厳しい真実を指摘していると見なしていたと思います。そして彼はその投稿で有用なことも言っていました。

しかし有害または違法な行動を、それが驚くべきものではないからという理由で、あるいは非常に強力なアクターによって行われているからという理由で、問題ないものとして見始めるのは本当に非常に危険です。

このケースで反対することがナイーブで無意味かどうかは、まだ分かりません。Anthropicの抵抗は、テクノロジー業界の約90%を動員して、この目的でのサプライチェーンリスク指定の使用に反対させることに成功しています。

これまで沈黙を保ってきた企業が、潜在的な前例に十分に警戒して、反撃の努力に加わっています。この番組の過去のゲストであるディーン・ボールは、トランプ政権でAI政策を執筆していましたが、Anthropicに対する「企業殺しの試み」を、彼が米国政府が試みようとしたのを見た中で「おそらく最も有害な政策行動」と呼びました。高いハードルであることは確かです。

そして監視や完全自律型殺害チェーンにAIを使用することは、以前よりもシリコンバレーでさらに論争的になっています。そしてそれは既にかなり論争的でした。

米国は大部分においてまだ法の国であり、法律アナリストはAnthropicが法廷で勝訴する良いチャンスがあると見ています。おそらくこのビデオが公開される前に命令を阻止する仮差止命令を確保することさえできるでしょう。もしそうなれば、「ナイーブな」企業は、AI業界全体を経済的強制から保護するのに役立つ法的先例を確立することになります。リスクのある道を選んだかもしれませんが、必ずしも愚かな選択ではありません。

次に、トンプソンの記事の残りの部分では、国防総省がここで取ったような極端な行動を合理的に動機づけ得る見解について興味深い議論が展開されています。しかしこの実際のケースの詳細を見ると、それらの動機は物事を動かしているものではないように見えます。

もし米国政府が本当にAI企業が民間の核兵器と同じくらい危険なものを構築していると確信したのであれば、彼らは何をすると予想されるでしょうか。おそらくAI業界全体に焦点を当てるでしょう。最も積極的に彼らと協力し、まさにこのリスクについて警告していた一社だけを狙い撃ちすることはないはずです。OpenAIやxAIに対してビジネス契約でより緩い契約条件を提供しているとしても、もし懸念が本当に民間企業が米国政府全体に匹敵する軍事力を非常に迅速に蓄積できることであるなら、それらの企業を安全とは見なさないでしょう。

おそらく彼らは、このような爆発的なものが無能な馬鹿によって構築されたり、設計が中国に漏洩するような方法で構築されたりするのを防ぐルールについて考えるでしょう。議会に何らかの法案を提案して、これが今後生み出す多くの他の問題に対処できるようにするでしょう。

そしておそらくAI研究者たちを大体自分たちの味方に保とうとし、比較的小さな問題で前例のない規模で彼らを疎外しようとはしないでしょう。

しかしそのようなことは何も起こっていません。実際、それは現在の米国政府の政策とは全く相反しています。起こっているのは、一つの企業が契約紛争で政府が提案した条件を拒否したことで罰せられているということです。AIの変革的な力が政府の介入を正当化するというトンプソンの高レベルで抽象的な議論は、おそらく理にかなっています。私はそれにある程度同意します。しかしその議論がAnthropicとのこの紛争における政府の特定の行動を動機づけているという証拠を見つけるのは困難です。

非民主的という批判への反論

三つ目の非難に移りましょう。Anthropicの立場は非民主的なものだという主張です。軍がその技術をどう使うかに条件を設定することで、Anthropicは事実上、選挙で選ばれた指導者に本来属する役割を横取りしているというものです。

その議論の最も強力なバージョンは、軍事請負業者Andurilの創設者パルマー・ラッキーから来ました。ラッキーは核心となる二つの疑問は「私たちは民主主義を信じているか」と「私たちの軍隊は選挙で選ばれた指導者によって規制されるべきか、それとも企業幹部によってか」だと考えています。

彼はさらに、一見無害に見える条件——「無実の民間人を標的にしてはならない」のような——でさえ、何が民間人としてカウントされるか、何が標的とすることとしてカウントされるかなどについて難しい判断を伴うと論じています。そしてAnthropicの提案する枠組みの下では、Anthropicがそれらの疑問について何らかの発言権を持つことになります。これらは本当に政府の政策決定のように感じられる疑問です。ラッキーはその設定を民主的な自治と根本的に相反するものと見なしています。

ラッキーはここで正当な問題を指摘しています。政府の観点からは、軍事作戦が供給業者の意見や道徳的疑念によって制約されないことが最も単純です。私にとってさえ、その実際的な懸念は、政府がAnthropicとの契約を終了し、より扱いやすい他のAIプロバイダーを探すことについての潜在的に合理的な議論です。

しかし物語は時々描かれるよりも少し複雑です。現在の契約では、Anthropicは使用方法に本当に反対したとしても、突然軍からClaudeを切り離すことはできませんでした。そして政府は今、わずか一ヶ月前にAnthropicからは完全に耐え難いとされていたのと同じ契約終了条件をOpenAIから受け入れています。

さらに、先見の明のある国防長官は、特定のAI使用に対する契約上の障壁を歓迎するかもしれません。自分たちが技術を悪用すると思っているからではなく——おそらく彼らは自分自身を信頼しているでしょう——むしろ将来のより無節操な国防長官を制限し得るガードレールに価値を見出しているからです。

そして民主的な自治に訴えかけるのであれば、この問題について国民がどう感じているかに注目する価値があります。YouGov/Economistの世論調査では、アメリカ人はAI企業が軍事利用を制限することを支持する可能性が、軍がツールを好きなように使えるべきだと言う可能性のほぼ2倍であることが分かりました。国民は実際にこれらの制限が自分たちの政府に課されることを望んでいるのです。国民が望むものを否定することが本当にそんなに民主的なのでしょうか。

しかし根本的な問題は別のものです。ラッキーは「民主主義を信じる」という曖昧な表現を使って、全く異なる二つのことを同一視しています。

はい、民主主義は国民が指導者を選び、その指導者が国家安全保障について決定を下すことを要求します。しかしいいえ、それはいかなる個人も政府が要求するあらゆる目的のために、政府によって完全に設定された条件で、破滅の痛みの下に、自分の労働と製品を供給しなければならないことを要求しません。

あるTwitterのジョーク好きが言ったように「覚えておいてください——たとえ不道徳だと思うことでも、政府が望むことは何でもすべきです。さもないとあなたが政府の代わりに自分がすることを決めることになり、それは非民主的だからです」

もちろん、逆の方が真実に近いのです。個人的に反対するプロジェクトで働くことを強制されるか、さもなければ政府の圧倒的な報復に直面するということが、民主主義が存在するために明らかに必要とされているわけではありません。そしてそれは中国や北朝鮮のような非民主的な国々であり、国家が自分たちの選択のあらゆるトピックについて拒否できないオファーをする権利を要求しているのです。

抽象的原則が常識を覆い隠す危険性

これら三つの非難すべてに共通する糸があります。それぞれのケースで、なんとなく合理的に聞こえる抽象的な原則が、常識と実際に起こっていることの両方から注意をそらす方法で援用されているのです。

「あなたたちはAIへの政府関与を望んでいた」は、AIに関するいかなる政府行動にも反対できない理由になります。「強力な国家は必然的に強力な技術に対する統制を主張するだろう」は、その主張がどんな形を取ろうとも、ただ受け入れなければならない理由になります。「民主的な指導者は国家安全保障について決定を下すべきだ」は、政府に物を売る時にいかなる個人や企業も条件を設定できない理由になります。

これらの疑問はますます出てくるでしょう。なぜならAIは本当により強力になってきており、政府は何らかの形でそれを統治することに関与する必要が本当に出てくるからです。そして議論が主流になるにつれ、政府統制に賛成か反対かという単純化された文化戦争に簡単になり得ます。

しかし政府が正確に何をしているか、そしてそれが正当化されるかどうかを気にすることは、偽善的でもナイーブでも非民主的でもありません。人々は詳細を気にかけ、自分たちが最善だと思うものを積極的に推進していることを誇りに思うべきです。そして上で見たような凡庸な議論によって沈黙に追い込まれることを決して許すべきではありません。

それでは、また近いうちにお話ししましょう。

コメント

タイトルとURLをコピーしました