トランプ政権がAnthropicを「急進左派」と非難し、国防総省との契約を巡る対立が激化している。Anthropicは自律兵器と大量監視という2つの用途を拒否したことで政府から攻撃を受けているが、OpenAIは同様の条項を含みながらも契約締結に成功した。しかしその内容は精査すると異なっており、OpenAIは「監視責任」と「現行法の範囲内」という曖昧な表現で実質的に規制を緩和したとの指摘がある。この事態によりAnthropicへの支持が急増する一方、OpenAIへの信頼は失墜し、人材流出の懸念が高まっている。政府による民間AI企業への威圧は前例のない事態であり、AI安全性の未来に深刻な影響を及ぼす可能性がある。

OpenAIが仕掛けた驚愕の動き
OpenAIがとんでもないことをやってのけました。これについて話さなければなりません。まず最初に話しておきたいのは、Anthropicに何が起きたのかということです。なぜならそれがOpenAIの今回の行動に直結しているからです。この状況全体が繋がっているんです。
ここで理解しておかなければならないのは、ドナルド・トランプが自身のプラットフォームであるTruth Socialで声明を発表し、関係者全員にとって事態を一気にエスカレートさせたということなんです。
彼は「アメリカ合衆国は決して急進左派を許さない」と述べました。これは彼の言葉であって私の言葉ではありませんが、急進左派の目覚めた企業が我々の偉大な軍隊の戦い方を指図することを許さないと言ったんです。それは我々の最高司令官によって決定されるべきだと。
そして実際に彼はここでAnthropicを、破滅的な過ちを犯した企業として位置づけています。国防総省を強要し、憲法ではなく彼らの利用規約に従うよう強制しようとしたと。そして明らかに、彼らの利己主義がアメリカ人の命を危険にさらしていると言うんです。
これがOpenAIにどう繋がるのかについては後で説明しますが、理解しておかなければならないのは、この声明が完全に誤りだということです。Anthropicは憲法を覆そうとしていたわけではありません。彼らは民間企業として自社の利用規約を執行していただけで、これは完全に正常で合法的なことなんです。
アメリカ人の命を危険にさらしているという枠組みは、かなり誇張されています。そしてAnthropicは全ての合法的な軍事利用を支持してきました。ただ以前議論した2つ、つまり自律兵器と大量監視だけは除いてです。
問題なのは、OpenAIも最終的には同じ条項を利用規約に含めているということで、これは物語全体を損なっているんです。そして目覚めた企業という枠組みはかなり馬鹿げています。
政治的圧力の構図
でも私たちはここでの政治的状況を理解しなければなりません。これはトランプの支持基盤にはうまく機能します。なぜならもちろん、Anthropicを軍隊にとって危険だと位置づけることは、事実的には薄くても感情的には共鳴するものだからです。
そして以前も言いましたが、民事および刑事上の罰則の脅威は重大なエスカレーションです。大統領が民間のアメリカAI企業を脅すというのは、かなり異常なことです。
考えてみてください。もし政府がAI企業に従わせるために刑事罰の脅迫ができるとしたら、長期的にAI安全性にとってそれは何を意味するでしょうか。もし政府が全ての安全装置を剥ぎ取ろうとするなら、将来の企業にとってこれは何を意味するのでしょうか。
もちろん、ここで彼が全ての連邦機関に指示を出しているのが見えます。完全に正直に言えば、これはかなり暗澹たる状況です。アメリカ合衆国の全ての連邦機関に、Anthropicの技術の使用を直ちに中止するよう指示しています。我々はそれを必要としていない。
この部分には強く反対します。そして我々はそれを望んでおらず、二度と彼らとビジネスをすることはないと。他の部門が他のソフトウェアに移行できるよう、6ヶ月の段階的廃止期間があるとのことです。
そして彼らは言いました。我々の国の運命を、現実世界が何であるかを全く理解していない人々によって運営される、制御不能な急進左派AI企業ではなく、我々が決めると。
この先例は非常に狂気じみています。政府は本質的に、民間企業が軍との契約時に倫理的ガイドラインを持つことはできないと言っているんです。そしてそれは、全てのAI企業が安全装置を取り除くよう強要されるか、連邦政府とのビジネスを完全に失うかという扉を開くことになります。
そして今、この状況は深刻な結果をもたらす可能性があります。
サム・アルトマンの二面性
しかしこの全てで最も狂っているのは、サム・アルトマンがほんの数時間前にCNBCに出演して、国防総省と政府は彼らを脅すべきではなく合意に達するべきだと話していたのを私が覚えているということです。
ところが数時間後、アルトマンは実際に方向転換して国防総省と取引に達したんです。
これは本当に最も狂ったことの1つです。なぜなら、この声明のトリックに気づいている人がほとんどいないからです。そしてこれがなぜそれほど重要なのかをお見せします。
もちろん、このツイートは本当に気に入っています。「AI企業を極左だと呼ぶという概念は、彼らがあなたにアメリカ市民をスパイすることを許可せず、それを戦争戦略に実装することを許可していないからというのは、かなり狂っている」と書かれています。
かなり狂っていますが、先ほど言ったように、OpenAI、一体何が起こっているんでしょうか。
OpenAIは「我々は国防総省と、彼らの機密ネットワークにモデルを展開する合意に達しました」と言いました。
これはかなり狂っています。なぜなら表面的には、OpenAI、Google、Anthropicの全てが本質的に同じ立場を保ち、もちろん自律兵器を持つことを強制されないような合意に達しようとしているように見えたからです。確率的な性質を持つLLMのようなツールを使えば、当然展開したいとさえ思わないでしょう。
だからここでの問題は、そして私がさらに調査する前は最初はそう見えたんですが、アルトマンが達した合意は本質的にAnthropicが達した合意と同じだと思えたんです。しかしそれは実際の真実ではありませんでした。
契約内容の巧妙な違い
なぜなら詳細を掘り下げると、残念ながらOpenAIは基本的に、Anthropicが受け入れないと言った取引を受け入れて、それを公的には同じように見せかけたようなんです。
ここで彼らが実際に言ったことを見ることができます。もちろん我々の全てのやり取りにおいて、国防総省は安全性への深い敬意と、可能な限り最高の結果を達成するためにパートナーシップを組むという願望を示しました。
そしてここが人々が混乱するかもしれない部分ですが、こう書かれています。我々の最も重要な安全原則のうち2つは、国内の大量監視の禁止と、自律兵器システムを含む武力行使における人間の責任です。国防総省はこれらの原則に同意し、それらを法律と政策に反映させており、我々はそれを合意に盛り込みました。そして我々は、モデルがあるべき動作をするように技術的な安全装置を構築します。これは国防総省も望んでいたことです。
我々はあちこちに展開します。最初は、OpenAIがこの取引を獲得したように見えるかもしれません。これの何が問題なんでしょうか。
しかしこのツイートが、なぜ彼らの取引が同じではなかったのかを示しています。そしてもちろん、その後のコミュニティノートが、OpenAIがAnthropicにはできなかった形で取引を成立させた方法を示しています。
ここには、皆がOpenAIはAnthropicが禁止された取引と同じものを得たと言っているが、細かい字を読めば同じではないと書かれています。
兵器について、Anthropicは人間の監視なしの完全自律兵器はダメだと求めましたが、OpenAIの取引は武力行使における人間の責任と言っており、これは誰かが責任を負うという意味で、それは事後に起こり得るということです。
もしカイルがここで正しくて、監視から責任への変更を見てみると、一方は引き金の前に人間を必要とし、もう一方は基本的に紙の上の名前を必要とするだけです。
監視の抜け穴
そして監視について、ダリオは明確に、現在の法律はまだAIに追いついていないと述べました。政府はすでにあなたのデータを移動させ、あなたのデータを移動させ、基本的に何でも好きなことができます。あなたの閲覧履歴は全て令状なしで。そしてAIは基本的にそのデータ全てを組み立てて、大規模にあなたの人生の完全な像を作ることができます。
そしてそれは単一の法律を破ることなく大量監視なんです。そしてAnthropicは現行法を超えた保護を望んでいました。
しかしOpenAIの取引は、法律と政策にそれを反映させると言っただけです。そしてそれは基本的に、現在の法律そのままだと言っているんです。でも正確な法律こそが、Anthropicが不十分だと言っているものなんです。
なぜなら、合法であっても、合法だからといって正しいわけではないからです。だから我々はそれらの安全装置を設置したいと。技術が良くなるにつれて、彼らがそれをできないように。
つまり、もしカイルがここで正しくて、OpenAIの取引が本当に弱いものであり、事前ではなく事後の人間の責任であり、それを超えた保護ではなく既存の法律であるならば。サム・アルトマンは日和見的にAnthropicの契約を取っただけではないように見えます。
彼はそれの薄められたバージョンを取って、同等に見せるために同じ言葉で飾り立てた可能性があるんです。そしてそれが人々を狂わせるようなことなんです。
技術的および法的な監視と責任の違いを理解している人々がいます。そして彼らはこのスレッドを読んで、それが何を意味するのか即座に理解するでしょう。
注意深い言葉遣いのツイートでその違いを覆い隠すことはできません。そしてこれが、OpenAIによって行われたこの全てが、このブランドへの消費者の信頼をさらに低下させるだけだと私が言った理由です。
人材流出の懸念
多くの人々が、これが実際にOpenAIからAnthropicへの大量人材流出につながる可能性があると述べています。
今まではAnthropicの原則を、良く聞こえるけれど、ある意味でまだ試されていない空虚な約束として片付けることが可能でした。確かにAnthropicはClaudeにインターネットへのアクセスを与えるなどの特定の機能を、追加の安全テストを追求するために遅らせてきましたが、本当の圧力が来た時にそのアプローチが持ちこたえるかどうかは明確ではありませんでした。
しかし今、答えは明確です。Anthropicは原則を持つ組織であり、有言実行する意思があるんです。そしてダリオは、サム・アルトマンを含む他の全ての著名なテックリーダーを服従させた政権に立ち向かうでしょう。
そして彼は言います。個人的に、AIが世界にとって何を意味するのか恐怖を感じています。どんなに原則的であっても、誰が船を効果的に操縦できるのか確信が持てません。しかし、もし誰かに船を託さなければならないとしたら、それはダリオと、Anthropicで知り合った全ての素晴らしい人々です。
これなんです。これまでOpenAIを去る人々を見てきました。AnthropicがどのAIラボよりも最も高い定着率を持っているという事実を見てきました。それは彼らが正しいことをしようとしている会社だと私が信じているからです。
もちろん、何百万ドル、何十億ドルもの価値がある時、特定のルールや規制に目をつぶることは非常に簡単になります。そして、企業用語や専門用語などの建前の下でと言うだけです。
しかしAnthropicは少なくともある種の倫理を持っていることが非常に明確で、彼らはそれを守る意思があります。
先ほど言ったように、これらのAI企業に対する見方は変化しています。そしてそれはリアルタイムで変化しています。そして言わなければなりませんが、これは長年にわたって連続的に失ってきた信頼という点で、OpenAIにとって良い兆候ではありません。
確かに今は契約を獲得するかもしれませんが、これは将来的に彼らにとってあまり良くないと思います。つまり、このツイートを見ることができます。「いつから我々はOpenAIの従業員をPalantirの従業員を見るように見始めるのか」と。
Palantirとの比較
Palantirの比較は本当に鋭いです。なぜならPalantirは実際に、テック業界の採用サイクルにおいて汚い言葉になったからです。Palantirの従業員との面談を受けないエンジニアがいます。彼らを紹介しない人がいます。それをあなたの価値観における汚点として扱う人がいます。
そしてそれは、かなり小さく相互接続された業界において、静かに展開される現実の社会的結果なんです。
そしてこのツイートが特に刺さるのは、Axiosの詳細です。国防総省はOpenAIの条件を受け入れましたが、それは本質的にAnthropicのものと同一でした。
Anthropicが困難でイデオロギー的であるという全ての枠組みは、かなり崩壊しました。状況全体を見れば、政府は政治的に好む企業から同じ条件を受け入れたということです。つまり、それは条件についてではなかったということです。
これはOpenAIの従業員を本当に不快な状況に置きます。なぜなら彼らのリーダーシップは、公的には原則を共有すると主張し、私的にはそれらの同じ原則を交渉し、そして競合他社がその線を守って破壊された瞬間に取引を受けるということを示したからです。
安全性を気にかけるOpenAIの従業員、そしてOpenAIにはそのような従業員が多くいます。彼らは今、Anthropicのブラックリストをビジネスチャンスとして利用した会社で働くことを調和させなければなりません。
サム・アルトマンがCNBCでダリオ・アモデイを信頼していると言っている間に。
先ほど言ったように、これがPalantirレベルの汚名に達するかどうかは、OpenAIが次に何をするかに完全に依存しますが、種は蒔かれました。
そして先ほど言ったように、ここでサム・アルトマンはすでにコミュニティノートを付けられているのが見えます。政府当局者はアルトマンの主張を否定し、OpenAIが国防総省に全ての合法的な目的のためにモデルを使用させると言っています。そしてこれは、Anthropicが関与を拒否した用途、すなわち大量監視ツールと人間の監視なしの兵器を可能にする可能性があります。
消費者の反応
だからこそ私は、全体を見ると、1つの投稿でOpenAIの道徳的崩壊を好意的に評価する多くの人々がいると言うんです。
OpenAIのサブスクリプションをキャンセルしてClaude Maxにアップグレードしたという人が多くいます。そして私は、これはOpenAIにとって良い見た目ではないと思います。
確かに契約を獲得するかもしれませんが、大衆を味方につけることは、お金で買えないものです。そしてOpenAIは何度も何度も、利益を何よりも優先する意思があることを示してきました。
そして私は知っています。はい、彼らはおそらくプライベート投資家からも多くの精査を受けている民間企業です。VC界の多くの人々が、一体どのようにして彼らがこのお金を使うのか疑問に思っています。
しかし、公的に評判を焼き尽くすことなく、実際に目標を達成する方法で行えると思います。
別の人がツイートしているのが見えます。アルトマンは信じられないほどの裏切り者、嘘つき、裏切り者だ。競合他社が英雄的で原則的な立場を取っている間に、あなたは取引をするために忍び込む。この男のために働くことを想像してみてください。これ以上の恥があるでしょうか。これはOpenAIからの大量流出につながるはずです。
覚えておかなければならないのは、これがかなり悪いタイミングで来ているということです。なぜなら、個人がOpenAIをどう見ているかというより広い枠組みに注意を払っていなかったなら、すでにQuit GPTムーブメントがあり、人々にChatGPTサブスクリプションをキャンセルするよう促していたからです。
このムーブメントは、OpenAIの共同創設者であるグレッグ・ブロックマンが基本的にトランプの選挙運動に2500万ドルを寄付したという事実から生まれました。そして多くの人々がこれにかなり動揺しました。
そしてそこから生まれたムーブメントは、不満が積み重なるにつれて燃料を得続けています。実際に彼らのInstagramを見ました。動画は何百万回も再生されています。そして多くの人々が、第一に、ChatGPTは道徳的に良い会社には見えないという事実の周りに結集しています。道徳的に、彼らはかなり破綻しているように見えます。
そして他のAI企業が実際にさらに良いオファリングを持っているという事実を見ると、このサイクルは繰り返し続けます。
別のツイートがあります。私は初日から忠実なOpenAI派でした。彼らが最初にリリースしてからアカウントを持っていて、GPT-3.5以来毎日使っています。サム・アップマンが今夜、AnthropicがしないであろうDoD国防総省の条件を受け入れる動きをしたことに基づいて、私は全てのデバイスから全てのCodexとOpenAIソフトウェアの痕跡を削除します。
これをするのは本当に嫌なんですが、短期的に生産的である能力を本当に損なうことになります。しかし今、私の頭の中で警報ベルが全開で鳴っています。これは世界がこれまでに見たかもしれない最も悪質なプライバシー侵害でなければなりません。
そして私は、アルトマンはあまりにも多くのドル記号を見て、この動きがどれほど明白に見えるか気づかなかったのだと思います。しかし今、OpenAIが妥協されたことは私にとって明らかです。ここからの次のステップが何になるか分かりませんが、信頼は完全に失われました。非常に残念です。
そしてここに、政権による確認が見えます。OpenAIの契約にはAnthropicが拒否した全ての合法的使用という文言が含まれています。サムの巧みな言葉遣いはさておき、それはトランプまたは将来のリーダーが自律兵器またはAIによる大規模国内監視を承認する扉が今ここにあることを意味します。
もちろん、これは本当に良い状況ではありません。
Anthropicへの支持の高まり
今、何が起こっているのかを見てみると、Anthropicが圧倒的な量の支持を受けているのが見えます。つまり、サンフランシスコのAnthropicの外を見ると、多くの人々がチョークで「立ち上がってくれてありがとう。ありがとう。私たちはあなたを愛しています。神はAnthropicを愛しています」と書いています。
つまり、Anthropicの周りにこれ以上支持的なコミュニティを求めることはできません。そして彼らは自分たち自身に感謝するしかありません。なぜならアメリカの価値観のために立ち上がること、そして彼らが言おうとしているその価値観、その2つのことは、実際に法律を見ればとにかく違法であることを考えると、それほど狂っているわけではないからです。
それほど大きな問題には見えません。しかし私が推測するに、先ほど言ったように、何百万、何十億ドルを扱うそのレベルでは、そのレベルのほとんどの個人は、単純にドル記号だけを気にかけるんです。
だから倫理を持つこと、特に道徳を持つことが何を意味するのかを本当に示すことができるAnthropicのような人がいる時、それがいかに圧倒的なコミュニティサポートに変換されるかが分かります。
投稿は100万回の閲覧、25,000のいいね、4,000のリツイートがあります。そしてもちろん私はこれをリツイートしました。なぜなら、この会社をサポートすることが重要だと思うからです。彼らは全ての倫理に焦点を当てているように見える唯一の会社だからです。そしてもしかしたら、それが最終的に彼らを勝利に導くかもしれません。
さて、ここで話したいことは、これが今後数ヶ月でどのように展開するかです。
ここに誰かがツイートしているのが見えます。ClaudeがiOSアプリストアで2位にジャンプしました。1ヶ月前の129位から上昇です。
無料アプリセクションでは、通常ChatGPTと他のアプリによって支配されていました。しかしClaudeが2位であることはかなり驚きです。なぜなら先ほど言ったように、1ヶ月前は129位だったからです。
消費者離れの影響
しかし私が尋ねたい質問は、多くの人々が製品の使用を止めた場合、消費者収入はこれらの大企業にとって実際に重要なのかということです。
なぜなら実際に考えてみると、OpenAIの現在の製品提供はかなり基本的で限定的です。そして彼らの多くのお金は、もちろん企業契約から来ています。つまり他の会社からです。
だから消費者が本質的にアンインストールしている時、ほとんどの人々は実際に、月20ドルを支払う平均的なユーザーは、彼らが最もお金を稼いでいる方法ではないと主張するかもしれません。
本当のお金は企業契約、それらのモデルの上に構築するビジネスからのAPI使用、そしてもちろん政府との取引です。
だから私は、アプリストアの瞬間は表面的には重要ではないかもしれないと思いますが、もう少し重要かもしれません。なぜならCTOが自分の製品を構築するAIを決定する時、彼らは文化的勢い、開発者のマインドシェア、そしてもちろんブランドの信頼を持つものを望むからです。そして消費者の認識は、それらの企業決定に直接フィードインします。
1ヶ月で129位から2位へのジャンプは、本当に何か深いことを物語っています。Claudeを知っているが、ChatGPTよりも使う本当の理由を感じたことがなかった通常の個人の大規模なオーディエンスがいます。そして今日、それは彼らに理由を与えたようなものです。
Anthropicは政府にノーと言ったAIになりました。そして多くの人々にとって、それは製品がより良いかどうかに関係なく、はるかに説得力があります。もちろんClaudeはそうですが。
Anthropicのビジネスにとっての本当の質問は、ニュースサイクルが進む前に、この文化的瞬間を開発者の採用と企業取引に実際に変換できるかどうかです。なぜならアプリストアの誇大宣伝は消えるからです。
失われるのは、昨日よりもブランドを信頼しているからClaudeの上に構築している企業があるかどうかです。そして私たちが疑問に思っているのは、OpenAIの収入が皆がアンインストールすることで打撃を受けるかどうかです。短期的には、実際にはそうは思いません。
彼らの収入は実際に企業とAPIによって支配されています。消費者感情はこの時点で基本的にノイズです。しかし人々が過小評価するスローバーンリスクがあります。
開発者は非常に重要です。スタートアップを構築している人々、先ほど言ったように、それらの人々は非常に重要で、それらの人々は本当の意見を持っており、彼らは実際に今日サムマンがしたことを見ました。
そしてそれらの人々は今後12〜18ヶ月にわたって忠誠心を移していくでしょう。これは通常のユーザーからの怒りのツイートが単純にそうではない方法で、OpenAIにとって非常に危険です。
OpenAIの過去の危機
そしてもう1つかなり注目すべきことは、OpenAIは以前に大規模な公的憎悪を乗り越えてきたということです。サムマンの解雇と再雇用は、彼らを完全に機能不全な混乱に見せる完全なサーカスでした。
しかし彼らは商業的にはこれまで以上に強く出てきました。だからビジネスが、ほとんど他の消費者向け企業がそうではない方法で、公的認識から本当に隔離されているという本当の議論があります。
アンインストールは今日急増するでしょうが、おそらくプラトーに達するでしょう。ほとんどの人々は、それが彼らのデフォルトだからChatGPTを使い続けるでしょう。
彼らは知っており、AIツールの切り替えには摩擦があります。現時点でAIにおけるブランドロイヤルティは全体的にかなり弱く、人々は道徳的に承認するものではなく、最も便利なものを使う傾向があります。それが現実です。
しかしもちろん、時間が経つにつれて、OpenAIが金を稼ぐ主要な方法の1つはハードウェア製品を販売することだと私は知っています。
そしてもしそれらのハードウェア製品にほんの少しでも失敗があれば、全世界がOpenAIに否定的なPRを与えて大騒ぎするでしょう。そしてもちろん、それは彼らの将来の売上、将来のキャッシュフローに影響を与える可能性があります。そしてもちろん、それは良くありません。
つまり、文字通りケイティ・ペリーがClaude Maxにサインアップすると言ったところまで来ました。これはかなり狂っています。
つまり、ケイティ・ペリーが誰か、彼女のオーディエンスが何かを考えると、それは典型的なClaudeユーザーではありません。それは主流のアメリカが突然、自律兵器のために軍に技術を使わせることを拒否したAI企業があることに気づいているということです。
そしてそれらの人々の大きな塊は、政治に関係なく、それを称賛に値すると感じるでしょう。
ピート・ヘグセスの攻撃
さて、この状況がピート・ヘグセスとどのように展開したか、そして彼が何を言ったか疑問に思っているなら、つまり、先ほど言ったように、トランプだけではなく、彼もでした。彼は完全に狂ったことを言いました。
そして彼は言いました。今週ロバートは傲慢さと裏切りの達人クラスを披露し、アメリカ国防総省とビジネスを行う方法の教科書的事例でもありました。
そして、反対は決して揺らいだことがなく、決して揺らぐことはないと言っています。国防総省は、共和国の防衛におけるあらゆる合法的目的のために、Anthropicのモデルへの完全かつ無制限のアクセスを持たなければなりません。
代わりに、AnthropicとCEOは、効果的利他主義の聖人ぶった修辞に包まれた二枚舌を選び、アメリカ軍を服従させようと試みました。シリコンバレーのイデオロギーをアメリカ人の命より上に置く、臆病な企業の美徳シグナリング行為です。
そして彼らは、彼らの真の目的は明白であり、アメリカ軍の作戦決定に対する拒否権を握ることだと言いました。
つまり、私はここで読むのを止めなければなりません。なぜなら、軍に対する拒否権を握るという枠組みは、ここで莫大な修辞的作業を行っているからです。それは恐ろしく聞こえますが、完全に不誠実でもあります。
政府にソフトウェアを販売する全ての企業は、利用規約を持っています。Microsoft、Google、Palantir、Lockheed Martin、彼ら全員が契約に使用制限を組み込んでいます。誰もそれを軍に対する拒否権を握ることとは呼びません。
Anthropicが2つの特定の制限を持つことは、政府がこれまで持ってきた他のベンダー関係と本質的に異なるわけではありません。
効果的利他主義攻撃はかなり興味深いです。なぜならそれは、効果的利他主義をシリコンバレーのエリート主義と関連付ける人々において、文化的反応を引き起こすように特別に設計されているからです。
それは実際には全く議論に関与していません。それはただ、Anthropicを場違いに聞こえさせるラベルを攻撃しているだけです。神を演じようとしているテックブロスです。
つまり、政治的立場に関係なく、ここで本当に私を不快にさせることは、ヘグセスが決定は最終的だと言い、その数時間後に彼らがOpenAIから同じ条件を受け入れたということです。
だから、決定が最終的でなかったか、条件が実際には問題ではなかったかのどちらかです。
これらのオプションの両方が、声明を軍の即応性に関する原則的な立場ではなく、特定の企業を破壊するために設計された政治劇に見せています。
そしてもちろん、このサガ全体で最も呪わしい言葉は、より愛国的なサービスです。なぜならそれは、アメリカの全てのAI企業に、政府契約はもはや能力、安全性についてではなく、政治的整合性についてであることを明示的に伝えるからです。
それを考えると、かなり恐ろしいです。
Anthropicの断固たる姿勢
さて、Anthropicは本当に気にしていません。彼らは今日早く言いました。ピート・ヘックスがXで、彼がAnthropicをサプライチェーンリスクに指定するよう国防総省に指示していることを共有しました。そして数ヶ月の交渉の後、我々はこれらの展開に深く悲しんでいますが、もちろん、Anthropicはまだ二重に賭けています。
そして先ほど言ったように、功績は功績として認めなければなりません。彼らは言いました。国防総省からのどんな脅迫や罰も、大規模国内監視または完全自律兵器に関する我々の立場を変えることはありません。我々はあらゆるサプライチェーンリスク指定を法廷で争います。
そして先ほど言ったように、Anthropicには敬意を表さなければなりません。彼らはここまで進む意思があり、彼らが要求していることはそれほど狂っているとは思いません。
さて、多くの人々が疑問に思っている最大の質問の1つで、これは深刻な質問であり、この段階に到達していることはかなり憂慮すべきです。そしてもしAnthropicがこれを生き延びられなかったら、私は本当に深く不満で動揺するでしょう。
彼らは生き延びると思いますが、無傷では出てこないと思います。
だからディーン・W・Bからのこのツイートを見ると、このツイートは本当にあなたの心を、すごいこれは深刻な状況だという状態に置くはずです。なぜならこれはランダムな人ではなく、アメリカ政府がAIへの投資不可能にしたと声を出して言っている、深刻なAI政策サークルにいる人だからです。
ディーン・W・ボールによるツイートがここにあり、彼は言っています。もしヘグセスが思い通りにするなら、Nvidia、Amazon、GoogleはAnthropicから撤退しなければならないでしょう。これは単純に企業殺人未遂です。私は投資家にアメリカのAIへの投資を推奨することは全くできませんし、アメリカでAI企業を始めることを推奨することも全くできません。
だから考えてみてください、これは深刻なんです。
投資への影響
Amazonの角度は、十分に話されていないものの1つです。AmazonはAnthropicに何十億ドルも注ぎ込んでいます。そしてもしサプライチェーンリスク指定が保持され、防衛請負業者がAnthropicとビジネスができなくなったら、Amazonには問題があります。
なぜならAmazon Web Servicesは、政府および軍の契約で絶対に溢れているからです。彼らは、AWSの政府ビジネスとAnthropicへの投資の間で選択することを法的に強制される可能性があります。
そしてそれは、国防総省契約をはるかに超える絶対に莫大な結果です。Googleも同じです。Nvidiaも同じです。
彼らは静かに政府の指定を無視できる小さなプレーヤーではありません。彼らの法務およびコンプライアンスチームは、これについて非常に神経質になるでしょう。
そして彼が指摘しているより広い冷却効果は本物です。アメリカの全てのAI創業者は、政府が利用規約に倫理的ガイドラインを持つ企業に対して刑事告発を脅すのを今日見ました。
そしてそれは、ヨーロッパやカナダのAIエコシステムを、企業の生存が政治的気まぐれに左右されないことを望む創業者と投資家の両方にとって、より魅力的に見せるようなことなんです。
そしてここでの皮肉は、アメリカがオープン市場のおかげで部分的にAIレースに勝つはずだったということです。しかし今日、AI企業に対する権威主義的政府統制は中国だけの問題ではないという議論をしました。
覚えておいてください、これはランダムな人からのランダムな声明ではありません。ディーン・Bはランダムな批評家ではありません。彼は文字通り、トランプホワイトハウスの内部でシニアAI政策顧問として働いていました。彼はトランプ自身のAI行動計画を書く手助けをしました。
これはインサイダーです。政権とイデオロギー的に整合しており、彼らがAIで何をしようとしているのかを信じていた人です。そして彼でさえ、これは彼が擁護できない線を越えていると言っています。
だから、あなたのAI戦略を構築するのを手伝った人が、もはやアメリカのAI企業への投資を推奨できないと言う時、それは党派的攻撃ではなく、議論の両側で信頼性を持つ誰かからの警告アラームなんです。
Anthropicの存続可能性
さて、Anthropicは終わったんでしょうか。これがほとんどの人々が議論している質問だからです。もし人々がそれに投資できず、政府とビジネスをしている場合にビジネスができないなら。Anthropicはどれほど困窮しているんでしょうか。
つまり、ここのツイートを見ることができます。Anthropicは終わったと言っています。なぜなら、たとえ法廷で勝ったとしても、何年もかかり、その過程で財政的に破滅するからです。
投資家は、政権の悪い側に立ちたくないので撤退するでしょう。ダリオ・アモデイは今日彼の会社を破壊しました。
つまり、これについて考えると、彼らは終わっているとは思いません。なぜなら国防総省の契約だけで最大2億ドルの価値がありました。つまりAnthropicは2024年だけで73億ドルを調達しました。だから彼らはこれだけで破産することはありません。
しかし彼らの最大の顧客は企業と消費者です。そしてもちろんAmazonは大規模な投資とパートナーシップを持っています。だから軍はただの1つの収入源です。
しかし彼らは法廷でそのサプライチェーン指定に異議を唱えるつもりです。そして彼らは実際に勝つかもしれません。なぜならこの指定は外国の敵対者のために法的に意図されており、アメリカ企業のためではないからです。
そしてEUやイギリスのような他の政府や他の政府は、自律兵器の圧力に立ち向かったAI企業を好む可能性が高いでしょう。
しかしこれは本当に傷つくでしょう。なぜなら国家安全保障リスクとラベル付けされることは、企業販売にとって評判的に壊滅的だからです。全てのアメリカ防衛請負業者は今、彼らを使うことを禁止されています。
大規模なエコシステム問題であり、この政権下で将来アメリカ政府とビジネスをすることが非常に困難になる可能性があることを示しています。
だから皆さんはこの状況をどう思いますか。これは最も興味深い時期の1つだと思います。OpenAIはただ忍び込んで、Anthropicを支持しているように見せかけ、それから彼らはすぐに進んでその取引に署名し、もちろんさらにAnthropicを不利な立場に置きました。
もちろんAnthropicとOpenAI、彼らは正確にチームメイトではありませんが、同時に、OpenAIが基本的にアメリカ政府に「見てください、あなたは基本的に何でも好きなことができます」と言う青信号を与えられたことはかなり懸念されます。
アメリカ政府はとにかく彼らの思い通りになっただろうから、今すぐ署名した方がいいと主張する人もいるかもしれません。しかし同時に、つまり、状況全体がこの時点で明らかに政治的です。
そして私は、モデルがますます有能になるにつれて、AIシステムが本質的により政治的になる状況がさらに見られるだけだと思います。なぜなら先ほど言ったように、知性は本質的に近い将来、武器と同じになるからです。
最終的に、AIは地球上で最も強力な武器になるでしょう。だからそれをコントロールする者が、最も権力を持つ者になるでしょう。そして今はそのように見えないことは分かっていますが、もしAI開発が続くなら、つまり、過去100年間の技術、社会がどれだけ進化したかを見てください。AIは好むと好まざるとにかかわらず、明らかに政治的になるでしょう。
だから、もし皆さんがこのビデオを楽しんだなら、皆さんのコメントと考えを知りたいです。


コメント