OpenAI対Anthropic:国防総省はいかにしてパートナーを選んだのか

AI規制・制度
この記事は約23分で読めます。

国防総省とAI企業の間で前例のない緊張が表面化した。Anthropicは大量国内監視と完全自律型兵器への利用禁止という二つのレッドラインを掲げて国防総省との契約交渉を決裂させ、サプライチェーンリスク指定の脅威に直面した。その24時間後、OpenAIが同じ原則を掲げながら国防総省と合意に達したと発表し、業界に混乱が広がっている。この出来事は、強力なAI技術を誰が統制するのか、企業の倫理的立場と政府の要求をどう調和させるのかという根本的な問いを突きつけている。契約の詳細は不明瞭なまま、両社が主張する「同一の保護措置」の実態と、政治的圧力が技術企業に及ぼす影響の深刻さが問われている。

OpenAI Vs. Anthropic: How the Pentagon Picked Its Partner
On Friday, President Trump ordered federal agencies to stop using Anthropic’s A.I. systems and Defense Secretary Pete He...

AI業界を揺るがした48時間

今日はたくさん話すことがあります。なぜなら、AI業界ではこの48時間、本当に狂ったような出来事が続いているからです。国防総省とAnthropicの間の対立、そして土壇場でOpenAIが突然巻き込まれる形になったこの状況は、まさに予想外の展開でした。私にとっても、この1日半は本当に狂気じみた時間でしたよ。あなたはどうでしたか?

そうですね、リスナーの皆さん、こう考えてみてください。婚約したと思ったら、1週間後に婚約者がサプライチェーンリスクだと宣言されるんですよ。だから本当に、この数時間はものすごくクレイジーでした。

これって婚約を解消しなきゃいけないってことですか?

絶対にありえません。ピート・ヘグセス程度のことで、この愛が壊れることはないですよ。

今日はAnthropicとOpenAI、そしてこの一連の出来事について話すので、AIに関する開示情報を述べておくべきですね。私はニューヨーク・タイムズで働いていますが、同社はOpenAI、Microsoft、Perplexityを著作権侵害の疑いで訴えています。

そうですね。そして過去1週間のもう一つの大きなAnthropicニュースを見逃した方のために言っておくと、私が婚約した相手はそこで働いています。

危機に至るまでの経緯

どこから始めましょうか、ケイシー?

そうですね。もしこの話を聞いている方がいれば、大きな見出しは知っているかもしれませんが、重要なポイントをいくつか整理する価値があると思います。一つは、私たちがここ数回のエピソードで取り上げてきたこの話が、危機的な状況に達したということです。Anthropicは越えられない二つのレッドラインがあると述べました。国防総省は同社をサプライチェーンリスクとして指定すると言いました。そして、それが起こってから24時間以内に、なんとサム・アルトマンとOpenAIが飛び込んできて、これらの保護措置を守る契約を結んだと発表したんです。本当に混沌とした24時間でした。掘り下げていく必要がありますね。

そうですね。しかもこれらのことは、通常の外交ルートを通じて起きているわけではありません。私が知る限り、この対立のすべては、X上のいくつかの投稿と、いくつかのブログ記事、そしてどちらかの側からリークされた情報の中で展開されているんです。

この2日間、私はこの状況に関わっている人々に電話をかけ続けて、情報を得ようとしてきました。いくらか情報は得られましたし、喜んで共有しますよ。でも、混乱が支配していると言わざるを得ません。この状況に直接関わっている人たちでさえ、詳細については混乱しているんです。だから、今起きていることについては、まだ多くのことが不明だということを、最初に言っておくべきだと思います。

その通りです。まずケビン、この話の中でかなりよく知られている部分、つまりAnthropicと国防総省の間で何が起こったのか、特に国防総省が「これではうまくいかない。あなたたちの要求は受け入れられない」と最終的に言った最後の数時間について振り返りましょうか。

Anthropicの最終声明

そうですね。このエスカレーションは2月26日木曜日に始まりました。基本的に、国防総省がAnthropicに与えた期限まであと1日というところで、AnthropicのCEOであるダリオ・アモデイが、Anthropicのウェブサイトに声明を出しました。その中で彼は、大量国内監視と完全自律型兵器という二つの例外について、どんなことがあっても妥協しないと基本的に述べたんです。

彼はなぜそれらについて妥協しないのかを説明し、そして多くの人が引用している一文を述べました。「これらの脅威は我々の立場を変えるものではない。良心に照らして、彼らの要求に応じることはできない」と。基本的に、我々にとって非常に重要なこれらの例外を維持しながら取引をまとめようとしてきたが、それができなかったということです。

そしてケビン、その引用が際立っていた理由の一つは、トランプが再選されて以来、何かをしない理由として良心を持ち出したテック企業のリーダーを私は記憶にないということだと思います。テクノロジーと権力をめぐる議論全体のトーンが変わったように感じられました。そして、シリコンバレーからしばらく見られなかったものでした。

そうですね。そして、この状況に近い人々に話を聞いて理解したことは、ダリオ・アモデイのこの投稿の後も、国防総省とAnthropicの人々との間で議論が続いていたということです。彼らは取引の輪郭を定めようとしていました。少なくともこれらの例外をめぐる言葉遣いの一部を変える意欲はあったようです。

トランプ大統領の介入

そうですね。これらの議論が国防総省とAnthropicの人々の間で裏で行われている間、金曜日の午後遅く、国防総省がAnthropicに与えた期限の直前に、トランプ大統領がTruth Socialに声明を投稿しました。彼は「アメリカ合衆国は、急進的な左翼を決して許さない」と述べました。

また、連邦政府の全機関に対して、Anthropicの技術の使用を直ちに停止するよう指示し、基本的に連邦機関がClaudeから他のモデルへ切り替えるための6ヶ月の段階的廃止期間を設けました。大統領が言及しなかったことの一つは、Anthropicをサプライチェーンリスクとして指定するという考えです。

そうですよね。これは前回の番組で話したことです。基本的に、これははるかに厳しい指定で、主要なアメリカ企業に適用されたことはおそらくないと思われます。通常は中国のチップサプライヤーやKaspersky Labのようなものに使われます。しかしトランプは、同社を供給チェーンのリスクとして指定するとは言いませんでした。

だから、Anthropicや他の場所の一部の人々は、オーケー、これは我々が受け入れられる取引だと思ったんです。政府との契約は失うことになるけれど、基本的に国家の敵のように指定されることはないと。

それだけではなく、ケビン、彼は国防生産法も発動しませんでした。これは私にとって真の最悪シナリオで、米国政府が事実上Anthropicを国有化または部分的に国有化し、政府の意向に沿ったバージョンのClaudeを作らせることになったでしょう。だから、Truth Socialの投稿を見たとき、私の最初の考えは、オーケー、たぶん彼らはこの惨事から手を引いて、面目を保とうとしているのかもしれないというものでした。

そうでしたね。そして、トランプのTruth Social投稿の1時間ちょっと後に、国防長官のピート・ヘグセスが、X上でこの件について自分の見解を投稿しました。その中で彼は、国防総省にAnthropicをサプライチェーンリスクとして指定するよう指示していました。

彼は「即座に発効する。米軍とビジネスを行う契約者、サプライヤー、パートナーは、Anthropicとのいかなる商業活動も行ってはならない」と述べました。これはかなり深刻なエスカレーションでした。そして、オーケー、たぶんAnthropicはサプライチェーンリスクとして指定されずに逃れられるかもしれないと思っていた人々は、やっぱりそうならないかもしれないと考えました。

そうですね。この記録の時点では、国防総省がAnthropicをサプライチェーンリスクとして指定する計画があるという唯一の証拠は、このソーシャルメディアの投稿だけですよね。私の理解では、Anthropicには新たな手続きについて通知されていませんし、Anthropicは法廷でそれと戦うと言っています。

だから、これは起こるかもしれませんし、もし起こったら何を意味するのかについても話すべきですが、現時点では単なる脅しである可能性もあります。

OpenAIの電撃的な契約締結

さて、一方で、このすべてがAnthropicと国防総省の間で起こっている間、OpenAIは政府の機密ネットワーク内で自社のモデルを使用するための独自の取引を国防総省と進めていました。木曜日にサム・アルトマンがOpenAIの従業員に送ったリークされたメッセージについて、いくつか報道がありました。その中で彼は基本的に、Anthropicと連帯していると示していました。これは非常に珍しいことです。なぜなら、これらの企業はお互いを好きではありませんし、彼らのリーダーたちも長い歴史を持っているからです。しかし基本的に彼は、OpenAIの従業員に対して、我々もこれらの例外について屈服するつもりはない、大量国内監視や完全自律型兵器に我々のモデルを使用させないことにコミットしている、とAnthropicについていくつか支持的なことを言っていました。

しかし1日後の金曜日の夜、AnthropicとPentagonの間の取引全体が壮大に破綻した後、サム・アルトマンはX上で、OpenAIが国防総省と合意に達し、機密ネットワークに我々のモデルを展開すると投稿しました。

基本的に、我々のモデルが国内大量監視や自律型兵器システムに使用されないという確信があり、国防総省がこれらの原則に同意し、それを我々の取引に盛り込んだと述べています。

これらが過去数日間の出来事です。そして、これらをまとめると狂気じみているように聞こえます。なぜなら、我々が実質的に持っているのは、OpenAIとAnthropicという二つの企業で、どちらも軍による自社製品の使用に関して同一のレッドライン、つまり大量国内監視と完全自律型兵器を主張しているからです。

そのうちの一つ、Anthropicは、サプライチェーンリスクと宣言されました。これは非常に懲罰的で厳しい措置で、基本的に米軍および連邦政府とのすべてのビジネスを断つことを要求するものです。もう一方のOpenAIは、Anthropicが反対した二つのレッドラインと同じものを持って、機密ネットワークでシステムを使用する契約を国防総省と締結したと発表しました。

だから、そこにはいくつかのニュアンスがあります。きっと詳細に入っていくでしょうが、事実を俯瞰して見てみると、本当に狂気じみた一連の出来事だと思います。

「合法的使用」基準をめぐる対立

その通りです。そして今、ケビン、あなたが持ち出したこのニュアンスについて話すべきだと思います。番組の冒頭で言ったように、ここには不確実性があります。ケビンと私は、AnthropicとOpenAIが軍と結んだ契約を確認することを許可されていません。ぜひ見たいんですけどね。hardfork@nytimes.comです。

でも、私たちが伝えられることは、この対立は「すべての合法的使用」という基準に帰着するように見えるということです。覚えておいてください。国防総省は、今騒いでいるレッドラインを含むAnthropicと契約を結びました。それから自分たちのAI研究所に戻って、「ねえ、これを変更したい。合法的なことなら何でも使えると言ってほしい」と言ったんです。

書面上は素晴らしく聞こえます。問題はこうです。この国では、AIの使用を意味のある形で規制していません。そして過去の番組で話したように、国家プライバシー法もありません。これらが、Anthropicが、この強力な新技術をどう使えるかについて実際には法律がない国で、強力なAIシステムが軍に与えられた場合に何をするかもしれないかについて、非常に懸念するようになった理由の一つです。

国内監視については本当に興味深いですね、ケビン。国防総省は「まあ、我々は国内で人々を監視するつもりはない。それは違法だ」と言っています。ふむ。でも同時に、ケビン、今現在、他の連邦機関がソーシャルメディアの網を張り巡らせていて、この国に移民しようとしている人々のソーシャルメディアの投稿を調べて、政権を批判する投稿を見つけ、それを移民を許可しない口実として使っているんです。

今現在です。国防総省は「まあ、それは監視じゃない。移民プロセスの一部だ」と言うかもしれません。でもAnthropicの人々にとっては、「いや、いや、いや。リアルタイムですべてのソーシャルメディア投稿を調べられる強力なツールがあったら、それは我々が踏み込むことに不快感を覚える領域かもしれない」と言うでしょう。

そして、ここでAnthropicとOpenAIの違いが何かを理解し始めると思います。Anthropicは「我々はこれについて真剣だ」と言っています。そして、契約に少しの法律用語を書き込んで、従業員たちに戻って「心配しないで。何も悪いことはしない」と言えるだけのカバーを得ることは可能だと確信しています。

同時に、国防総省にはちょっとしたウィンク、ウィンクをして、国防総省がこれらのツールを使って、移民志願者のソーシャルメディアアカウントで彼らがやっていることとまったく同じことをできるようにするんです。だから私には、これがここで起こっていることに見えますし、対立のかなりの部分を占めているように思えます。

ケビン、あなたは週末中ずっと電話をかけていたんですよね。この分析についてどう思いますか?

そうですね、それが私の理解とほぼ一致しています。国防総省との合意を発表したとき、サム・アルトマンは、OpenAIが実際に何に合意したのかについて、解釈の余地を残す声明を出しました。

だから、これらの契約の実際の言葉遣いが公になることがあれば、非常に興味深いと思います。繰り返しますが、我々はhardfork@nytimes.comです。でも、この数日間、この件のあらゆる側の人々と話して分かったことは、OpenAIはこれを本質的に同一の制約のセットとして組み立てているということです。彼らは、大量国内監視や自律型兵器にモデルを使用することを要求するようなことには何も合意していないと考えています。

しかし彼の声明で、アルトマンは国防総省が「これらの原則に同意し、それを法律と政策に反映させ、我々の合意に盛り込んだ」と述べています。だから基本的に、これを非常に注意深く解析すると、彼は国防総省が言ってきたこと、つまり違法だから大量国内監視はしないということを言っているだけです。

そしてAnthropicがずっと主張してきたことは、実際には、現在の法律の書かれ方では違法ではない大量国内監視の形態があるということです。だから我々は、我々のシステムがそういったことにも使われないようにしたいんです。

それだけではありません。アモデイは、交渉中にAnthropicにも同様の譲歩が提案されたが、国防総省はそれらの提案された譲歩に「それらを無効にする法律用語」を添えたと述べています。これは、この機関の次官たちがX上で言っていることと完全に一致しています。彼らは、民間企業に戦争の仕方を指図させるつもりはなかったということです。

だから非常に重要だと思うのは、Anthropicが我々に言っているということです。「ねえ、我々にも非常に似た取引が提案されたけれど、それはOpenAIが今あなたたちを守られていると言っているような形では、アメリカ人としてのあなたを守るものではなかった」と。

政治的報復か実質的な違いか

そうですね。つまり、すべてを煮詰めると、基本的に二つの選択肢があると思います。一つは、政権と国防総省がAnthropicに対して政治的な私怨を持っているということです。国防総省当局者のXアカウントから出てくる声明には、彼らは皆、愛国心のない目覚めた左翼だというような言葉がたくさんあります。

そして、これはスタイルやトーン、性格に関するものだという感覚があると思います。国防総省の次官の一人であるエミール・マイケルは、この取引を交渉してきた人物ですが、ダリオ・アモデイのことが全く好きではないことが明らかです。実際、複数の人からそう聞きました。この二人の間には特に悪い因縁があるようです。

だから、それが選択肢の一つです。これは純粋に政治的な報復だということです。OpenAIがこの契約に選ばれたのは、政権が彼らをより好んでいるからであり、これら二つの企業が合意したことの間に実質的な違いはないということです。

もう一つの選択肢は、OpenAIがAnthropicが合意しなかったことに合意したということです。これらの合意には実質的な違いがあり、OpenAIはあなたが言うところの法律用語を使って、これを勝利として組み立てているけれども、実際にはAnthropicが反対したことに譲歩したということです。

だから、これら二つのうちどちらがより真実かはまだ分かりませんが、この状況の誰も、たぶん国防長官を除いて、知らないと思います。

そうですね。つまり、あなたが言ったことについて、本当に重要なことが二つあります。一つは、ディーン・ボールが言ったところの「企業殺害の試み」を連邦政府がイデオロギーだけに基づいて犯そうとしているという考えです。ディーン・ボールはトランプ政権のメンバーで、現在のAI政策の策定を手伝いました。

選挙で選ばれた当局者が、我々とは異なるイデオロギーを持っているからという理由で、契約を奪い、サプライチェーンリスクに指定し、他の人があなたのために働くことを防ごうとすると言っているのを聞くのは、本当にクレイジーです。

そうですよね。だから正直に言って、ケビン、これは中国政府がテック企業を規制する方法です。党に賛同するか、彼らがあなたを潰すかのどちらかです。だから、それは本当にぞっとすることだと思います。そして繰り返しますが、私だけでなく、トランプ政権の元メンバーにとってもそうです。オーケー。それは本当に重要だと感じます。

あなたはどう思いますか?

いや、私は米国政府がアメリカ企業に対して懲罰的な行動を取った歴史的な例を振り返ってきましたが、AnthropicとPentagonとのこの戦いは、かなりの差をつけて、今世紀、おそらくこれまでで、米国政府が主要なアメリカ企業に対して取った最も懲罰的な行動だと言っても安全だと思います。

この政権が、テクノロジーセクターの企業をいじめたり、強引に説得したり、顎で指図したりするのを見たことがあります。特定の企業が政府とビジネスをすることをブロックしようとするのを見たことさえあります。しかし、私が知る限り、契約上の紛争とイデオロギーの違いのために企業を殺そうとするのは見たことがありません。

しかし、もちろん、これがシリコンバレーのほぼすべてが過去2年間で右傾化した理由です。ティム・クックがトランプ大統領に金のトロフィーを贈っている理由です。OpenAIのグレッグ・ブロックマンがトランプの政治活動委員会に2,500万ドルを寄付している理由です。

これらの人々と一致していないと、彼らがあなたを潰そうとするという感覚があるんです。しかし今まで、トランプ政権が実際に企業を潰そうとするのを見たことはありませんでした。でも今は見ています。そして、これがシリコンバレー全体にどんな萎縮効果をもたらすか、想像できません。

従業員の反発と企業の対応

ケイシー、過去数日間に見られた従業員の活動について、あなたの見解を聞きたいです。OpenAIやGoogle DeepMind、他の主要AI企業の一部の従業員が署名した公開書簡や嘆願書のようなものがありました。基本的に、我々もAnthropicと連帯している、我々も大量国内監視や自律的殺戮のためのツールを作りたくない、ダリオ・アモデイが取った立場に連帯を表明するという内容でした。

これは意味があると思いますか? これらの企業が行っている決定の一部を推進しているものの一部だと思いますか? これは過去にも真実でしたから。これらの企業の従業員は、軍事契約のようなものについて多くの影響力を持ってきました。

非常に意味があると思います。OpenAI、Google、DeepMind、そしてAnthropicには、本当に最も恐ろしいAIシナリオが現実化することを望まない、非常に善意のある人々がたくさんいます。だから、彼らがリーダーシップに行って「我々はこれに参加しない」と言っていることは重要です。

これらの従業員が、雇用主が署名している契約を手に入れて、本当に精査することを願っています。もし自分たちの技術が実際に国内監視のように見えるものに使われていることが分かったら、内部告発することを願っています。技術が向上し、国防総省が今日はしないと言っていることを潜在的に行うようになる今後数年間、我々は本当にこれらの従業員に頼る必要があります。

そうですね。もう一つここで注目すべき重要なことは、サム・アルトマンとOpenAIが、これを自分たちの従業員に対して、国防総省の要求に単に屈服しているだけではないことを示唆するような方法で、非常に慎重に説明しようとしているということです。

OpenAIは自社の従業員に対して、大量国内監視や自律型兵器へのシステムの使用から守るという点で、Anthropicが持っていたものよりも実際に強力な取引を得たと考えていると言っています。

何人かの人々が、これについてのサム・アルトマンの投稿の中の一行、彼が「安全スタック」と呼んだものを作ると言っている部分を指摘しました。基本的に、国防総省が機密状況で使用するモデル自体に組み込まれた一連の保護措置で、彼らが懸念している用途、おそらくChatGPTの使用を本質的に防ぐものです。

契約の実態と懸念

そうですね。ちなみに、これはブライアン・クランストンの画像を作れないようにSoraに保護措置を構築すると言った同じ企業ですよ、ケビン。だから、OpenAIが保護柵を構築すると言っても、実際には時間通りに現れないことがあるとだけ言っておきます。

そうですね。これは基本的にセキュリティ劇場だと言う人々とも話しました。アメリカ人について収集した、またはデータブローカーから購入した大量のデータをAIモデルに投入すると、その情報が合法的に収集されたかどうかを判断することはできません。その情報がどこから来たのかを判断することもできません。だから、これは本当に意味のある変更ではないんです。

そのポイントを強調させてください、ケビン。本当に重要だからです。データブローカー企業が何百万人ものアメリカ人に関するデータを購入することは合法であり、連邦機関がそのデータを購入することも合法です。

さて、それは法的基準では国内監視を構成しませんが、機能的には同等です。だから、これがここでの全体の勝負どころなんです。国防総省は、実質的に国内監視と呼べることをするために必要なすべてのツールをすでに持っています。データブローカーからアメリカ人に関するデータを購入することが合法だから、そう呼ばれていないだけです。

だから、私たちがこんなに深く入り込んでいることは理解しています。でも、今日このエピソードをやりたかった理由は、あなたを説得するためです。これは非常にハイステークスなことです。影でなされていて、ニュアンスが本当に、本当に重要なんです。

そうですね。詳細とニュアンスが今、物語全体が存在する場所だと思います。そして、これは非常にハイステークスです。だから、表面的には、これはAI企業間のある種の退屈な契約論争のように見えるかもしれませんが、これは本当に技術を誰がコントロールするかという根本的な問いについてなんです。

技術を構築する人々なのか、それともその技術が構築される国の軍隊や政府なのか。そして、それがここで議論されている高レベルの問いだと思います。そして、それは国防総省とAnthropicが意見の一致を見なかったものです。

AIの脅威と規制をめぐる深刻な懸念

つまり、この話は、ケビン、あなたと私がAIはすべて誇大広告で偽物でバブルが崩壊しようとしているという側にいなかった理由そのものですよね。私たちはこれらのシステムがリアルタイムで改善するのを見ました。

ソーシャルメディアデータ、位置情報データ、そして大規模な新しい抑圧システムを潜在的に作り出す可能性のある他のデータの即座の分析ができるような立場にすぐになることを知っていました。そして今、我々はそれらのシステムが、それらを規制する法律がないので「すべての合法的使用」と呼ばれる政策の名の下に潜在的に展開される瀬戸際にいます。

だから、本当にこれ以上に深刻なことはありえません。そして今日これについて話す機会を得られて嬉しいです。でも、もう一つ持ち出したいことがあります。それは、サム・アルトマンが今這い出したかもしれない崖っぷちについてです。

彼の声明を読んでいると、私が知っていることと照らし合わせようとしています。番組の前半で話していましたよね。つまり、国防総署が、絶対にしない二つのことがあるという理由で一つの企業を追い出そうとしたのと同じ日に、別の企業と契約を結び、二つのことを絶対にしないという合意をしたと言っているんですよね。それを整合させるのは本当に難しいです。

それでも、あなたと私は二人ともサムを長い間取材してきましたし、彼が元同僚から受けた批判は、彼が人々に聞きたいことを言うということだったと知っています。これが2023年に彼が解雇された根底にありました。同僚たちが、この男は私に聞きたいことを言っている、一貫して率直ではない、そして私をこの永続的な混乱の状態に置いているだけだと言っていたんです。

そして今、それよりもはるかにハイステークスな瞬間に早送りします。なぜなら、短期的にはアメリカ人の大量国内監視を、中期的には、分かりません、3年か5年か誰が知っているか分かりませんが、自律的殺人ロボットを可能にしない取引に署名したというサム・アルトマンの言葉を信じなければならないからです。

それを指摘する理由は、ケビン、すべての場合において、最終的には真実が何であったかが常に明らかになってきたからです。そして私が願うのは、ここでの真実はサムがレッドラインを得たということです。どういうわけかピート・ヘグセスを腕相撲で倒して、ピート・ヘグセスが「オーケー、分かった、アルトマン。我々は本当に国内監視をしないし、本当に自律的殺人ロボットもしない」と言ったことを願います。

でも私の恐れは、無邪気さか欺瞞のどちらかによって、彼が我々を誤解させ、実際にはこれら二つの使用例が合法であるだけでなく、起こっているということを遅かれ早かれ発見することになるかもしれないということです。

規制の捕獲と今後の展開

そうですね。それはまだ大きなTBD(未定)だと思いますし、サム、もし聞いているなら、ぜひ来てこれについて話してくださいとも言いたいです。まだ多くの未知数があると思いますが、もう一つのポイントを持ち出したいと思います。

長年にわたるAnthropicへの大きな批判の一つは、規制の捕獲というこの考えについてでした。トランプ政権の非常に高い地位にいる人々を含む多くの人々が、Anthropicの強力なAIシステムのリスク、それらが加速している速度、それらが潜在的にできることについてのすべての警告や声明は、ある種の口実だったと信じています。

彼らは本当にこれについて誠実ではなく、ただ一連の厳しい規制を通過させようとしているだけで、現職としての地位を確固たるものにし、小規模なスタートアップや他の企業が彼らと競争するのを防ごうとしているだけだと。だから、規制の捕獲という言葉をたくさん聞いてきました。

これは私にとって規制の捕獲の例です。これは、最大のライバルと米国政府との間の非常に激しい紛争に入り込み、バイブ、魅力、おそらくいくつかのより良い政治的本能のように見えるものを効果的に使って、政府との関係を通じて取引を成立させた企業です。

だから、好きなように呼んでください。賢明な政治工作や交渉と呼んでください。この契約の取引をめぐる髪を裂くようなことと呼んでください。でも、これは効果的に、米国政府とビジネスをしたいなら、米国政府が設定した条件に基本的に従わなければならないことを企業が認識しているということです。これが規制の捕獲です。

教科書に載るような例です。

そうですね。では、ここからどこに行くのでしょうか、ケブ?

今後数週間、数ヶ月にわたって見ていこうと思っている未解決の問題がたくさんあると思います。その一つは、このサプライチェーンリスク指定に実際に何が起こるのかということです。

これは国防総署がAnthropicに対して行うと言っていることですが、ピート・ヘグセスの投稿以外に、それについての正式な言葉は実際には見ていません。また、それがAnthropicにとって実際に何を意味するのか、他のさまざまな政府請負業者とどのような関係を断つことを強制されるのかも完全には理解していません。

だから、それが一つの未知数のバケットです。Anthropicに対するこのサプライチェーンリスク指定のすべての法的および契約上の詳細です。また、他のAI企業がAnthropicが応じなかったことに合意するよう求められているもの、そしてAnthropicのものが拒否されている間にOpenAIのような企業が取引を通すために何をしたかもしれないかについても、まだ学ぶべきことがたくさんあります。

そして、これが消費者におけるこれらの企業の人気にどのような影響を与えるかという三つ目のバケットがあると思います。国防総省のここでの要求に非常に怒っている一部の消費者がChatGPTからClaudeに切り替えているという非常に初期の兆候が見え始めています。

そのユーザーの一人は、ポップスターのケイティ・ペリーだったようです。彼女がX上に、新しく購入したClaude Proプランのスクリーンショットを小さな赤いハートで囲んで投稿しました。

そうですね。ケイティ・ペリーは本当にAnthropicの従業員たちに、あなたたちは私のカリフォルニアガールズで、否定できないと言ったんですね。

そうですね。また言っておくべきなのは、これはまさにダリオ・アモデイが人生をかけて準備してきた種類の道徳的葛藤だということです。ダリオのお気に入りの本の一つ、彼がすべてのAnthropicの従業員のために買っていた本は『原子爆弾の製造』と呼ばれています。これは第二次世界大戦中のマンハッタン計画の非常に長い歴史です。

彼がAnthropicの従業員にこの本を読んでほしかった理由は、最終的に彼らが構築しているもの、AIモデル、チャットボットが、国家安全保障、政府、世界秩序の将来にとって、核兵器と同じくらい重要になると信じていたからです。そして彼は、彼らが深遠な道徳的、倫理的結果を伴う何かをしているという考えを彼らに植え付けたかったのです。

彼は、技術を構築するだけではないことを理解していました。十分に強力なものを構築すれば、政府はそれを使いたがり、彼らの条件で使いたがるということを。だから、これはまさに、彼が人々にマンハッタン計画についてのこの本を読むように言っていたときに想定していた対立の形だと思います。

あなたの言う通りだと思います。正直に言って、合理主義者たちやレス・ロング・コミュニティが2010年代初頭に行った多くの予測が実現し始めているのを見るのは、本当に驚くべきことでした。

政府と大手AI研究所との間のこの種の対立は、何ら具体的に予測されていたわけではありませんが、それでも我々がここに到達するだろうという考えはありました。そして今、その瞬間が到来したように思えます。ダリオにとっても、そして長い間これに取り組んできた他の多くの人々にとっても、非常に超現実的に感じられるに違いありません。ただ、そこから安全に抜け出せることを願っています。

コメント

タイトルとURLをコピーしました