中国によるAnthropic攻撃の全容解説

Anthropic・Claude・ダリオアモデイ
この記事は約12分で読めます。

AnthropicがDeepSeek、Moonshot、Minimaxの3つの中国AI企業による大規模な「モデル蒸留攻撃」を公表した。2万4000の偽アカウントと1600万回のやり取りを通じて、これらの企業はClaudeの能力を体系的に抽出しようとした。しかし、インターネットから無断でデータをスクレイピングしてモデルを訓練してきたAnthropic自身が、自社モデルの無断使用を非難することには皮肉な側面がある。この事件は、AI業界全体が抱える著作権問題、安全性の懸念、そして米中間の技術競争という地政学的な課題を浮き彫りにしている。

China’s Attack on Anthropic Explained
Here's a breakdown of the Anthropic vs. China DramaDiscover More:🛠️ Explore AI Tools & News: 📰 Weekly Newsletter:

モデル蒸留攻撃の仕組み

Anthropicがブログ投稿を公開して、DeepSeek、Moonshot、Minimaxという3つの中国企業を非難しました。これらの企業が協調的なキャンペーンを実施して、Anthropicの能力を盗もうとしたというんです。2万4000もの偽アカウント、1600万回ものやり取り、そしてプロキシネットワークを使ってアクセスしていました。Anthropicはこれを「産業規模の蒸留攻撃」と呼んでいて、国家安全保障の問題だとまで位置づけています。

このビデオでは、何が起こっているのか、なぜ重要なのか、そしてAnthropic自身がちょっと偽善的な部分についても指摘していきます。早速本題に入りましょう。

何が起こっているのかを本当に理解するには、モデル蒸留が実際に何なのかを分解する必要があります。

Anthropicのような企業があって、Claude Opusモデルを訓練しているとしましょう。このモデルを訓練するために、できるだけ多くの場所からデータを入手します。特に重要なのは、インターネットからスクレイピングすることです。つまり、インターネットをスクレイピングしてこのモデルを訓練します。書籍も使ってこのモデルを訓練します。基本的に入手できるあらゆるデータを使って、このOpusモデルを訓練するわけです。

これは非常に集中的なプロセスです。通常、これらのモデルを1つ訓練するのに数ヶ月かかります。だいたい90日から100日の範囲です。そしてこれらのモデルを訓練する際には、大規模なGPUクラスターを使用していて、この訓練に数億ドルのコストがかかります。研究開発費を含めて、単なる計算時間だけでなく全体を考慮すると、これらのモデルを訓練するのに数十億ドルかかると予測する人もいます。

企業がモデル蒸留を使用する場合、できるだけ多くの情報を取り込んでそれで全く新しいモデルを訓練するというこの全プロセスをやる代わりに、基本的にこのモデルに質問して応答を得るんです。つまり、学生のようなスクリプトがあるわけですね。Opusが教師です。

学生モデルが教師モデル、この場合はOpusにプロンプトを送信すると、Opusが学生モデルに応答を送り返します。最近のモデルのほとんどは思考モデルで、結論に至るまでの思考の連鎖を実際に見ることができます。つまり、学生モデルが教師モデルにプロンプトを尋ねると、学生モデルは実際の最終的な応答だけでなく、その思考の連鎖全体も受け取るんです。

だから実際にモデルがどのように考えているかを少し学ぶことができます。そしてこれが数十万回から数百万回繰り返されます。学生モデルがプロンプトを送信します。教師モデルがその思考の連鎖と応答を送り返します。そしてこれらのプロンプトと応答のペアが生成されるわけです。

Opusのような企業がより小さく速いモデル、たとえばSonnetやHaikuのようなものを作りたいとき、これがまさに彼らがやっていることなんです。最先端の最高のモデルを取って、それに蒸留プロセスを行い、プロンプトと思考の連鎖と実際の応答のペアを取得して、それからこの新しいモデルを訓練しに行くんです。

これをHaikuモデルと呼びましょう。このモデルは、インターネット中からスクレイピングされたこの膨大なデータ全体で訓練される代わりに、プロンプトと思考の連鎖と応答のペアだけで訓練されます。つまり、はるかに少ないデータを取り込んでいます。本質的には、このモデルが最初にスクレイピングしたすべてのものを詰め込まなくても、このモデルがどのように考えるかを学んでいるんです。

これは単純化しすぎですが、蒸留とは本質的にそういうことです。より大きなモデルの応答で訓練して、より大きなモデルがやることを模倣できるような小さなモデルを作ることです。AI企業はこれを常に行っています。繰り返しますが、Opus 4.6のようなモデルがあって、それからSonnet 4.6やHaikuモデルのような、より速く小さいモデルを得る場合。

これは、彼らがより大きなモデルに対してこのような蒸留プロセスを行ったからです。GPT-5.2があって、それからGPT-5.2 miniやGPT-5.2 Nanoがある場合も同じことが見られます。これらは、より大きな教師モデルから蒸留されたモデルです。この新しいモデルは、数ヶ月、数億ドルという訓練プロセスを経ることなく、この大きなモデルと同様の方法で動作することを学びます。

より大きなモデルと同様の結果を得るための、より速く、より安価な方法なんです。DeepSeek、Moonshot、Minimaxのような企業がこれを行うことが論争を呼ぶのは、ほとんどの企業が自社のモデルでこれを行っているからです。しかしこの場合、彼らは自分たちのモデルを訓練するためにこれを行っています。つまり、このプロセス全体が起こっているわけです。

Anthropicは数億ドル、場合によっては数十億ドルを費やしてこの巨大なモデルを訓練しています。そしてDeepSeek、Moonshot、Minimaxがやってきます。そして彼らは自分たちのものではないモデルに対してこのプロセスを行っているんです。技術的には、そもそもこのモデルにアクセスすることすら許されていない国で。

Anthropicが公表した攻撃の詳細

さて、蒸留が実際に何なのかわかったところで、Anthropicが主張したことを見てみましょう。2026年2月23日、Anthropicはこのブログ投稿「蒸留攻撃の検出と防止」を公開しました。3社すべてがほぼ同じ手口を使ってこれを行いました。偽アカウントとプロキシを使ってサインアップしたんです。

AnthropicはIPアドレスの相関関係、リクエストのメタデータ、インフラストラクチャ指標、そして場合によっては、自社のプラットフォームで同じ行為者と行動を観察した業界パートナーとの協力を通じて、誰がこれを行ったかについて高い確信を持っていると主張しています。つまり基本的に、彼らは誰がこれを行ったかを知っていて、それを裏付けるデータを持っていると主張しているわけです。

DeepSeekから始めると、彼らはDeepSeekがモデルと15万回以上のやり取りを行い、特に多様なタスクにわたる推論能力、Claudeを強化学習の報酬モデルとして機能させるルーブリックベースの評価タスク、そしてポリシーに敏感なクエリに対する検閲に安全な代替案の作成を標的にしたと主張しています。

つまり基本的に、彼らの新バージョンのモデルが中国の政府について何が言えて何が言えないかに関する中国の方針を尊重するようにしているんです。彼らは言っています。「私たちはまた、Claudeが反体制派の党指導者や権威主義に関する質問のような政治的に敏感なクエリに対して検閲に安全な代替案を生成するために使用されたタスクも観察しました。おそらく、DeepSeekの自社モデルを訓練して、検閲されたトピックから会話を遠ざけるためです。」

それからMoonshot AIがあって、AnthropicのClaudeと340万回以上のやり取りを行いました。彼らはエージェント的な推論とツールの使用、コーディングとデータ分析、コンピュータ使用、エージェント開発、コンピュータビジョンを標的にしました。彼らは複数のアクセス経路にまたがる数百の詐欺的なアカウントを使用しました。さまざまなアカウントタイプにより、キャンペーンを協調的な操作として検出することが彼らにとってより困難になりました。

しかし彼らはMoonshotの上級スタッフの公開プロファイルと一致させることができました。それからMinimaxがあって、1300万回以上のやり取りで群を抜いて最大でした。これは特にエージェント的なコーディングとツールの使用とオーケストレーションを標的にしました。彼らはこうも言っています。「Minimaxの活発なキャンペーン中に新しいモデルをリリースしたとき、彼らは24時間以内に方向転換し、トラフィックのほぼ半分を最新システムから能力を捕捉するためにリダイレクトしました。」

つまり、Minimaxが学生と教師の間でこの蒸留プロセスを行っている最中に、新しいモデルが登場し、Minimaxはプロキシを介してそのトラフィックすべてをこの新しいモデルにリダイレクトして、現在訓練中だったモデルではなく新しいモデルで訓練したんです。

Anthropicの偽善性

しかしここで、このすべてに少しニュアンスが入ってきます。誰の許可もなくインターネット中からスクレイピングしたデータでモデルを訓練することで有名な企業であるAnthropicが、振り返って誰かが自分たちの許可なく自分たちのモデルを使って情報を作成したと不平を言うという事実には、ちょっとした皮肉があります。

規模と方法は確かに異なりますが、他の人々が一生懸命働いて作成した既存の作品を取って、競合する自分の製品を訓練するという原則。つまり、なんだか似ているような気がします。2025年9月、AnthropicはAI著作権侵害訴訟としては初めてとなる、著者たちとの訴訟で和解しました。

Anthropic AIは、著者グループによって提起された著作権侵害訴訟を和解するために15億ドルを支払うことに合意しました。Anthropicは和解の対象となる推定50万冊の書籍それぞれに約3000ドルを補償しなければなりませんでした。つまり、これらの新しい企業が現在自分たちで訓練しているモデル内にあった訓練データは、実際にはAnthropicがそもそも使用する権利を持っていなかったデータだったんです。

そしてこれは唯一のケースでもありません。2025年6月、RedditがAnthropicを訓練データの料金を支払っていないとして訴えました。Redditは訴状の中で、Anthropicの商業目的でのサイトデータの無断使用は違法であり、AIスタートアップがRedditのユーザー契約に違反したと主張しています。

最近、Xやさまざまな場所で、これは違うという議論をたくさん聞いてきました。Anthropicが訓練データを入手したとき、それはフェアユースと見なすことができる。DeepSeekやこれらの中国企業がモデルを蒸留したとき、それは利用規約に反していた。ええ、でも彼らはRedditに対してもやりましたよ、Redditの利用規約に反して。

だから、それがそんなに違うんでしょうか。そう、DeepSeekはAnthropicが許可していることの利用規約に反しています。しかしAnthropicは、自分たちのプラットフォームにあったデータを入手するために、他の多くの企業の利用規約を回避しました。さて、Anthropicだけを取り上げるつもりはありません。明らかに、大手AIラボはすべてこれとまったく同じことで有罪です。

OpenAIはGPT-4を訓練するために100万時間以上のYouTube動画を文字起こししたと非難されました。OpenAIは現在、著作権をめぐってニューヨーク・タイムズとの訴訟に積極的に巻き込まれています。MetaはAnthropicと同じように、違法に集められた大量の書籍でモデルを訓練しました。そして彼らは実際に知りながらそれを行いました。彼らが行っていることが合法ではないと知っていたことを示すチャットメッセージが実際にあります。しかし、とにかく彼らはそれをやりました。

xAIとGoogleもそれをやっているところを捕まりました。彼らはAIと検索訓練のために海賊版の書籍をスクレイピングしたとして訴えられています。つまり、これらの企業はすべてこれをやっているんです。そして私はこのすべての「他にもいるじゃないか」論のためにこれを言っているわけではありません。AI業界全体が「まず取って、それから許可を求めることは決してない」という基盤の上に構築されてきたからこそ、これを言っているんです。

Anthropicの主張は正当だと思います。これらの中国のラボは、競合他社からコンテンツを取って類似のモデルを作ることについて体系的かつ意図的に行ってきました。しかしAnthropicがこのブログ投稿を公開することは、文字通り他のすべての人に対してほぼ同じことをやってきたにもかかわらず、同情を求めているように感じられます。

なぜ私たちが気にすべきか

さて、ここで何が起こっているかのほぼ全体像がわかったところで、おそらくこう思っているでしょう。「まあ、なぜ気にする必要があるの。数十億ドル規模の企業が中国の数十億ドル規模の企業に盗まれているようにしか聞こえないけど。」まあ、少なくとも少しは気にすべき理由がいくつかあります。

第一に、安全ガードレールがこれらのモデルから積極的に取り除かれているということです。モデルが最初に訓練されるとき、潜在的に危険なリクエストを拒否するようにかなり広範囲に訓練されます。これらの蒸留されたモデルは、多くの場合、これらの安全ガードレールの多くを保持していません。将来のモデルがこのバージョンのモデルからさらに蒸留されるなら、まあ、それらの将来のモデルも安全ガードレールなしになるでしょう。

第二に、ここには地政学的な考慮事項があります。Anthropicはこれを、米国がより多くの計算能力へのアクセスから中国を制限すべきであるという証拠として使おうとしています。なぜなら、彼らはすでに米国のモデルを盗んで自分たちの目的のために使用する方法を見つけようとしているからです。中国のラボは、米国ベースのラボの成功を独立して再現することができないようです。

だから、これは輸出規制が無用であるという物語が実際には真実ではないことを証明しているようなものです。そして第三に、これは米国でも、実際にどこでもまだ完全には明確にされていない法的グレーゾーンです。DeepSeekとMinimaxとMoonshotが行ったことを違法にする法律は実際にはありません。

はい、それはAnthropicの利用規約に反していますが、違法ではありません。米国著作権局は、AIによって生成されたコンテンツは著作権保護の対象にならないとはっきり言っています。何かが著作権保護の対象になるには、人間の著作者である必要があります。そしてほとんどの企業の規約には、これらのモデルの出力は企業ではなく、モデルのユーザーが所有すると書かれています。

だから、これらのモデルからの出力を蒸留することは実際に盗みなのか。それは実際にはまだ決定されていません。つまり、Anthropicはそう考えていますが、あらゆる法的先例に基づけば、そうではありません。とにかく、私はこの全体を分解したかっただけです。なぜなら、繰り返しますが、私はこのすべてが魅力的だと思いますし、他の人々もAI世界で何が起こっているかを知り、それについて何らかの理解を持つ必要があると思うからです。

AI業界は現在、著作権問題を抱えています。常にそうでした。問題は、私たちがどこかで線を引くのか、それともこれが今の仕組みなのかということです。みんながみんなを真似する。大きなモデルはインターネット上で公開されているすべてのデータを盗んでモデルを訓練し、それから新興企業は先に来たより大きなモデルからの出力を盗むだけ。

本当の違いは、誰が最も力を持っていて、それについて不平を言い、何かをするための法的能力を持っているかということだけですが、しばらくの間は混乱するでしょう。とにかく、それが私が皆さんにお伝えしたかったことです。私はこれが魅力的なトピックだと思います。皆さんもこういったことに魅了されることを願っています。こういうのが好きで、最新のAIニュースに遅れずについていきたい、AI世界で何が起こっているかの解説を入手したい、最もクールなツール、チュートリアル、そしてAI世界で起こっているその間のすべてについて学びたいなら、私がそのすべてを分解するためにここにいます。だから、

そういうのが好きなら、このビデオに「いいね」をして、このチャンネルを購読することを検討してみてください。そうすれば、こういうものがもっとYouTubeフィードに表示されるようにします。今日私と一緒に時間を過ごして、このトピックでオタク話をしてくれて本当にありがとうございます。本当に本当に感謝しています。うまくいけば、次回お会いできるでしょう。

バイバイ。

コメント

タイトルとURLをコピーしました