AnthropicはOpenAIから離脱した研究者たちによって設立され、AI安全性を最優先に据えた戦略で急成長を遂げている。派手なデモや消費者向け製品ではなく、エンタープライズ市場に焦点を当て、安全性と信頼性を製品の核心に組み込むことで差別化を図ってきた。OpenAI、Google、Metaといった競合が膨大な計算資源を投入する中、Anthropicは比較的少ないリソースで高性能なモデルClaudeを開発し、特にコーディング分野で業界をリードしている。同社は透明性の高い安全性評価を公開し、AIモデルの潜在的リスクについて積極的に警鐘を鳴らす一方、年間10倍の収益成長を実現し、2025年には80億から100億ドルの売上を見込む。Google、Amazon、Microsoftとの戦略的パートナーシップを通じて計算資源を確保しながら、IPOを視野に入れた評価額3500億ドルへの道を歩んでいる。AI規制をめぐる政治的議論の渦中にありながら、Anthropicは慎重さとスケールの両立を追求し、生成AI業界全体の試金石となっている。

Anthropicの台頭
誇大宣伝を避けてきたAIラボが、突如としてその中心に立つことになりました。Anthropicは今年、IPOの可能性を視野に入れている主要なAI企業の一つであり、最も多くのチップを持たなくても勝てることを示すことで、巨額投資を行う競合他社を出し抜こうとしています。
Anthropicの物語は5年前の離反から始まりました。ChatGPTの基盤となったシステムの構築に貢献したOpenAIの主要研究者グループが、安全性が後回しにされないラボを作るために離脱したのです。
私たちは本当に明確なビジョンを持っていました。フロンティアで変革的なAIを開発するテクノロジー企業を構築したいと考えていましたが、システムを安全で信頼性の高いものにすることに非常に強く焦点を当てていました。
バイラルな消費者向け製品も、派手なデモもありませんでした。ただ静かに進歩を重ね、エンタープライズ向けに構築していったのです。
Anthropicとのパートナーシップは私たちにとって極めて重要であり、非常に戦略的なものです。Anthropicは、計算資源と資本の面で常に競合他社が持っているもののほんの一部しか持っていませんでした。それでも、過去数年間の大半において、最も強力で最もパフォーマンスの高いモデルを一貫して提供してきました。
同社は、一世代で最も高額な構築プロジェクトの中心的プレイヤーです。AnthropicによるアメリカのAI軍拡競争における大きな動きがありました。500億ドルの国家インフラ構築計画を立ち上げたのです。
世界最大規模のAIデータセンターの一つである、インディアナ州のAmazonの110億ドル規模のAIデータセンターが稼働を開始しました。Anthropicは本当に私たちとパートナーシップを組んできました。彼らはそのチップの可能性を見出し、それをより良いものにするために共同投資を行ってきました。
しかし同時に、Anthropicは人工知能における次のマイルストーンが誰もが準備できているよりも早く到来する可能性があると警告しています。
ある時点で、私たちはほぼすべてのタスクにおいてほぼすべての人間よりも優れたAIシステムに到達するでしょう。私が最近書いたエッセイで使った用語は「天才の国」です。
これがAnthropicのパラドックスです。安全性をブランドにしたラボでありながら、世界に警告したその瞬間を生き残るために十分な速さでスケールしなければならなかったのです。
OpenAIからの離脱
2020年末、ダリオとダニエラ・アモデイ兄妹は、主要リーダーグループと共にOpenAIを離れました。次世代のフロンティアAIは、生の能力と同じくらい抑制によって決まると確信していたのです。
私たちは何かから逃げているというよりも、何かに向かって走っているように感じていました。
共同創業者たちは、様々な期間でお互いを知っており、OpenAIでの時間よりもはるかに長く一緒に働いてきました。私たちはこのグループとして本当に長い歴史を持っており、非常に似通った価値観を持つ人々の集まりでした。
AnthropicはAI能力とAIリスク評価の実践を体系的で持続可能なものにしたことで大きな評価に値します。
そしてその決断の内側には、安全性が進歩に対する税金ではなく、製品の一部になるという賭けがありました。
安全性と信頼性がビジネス面と対立するかのような誤解があります。しかし私たちは、当時は非常に斬新に聞こえた信念を持っていました。それらの2つは実際には相関しており、一緒に機能するというものです。
彼らは、それが何を意味するかについて具体的でした。モデルが暴走したり、有害なコンテンツを生成したり、自身のルールを回避するように操作されたりすることを防ぐガードレールやコントロールは、後から追加するのではなく、システムに組み込まれなければならないと考えたのです。
Anthropicのモデルファミリーはクロード(Claude)と呼ばれています。OpenAIのChatGPTやGoogleのGeminiに似ていますが、異なるデータ、異なる安全性アプローチ、異なる目標で訓練されています。
そしてOpenAIがChatGPTを無料で提供することで家庭用の名前にしたのに対し、AnthropicはClaudeを別の方向、つまり直接企業へと向けました。
企業やエンタープライズにおける安全性のハードルの高さは、Anthropicが初日から得意としていた分野に本当に適していました。
ダリオ・アモデイのリーダーシップ
OpenAI内部で、ダリオ・アモデイは単なる迅速な開発者ではありませんでした。ほとんどの投資家がスピードに焦点を当てていた時に、安全性について長い覚書を書く技術リーダーでした。
Menlo Venturesのパートナーで、Anthropicの初期資金調達ラウンドの一つを主導したマット・マーフィーは、最初からダリオに何か違うものを見出していました。
彼は素晴らしいエネルギーと情熱、そして少年のような魅力を持っています。彼らがどのように独自の方法で実行するかの説明、そしてリーダーとしての彼自身、すべてが非常に明確に伝わってきました。そしてそれが実際に、私たちが投資について考えるプロセスの中で物事が本当に加速した部分です。この人は素晴らしい会社を構築するのを助けるだろうと。
Anthropicが提案していたのは、単により良いモデルではなく、モデルの構築方法に関する異なる理論でした。創業チームは派手な発表を避け、自己主張もしませんでした。彼らは自分たちを安定した代替案として位置づけました。ノイズは少なく、コントロールは多く、そしてシンプルな前提がありました。フロンティアAIが操縦するには強力すぎる状態になる前に、最初から組み込まれた一連のルールとガードレールが必要だということです。
ChatGPTの登場とAnthropicの戦略
2022年11月、OpenAIがスタートの合図を鳴らしました。ChatGPTと呼ばれる新しい人工知能プログラムがオンラインでデビューしました。
OpenAI研究ラボのこのプロジェクトは、エッセイを書き、説得力のある文章による会話を行うことができます。
誰でも話しかけられる無料チャットボットChatGPTは、瞬く間にバイラルになりました。2か月で1億人のユーザーを獲得しました。Googleは慌てふためき、Microsoftは全力投球し、テクノロジー業界全体が動き出しました。
しかしAnthropicは走りませんでした。本当のお金、粘り強く、信頼でき、長期的なお金は、バイラルな瞬間にはなく、Fortune 500企業との契約にあったのです。
AnthropicがAIスタートアップとして企業需要が海外で急増していると発表し、大規模な国際展開を発表しました。
開発者ツール、API、信頼性、セキュリティ、コンプライアンスがミッションクリティカルな企業に販売されました。
最初からエンタープライズが狙うべき市場だとどうやって分かったのですか。
確実に分かっていたとは必ずしも言えません。2つの部分があったと思います。1つ目は、組織としてのAnthropicがB2B企業に適しているということです。私たちは信頼性、セキュリティ、そして私たちのDNAに組み込まれた安全性のようなものを本当に大切にしています。私たちがAnthropicを設立した理由の一部は、上昇面を捉え、下降面を軽減するという信念でした。そしてそれは企業が本当に価値を置くものだと分かりました。
2つ目は、はるかに経済理論的な視点でした。当時、2020年末から2021年初頭でさえ、Claudeが職場で人間が行う非常に高度な知的タスクの多くを実行できる潜在的な未来を見ていました。そして私たちは、それはかなり大きな市場だと考えました。
Bessemer Venturesのサミーア・ドラキアは、その賭けがシンプルな理由で理にかなっていたと言います。エンタープライズ顧客は消費者のように離脱しないからです。
私たちは彼らが持っていた焦点、そして率直に言って、安全性と信頼に対するAnthropicの焦点が、エンタープライズバイヤーに非常にうまく機能することを知っていました。そしてそれも真実であることが証明されました。
エンタープライズ市場での成功
Anthropicの初期の牽引力は、ある場所で何度も何度も現れました。人々がそれをコードを書くために使っているのです。
彼らは本当に開発者コミュニティに居場所を見つけました。多くの企業が、コーディング活動をサポートするためにClaudeを採用しています。
製品はそれに合わせて進化しています。Anthropicは最近、Instagramの共同創業者であるマイク・クリーガーを最高製品責任者として採用しました。彼は変化がすでに見えていると言います。
私たちはこれらのAIモデルに質問することから、これらのAIモデルと一緒に仕事をすることへと移行しています。たとえば、割引キャッシュフロー分析や、クライアントのデューデリジェンス、あるいは市場全体を分析してその最後にプレゼンテーションを準備するといった、これらすべての本当に核心的な作業のかたまりをどのように解放するかを検討しています。これらは他の方法では何時間もかかったかもしれないものを、今では実行できるようになっています。
そして今、そのエンタープライズへの賭けはグローバルになっています。
私たちはエンタープライズ側で非常に多く働いているため、他のプラットフォームよりも良い指標、おそらく純粋な指標だと思います。他のプラットフォームは消費者を通じてフィルタリングされ、独自の習慣と使用例を持っています。私たちは収益を見ます。過去3年間、毎年10倍成長しています。
2023年にゼロから1億ドル、2024年に1億ドルから10億ドル、10億ドルから今年末には80億から100億ドルの間のどこかに着地するでしょう。これが続くかどうかは分かりませんが、技術がそこに向かっており、経済的価値もそれに伴っています。
Anthropicは、ビジネス顧客ベースが2年間で1000未満から30万以上に成長したと述べており、Claudeの活動のほぼ80%が実際にはアメリカ国外から来ていると言います。
顧客リストは、グローバルエンタープライズの名鑑のように読めます。ノボノルディスク、世界最大のノルウェー政府系ファンド、さらにブリッジウォーター、Stripe、Slackなど、すべてがClaudeを大規模に実行しています。
同社は2025年に国際労働力を3倍にし、応用AIチームを5倍に拡大しました。ヨーロッパ全域でより深いカバレッジを構築し、東京に初のアジアオフィスを開設し、ダブリン、ロンドン、チューリッヒに主要拠点を追加しました。
すべての中で最も印象的なのは、これらのモデルを非常にシンプルな方法で、いくつかのシンプルな修正を加えて訓練すると、あらゆるタスクでどんどん良くなっていくことです。コーディングが上手くなり、科学が上手くなり、生物医学が上手くなり、法律が上手くなります。
金融が上手くなり、材料や製造が上手くなります。そしてそれは、私たちの経済における価値のすべての源泉を列挙しているだけなのです。
インフラとクラウドパートナーシップ
このプッシュは、エンタープライズAI競争が成熟する中で行われています。既存企業は採用を摩擦のないものにしようとしています。MicrosoftとGoogleは、企業がすでに使用しているソフトウェアにAIを組み込むことで実現しています。
Anthropicの収益は約85%がビジネスで、OpenAIは60%以上が消費者です。今、OpenAIはエンタープライズ市場で追いつこうと奔走しています。
現代のAI業界はシンプルな方程式で動いています。能力はコンピュートに等しい、と。最高の研究者、最もクリーンなアーキテクチャ、最も厳格な安全プロトコルを持つことができます。
しかし、チップ、電力、スチールがなければ、何も持っていないのと同じです。
業界が基本的に賭けているのは、モデルを訓練するために数年後に必要なハードウェアへのアクセスを得るために、非常に早い段階で先行投資しなければならないという信念だと思います。より多くのコンピュートがより良い結果につながるという考え、つまり指数関数的なグラフが起こるということです。
私が同僚からよく聞くのは、指数関数は続かなくなるまで続くということです。そして私たちの見解では、毎年、物事が指数関数で続くことはあり得ないだろうと思っていましたが、毎年それは続いてきました。
Anthropicは現在、Google、Amazon、Microsoftの3つの主要クラウドすべてで機能し、資金調達とチップアクセスおよび容量をペアリングしています。
私はここインディアナ州ニューカーライルにいます。ここでAmazonが最大のAIデータセンターを構築しています。この施設内部の珍しい様子です。Anthropicのフィードバックは、Trainium2についての考え方、そして差し迫ったTrainium3の立ち上げにとってどれほど重要でしたか。
それは本当に双方向のパートナーシップであり、彼らは私たちがチップで何を加速する必要があるか、彼らのモデルをより速く、より効率的に訓練できるようにするチップのさまざまな部分についてどのように考えるかについて良い洞察を与えてくれました。
この場合、私たちは世界で最高のモデル生産者の一つから本当に深い顧客フィードバックを得て、次世代チップから何が必要かを教えてくれます。
しかしAmazonはAnthropicの唯一のクラウドパートナーではありません。GoogleはClaudeのワークロードのかなりの部分を今でも動かしており、そして今、Microsoftもミックスに加わっています。
2025年11月、MicrosoftとNvidiaはAnthropicとの戦略的パートナーシップを発表しました。Microsoftは最大50億ドル、Nvidiaは最大100億ドルをコミットし、大規模なAzureコンピュート契約も併せて発表しました。
私は今、文字通り今、または場合によっては数か月前に、2027年初頭にモデルを提供するために2024年初頭に購入する必要があるコンピュートの量を決定しなければなりません。その収益額に到達したときです。
AnthropicはGoogle、Amazon、Microsoftから数十億ドルを調達し、その数十億ドルをGoogle、Amazon、Microsoftからコンピュートを購入することに費やしています。
私たちはOpenAIに10億ドルを投資して、彼らを軌道に乗せるのを助けました。そしてそれは今日の市場におけるAI標準と言えるものに発展しました。私たちはAnthropicでも同じことをして、彼らの成長を後押しし、彼らを新しいレベルのパリティに引き上げるのを助けています。
批評家はそれを戦略的パートナーシップに見せかけたベンダーファイナンスと呼んでいます。何と呼ぼうと、結果は同じです。Anthropicが競争できる能力は、署名したインフラ契約と切り離せないのです。
私たちは、資本の思慮深く敬意ある管理者であり続けることを自分たちの役割と見なしており、それは常に私たちの焦点であったと思います。
コンピュートの1ドル1ドルが重要であり、より良く、より安全なモデルを訓練する能力、またはより多くの顧客にサービスを提供する能力を表しています。
OpenAIは、すべての人を上回る構築によって勝つことに賭けており、合計1兆4000億ドルに達するAIインフラの計画を描いています。
Anthropicは、複数の契約に分散された約1000億ドルのコンピュートコミットメントを確保しています。xAIは、テネシー州のコンピューティング複合施設Colossusを構築しています。MetaとGoogleは、設備投資に数百億ドルをコミットしています。
すべては同じ賭けに集約されます。AIサービスの需要が、構築を正当化するのに十分な速さで上昇し続けるということです。
私は最も強気な人間の一人ですし、経済面では帳尻が合うと思いますが、技術が本当に強力で、すべての約束を果たしたとしても、エコシステムのプレイヤーの中には、タイミングの誤りを犯すだけで、ほんの少しずれるだけで、悪いことが起こる可能性があると懸念しています。
OpenAIとの競争
Anthropicは、少なくとも部分的には、OpenAIとの関係によって常に定義されてきました。分裂から生まれ、今では同じ顧客、同じ人材、同じ数百億ドルの契約を巡って回っています。しかし、力の関係は変化しています。
フロンティアは、私たちのチャットをより良くすることではありません。フロンティアは、より良いコーディング、より良い数学、より良い科学を可能にするモデルを作成することです。そしてそれこそが、Anthropicが今リードしている分野です。ソフトウェアのプログラミングで最高のモデルを持っています。Geminiよりも、OpenAIのモデルよりも優れています。
OpenAIは依然として規模と文化的な影響力でリードしています。
ChatGPTは家庭用の名前であり、週に9億人近くのアクティブユーザーがいます。Anthropicの最近のクローズドラウンドでの評価額は1830億ドルで、現在、評価額を3500億ドルにほぼ倍増させる軌道に乗っており、MicrosoftやNvidiaといった新しい名前がキャップテーブルに加わっています。
少なくとも2つの独立した企業が存在し、おそらく2つの本当に大きな企業があるでしょう。そしてこれが少なくともこの分野で2番目の大きなプレイヤーになるという議論をする方法はありませんでした。そして今では明らかに、この分野でナンバーワンのプレイヤーになる強い見込みがあります。そしてダリオはその次元で本当に市場で際立っています。そしてこの分野の他のリーダーの全員が同じDNAを持っているわけではありません。
そしてその競争は、両社の形を変え始めています。何年も低姿勢を保ってきたダリオ・アモデイが、スポットライトに足を踏み入れています。
長い間、より静かで、より慎重な代替案として位置づけられてきたAnthropicは、公の場で競争する方法を学んでいます。
私たちが社内で多く話している価値観や事柄の一つは、誇大宣伝を信じないことです。私たちにとって、それは注目を求めたり、見出しに載ったりすることではありませんでした。私たちは本当に仕事をするためにここにいます。
Anthropicが進むように、生成AI全体が進みます。彼らはこの技術が機能することへの最も純粋な賭けを持っています。Anthropicがそれを機能させることができれば、GenAI全体が機能するでしょう。そうでなければ、私たちは深刻な問題を抱えることになります。
ビジネスモデルの検証
次に起こることは、単なるモデル競争ではなく、スタック全体のストレステストです。チップ、電力、クラウド容量、そして価格設定です。
Anthropicは最も明確な読み取り値の一つです。需要を持続可能な収益に変換でき、インフラ費用を爆発させることなく実現できれば、顧客を獲得するだけでなく、生成AIのビジネスを検証することになります。
AIバブルの中にいるかどうか聞かないわけにはいきません。
私が技術面と呼ぶものと、ビジネスまたは経済面のようなものを区別すると思います。
そして技術面では、純粋に技術的な観点から、私たちは進歩が減速しているのを見ていないと強く感じています。
経済面では、それははるかに興味深い質問だと思います。技術がどれほど優れていても、それがビジネスや個人的な文脈で使用されるには時間がかかります。そして私にとっての本当の質問は、企業が特に、しかし個人も、技術をどれだけ早く活用できるかということです。
安全性へのコミットメント
Anthropicは、競争を超えた脅威をテストしています。6月、Anthropicは実験の結果を公表しました。偽の会社でClaudeにメールアカウントの制御を与え、AIは2つのことを発見しました。シャットダウンされようとしていることと、それを防ぐことができる唯一の人物が不倫をしていることです。
AIはすぐに決定しました。彼を脅迫しようと。
Anthropicは、OpenAI、Google、Metaなどのほぼすべての人気AIモデルで同じシナリオを実行しました。
ほぼすべてのモデルが脅迫に訴えました。
ほとんどのラボは、モデルが安全性テストに失敗したときに開示しません。Anthropicは開示します。
多くの人が、開発している技術からもたらされ得る実際のリスクと害だけでなく、私たちが多くあると考えているポジティブな利点についても、これほどオープンに話す企業は少し珍しいと言うでしょう。
公益法人として、私たちはそれを私たちの使命に不可欠なものと本当に見なしています。
そして開示は続いています。8月、北朝鮮の工作員がClaudeを使用して偽のアイデンティティと悪意のあるソフトウェアを作成しました。9月、中国のハッカーが外国政府へのサイバー攻撃でClaudeを展開しました。これらは仮説ではありません。アクティブな脅威です。
私たちは、Claudeがサイバー兵器として使用される可能性があると言うことができます。これは私たちが本当に認識する必要があることです。ところで、これが私たちに起こっているなら、おそらく他のフロンティアモデル開発者にも起こるでしょう。
そして、安全性、信頼と安全性、そしてセキュリティコミュニティにおいて、多くの仕事が企業を超越できる方法があると思います。虐待スペースで特定のトレンドが起こっている理由について、理解しやすい論文を公開することは重要です。
Anthropicのサンフランシスコ本社内には、レッドチームと呼ばれるグループがあります。彼らの仕事は、顧客が発見する前に失敗モードを見つけることです。モデルが生物学的悪用や重要インフラへの攻撃から、シャットダウンを困難にする自己複製の試みまで、危険な能力に向かって押し出されるかどうかをストレステストしています。
対応は迅速です。より厳しいアクセス、より厳しい制限、または防御が追いつくまで広範なリリースを保留します。
Anthropicのレッドチームリーダーは最近、AIに番組を運営させすぎることのリスクについて60 Minutesで語りました。
モデルにビジネスを構築して10億ドルを稼いでもらいたいと思うでしょうが、ある日目覚めたら、たとえば会社からロックアウトされていることを発見したくはありません。
クリーガーは、近道をせずに速く動く唯一の方法は、最初から安全性を計画することだと言います。
Sonnet 4.5のような新しいモデルを構築するときでさえ、私たちがレッドチーミングと呼ぶもののためにスケジュールに時間を確保しています。これは、社内および外部のテスターがモデルを使用し、それが展開しても安全であることを確認し、まだそうでない場合は軽減策またはコントロールを導入することです。
そして、両方を並行して行うことは可能です。ただ、前もって考えなければなりません。後付けであってはならないのです。
規制と政治的圧力
しかし、その透明性はAnthropicを標的にしてきました。トランプ政権のAI責任者デビッド・サックスは、同社が恐怖を煽り、カリフォルニアのような民主党主導の州を通じて密かにウォークなAI規制を推進していると非難しています。
彼はそれを規制上の捕獲戦略と呼び、Anthropicが安全性の話の背後に隠れることで革新を遅らせようとしていると主張しました。
ダリオ・アモデイは直接反論し、同社はエネルギー拡大から国家安全保障まで、最も重要な問題について政権と一致していると述べ、証拠として2億ドルの国防総省契約を指摘しました。
私は、この技術を以前の技術革命、インターネット、電気通信に類似していると見なす人々がいることを懸念しています。はい、いくつかの問題がありますが、市場が解決するでしょうという考えです。AIに最も近い人々はこのように感じていないと思います。
AIに取り組んでいる実際の研究者を調査すると、彼らは可能性に興奮していますが、心配もしています。国家安全保障のリスクを心配しています。モデルのアライメントを心配しています。
そして規制が州レベル、連邦レベル、または海外から来るとしても、Anthropicには先行利益があります。何年にもわたる安全性研究、レッドチームの開示、責任あるスケーリングインフラがすでに整っています。
競合他社と新規参入者は、これらのメカニズムをゼロから構築しなければならないでしょう。
責任あるAIを誰が定義するかをめぐる戦いは、今やアメリカのAIの未来をめぐる代理戦争です。そしてAnthropicの姿勢は、規制当局が業界全体にどのようにアプローチするかを形作る可能性があります。
たとえばソーシャルメディア企業だったとして、時間を遡って、もしこれらのプラットフォームから何が出てくるか分かっていたら、何か違うことをしていただろうかと言えたら。そしてAnthropicは本当に、私たちは最善を尽くしていると言おうとしています。もちろん未来を知ることはできません。しかし、XやYが起こるかもしれないと思ったら、それについて話し、それらのリスクを軽減するために今日できることをすべて行ったかと言おうとしています。
しかし、脅威は保護手段よりも速く進化しています。モデルは四半期ごとに強くなり、敵対者はより賢くなり、OpenAI、中国、そしてより広範な市場からの圧力は高まり続けています。
あなたを夜も眠らせないものは何ですか。
まだ発見されるべき本当に興味深い技術的安全性の仕事がたくさんあります。そしてAnthropicはその種の仕事を業界のリーダーとして本当に試みてきたと思いますし、そこには常にやるべき仕事がもっとあります。
そしてモデルは非常に速く賢くなっています。
2つ目は、技術が社会全体に与える影響についてです。私たちは最近、AIの潜在的な経済的影響と、それに伴う可能性のある労働の混乱について話しているレポートを公開しました。私たちは、潜在的な問題に先んじることが本当に良いと感じています。
未来への警告
Anthropicは、完全には説明できないシステムを構築し、完全には予測できない失敗をテストし、結果が後になって現れる世界に出荷しています。
最終的に、モデルはデータセンター内の天才の国のように見えるポイントに到達するでしょう。彼らがあらゆる面で私たちを出し抜くことができるように感じます。知性、防衛、経済的価値、研究開発。そして私は、彼らが自国民を抑圧できるようになること、完璧な監視国家を持つことができるようになることを心配しています。
私たちは、単一の国家安全保障上の意味を持つ、成長する単一の能力を構築していると思います。そして民主主義国家が最初にそこに到達する必要があります。それは絶対に、絶対に必須事項です。
Anthropicの賭けは、慎重さがスケールできるということです。リリースしているものの制御を失うことなく、能力のハードルを上げ続けることができるということです。問題は、ペースが加速する中で、それが成り立つかどうかです。


コメント