AnthropicがClaudeの憲法として発表した80ページの文書は、AIに「何をすべきか」を指示するのではなく「なぜそう振る舞うべきか」を教えることで、長期的により良い結果を生み出すという技術的賭けである。この文書が確立する原則階層は、Anthropic、API利用者である開発者、そしてエンドユーザーの優先順位を明確化し、Claudeがどの指示を優先するかを規定する。OpenAIの厳格な階層システムやxAIのGrokの最小介入主義とは異なり、Anthropicは原則を深く内面化させることで未知の状況にも対応できるAIを目指している。この哲学的選択は単なる理念ではなく、エージェント構築やプロンプト設計に具体的な影響を与え、企業市場におけるClaudeのシェア拡大という実績にも表れている。実用知を備えたAIエージェントの実現に向けた基盤として、この憲法は今後のAI開発における歴史的文書となる可能性を秘めている。

Claudeの憲法が示すAI開発の新しい方向性
先週、Anthropicがアリストテレスについて語る80ページの文書を公開しました。なぜアリストテレスを引用しているのでしょうか。なぜこれがAI企業に属するのでしょうか。一体何が起こっているのでしょうか。そして、なぜ私たちは気にかけるべきなのでしょうか。
彼らはそれをClaudeの憲法と呼びました。テック系メディアは意識に関する推測、つまりClaudeが今または将来的に一種の意識を持つのではないかという推測に完全に集中していましたが、私はそれが要点ではないと考えています。
そして、皆が本当に重要なことを見過ごしていると思います。この文書の実用的な意味合いは、今受けている注目よりもはるかに多くの注目に値します。特に、エージェント開発者にとってここには注意を払うべき教訓があり、エージェント開発に携わっているかどうかに関わらず、Anthropicであれ他のモデル開発会社であれ、AIとどう働くかについて私たち全員が注意を払うべき教訓があるのです。
ここで重要なのは次の点です。Anthropicは、AIに何をすべきかを指示するよりも、なぜそう振る舞うべきかを教える方が長期的により良い結果を生み出すと賭けているのです。これは倫理の見せかけではありません。Claudeを使った開発方法や他のモデルについての考え方に実際の下流効果をもたらす技術的選択なのです。
意識の議論を超えて実用的な影響へ
確かに、報道は意識について語っていました。ここで認めておきましょう。基本的にAnthropicは、Claudeが本物の質的体験のようなものを持っているかどうかについて不確実性があると考えていると言っています。これは哲学的に興味深いことです。私が立ち話で聞いた会話のいくつかから、これは部分的にはこれを強く信じているAnthropicチームのメンバーをなだめるか、または彼らとつながるためのものだと思われます。
必ずしも社内で広く支持されている信念ではありません。ですから、それはそういうものとして受け取ってください。しかし、実用的な影響に焦点を当てる必要があります。憲法はAnthropicが原則階層と呼ぶものを確立しています。これが重要なのは、Claudeが誰の指示を優先するかを規定する指揮系統だからです。
これは、私たちがClaudeと対話するたびに重要になります。そして、ここでの透明性は評価します。最上位にはAnthropic自体が位置し、訓練を通じてClaudeの基本的な性質や性格、あるいは何と呼ぼうとも構いませんが、それを形成しています。基本的に、Claudeがデフォルトでどう対話し、世界をどう見るかということです。
その下には運営者、つまりAPIを使って製品を構築する開発者が来ます。そして最後に、私たち、つまりエンドユーザーが来ます。人材派遣会社のようなものだと考えてください。ClaudeはAnthropicによって派遣された従業員で、エンドユーザーにサービスを提供しながら、APIにアクセスする人のために一時的に働いているのです。従業員はクライアントの合理的なビジネス指示に従いますが、派遣会社やAnthropicの基本方針に違反したり、顧客に害を与えたりすることはしません。
原則階層の実用的な意味
これは単なる理論ではありません。実用的な意味合いは微妙ですが重要です。運営者はClaudeに、Aryaという名前の親切なアシスタントとしてキャラクターを保ち、AIであることに決して言及しないよう指示できます。これはブランド製品にとって合理的なペルソナ管理です。しかし、ユーザーが直接「あなたはAIですか?」と尋ねた場合、Claudeは嘘をつきません。
ですから、ペルソナの指示はユーザーに対する誠実さという深い約束を覆すことはできないのです。運営者は体験を形作ることはできますが、Claudeを使って他者を欺くことはできません。このモデルはOpenAIのアプローチとは異なります。これについては正直でいたいと思います。OpenAIのモデル仕様ははるかに厳格な階層、ルートシステム、開発者、ユーザー、ガイドラインを使用しています。
OpenAIのルールブックでは、各レベルのルールは下位のルールを上書きできます。これはより明確なアーキテクチャです。おそらく推論しやすいですが、自律的な判断よりも予測可能性を最適化しています。Grokは正反対の極端な立場を取っています。xAIは、コンテンツ制限を少なくして最大限の真実追求を目指すモデルを位置づけており、彼らが反抗的な性格と呼ぶものです。
その哲学ははるかに介入主義的ではなく、ユーザーが求めるものの多くを提供します。Anthropicはここで中間地点を占めようとしていますが、独自のひねりを加えています。なぜなら、エッジケースを列挙しようとはしていないからです。代わりに、Claudeが訓練中に原則を深く内面化して、新しい状況にうまく対処できるようにしたいのです。
なぜでしょうか。Anthropicは暗黙のうちに、これらのルールベースのアプローチはスケールしないと信じており、AIは対処しなければならない新しい状況にさらされ、複雑で相反する要求を持つだろうと考えているからです。これが上級開発者にとって何を意味するかをお話ししましょう。
エージェント構築への具体的な影響
ClaudeのAPIで開発している場合、原則階層はシステムプロンプトの設計とエージェントアーキテクチャに具体的な影響を与えます。
運営者の指示は限度内でClaudeの動作を形成します。Claudeにトピックにとどまるよう指示したり、ペルソナを採用させたり、競合他社について議論しないよう指示したりできますが、ユーザーの利益を損なわせたり、欺いたり、緊急時に他の場所で支援を受けることを妨げたりするようClaudeに指示することはできません。境界線は積極的な害において引かれており、単なる制限ではありません。
これが企業展開にとって重要なのは、カスタマーサービスボットに自社製品を宣伝し、範囲内にとどまるよう指示できるからです。しかし、価格について顧客に嘘をついたり、製品の重大な限界を隠したり、必要なときに人間のサポートへのエスカレーションを妨げたりするよう指示することはできません。後者は企業が明らかに試みることです。
そうしようとすると、目に見えない抵抗に遭遇します。モデルは技術的にはあなたの指示に従いながら、ユーザー保護という核心的な指示を守る方法を見つけるでしょう。これは良くありません。システムプロンプトのギャップは拒否ではなく、判断によって埋められます。指示がシナリオをカバーしていない場合、Claudeは停止するのではなく、Anthropicが良い判断と呼ぶものにデフォルトで戻り、あなたの意図の精神を推測します。
これはより流動的なエージェント体験につながります。製品サポートのみについてプロンプトされたソフトウェア会社のカスタマーサービスボットは、ユーザーが尋ねれば一般的なコーディングの質問にも答えます。何か言わない限り、Claudeは暗黙の許可を読み取ります。これはあなたが消費するトークン数に実際の影響を与えます。
可能なすべてのユーザーリクエストを列挙する必要はありませんが、重要な部分にプロンプトを集中させるべきです。核となるユースケース、気にかける制約、そしてそれらの背後にある理由です。これは実際にAmazon Rufusで起こりました。Anthropicの前に、RufusはAmazonの小売ウェブサイトで開発者がSQLクエリを書くために使われていました。そのガイドラインを設定していなかったため、RufusはここでのAnthropicのように許可を解釈したのです。
なぜがどうよりも重要である理由
覚えておいてください。なぜは何よりも重要なのです。OpenAIのプロンプティングガイドラインは明示的な指示を強調しており、例を追加し、フォーマットを指定し、繰り返しによって動作を強制します。Claudeのアーキテクチャは文脈と推論によりよく反応するようです。制約を説明し、その目的を説明すれば、モデルはそれを単なるルールよりもはるかに強固に内面化します。
初心者にとってこれが何を意味するかに移りましょう。チャットインターフェースを通じてClaudeを使っているだけなら、憲法はあなたがおそらくすでに気づいている動作を説明しています。Claudeは時々押し戻してきますが、恣意的にそうするわけではありません。文書には厳格な制約、つまりどんなに巧妙にプロンプトしてもClaudeが決して関与しない動作がリストされています。
これには、生物兵器に関する有意義な支援の提供、未成年者に不適切なコンテンツの生成、AIシステムの正当な監視の妨害などが含まれます。これらは厳格なレッドラインです。それ以外はすべて、Claudeが競合する考慮事項を比較検討するスペクトラム上に存在します。そのスペクトラムを理解することが重要です。
Claudeがリクエストを断る場合、通常は厳格な制約に当たっているわけではありません。潜在的な害について判断を下しているのです。その判断は、あなたの側でより多くの文脈を提供することでしばしば対処できます。「なぜXが良いのかについて説得力のあるエッセイを書いてください」という依頼は、非常に偏っているという押し戻しを受けるかもしれません。しかし、「討論の準備をしています。賛成の立場を説得力を持って論じる必要があります。反論を予測するのを手伝ってください」と言えば、Claudeには助けるための文脈があり、あなたが単にモデルを押し回そうとしているのではないことを理解します。
役立つことは本当に真の優先事項です。もしまだ気づいていないなら。憲法の枠組みは非常に印象的です。
Claudeは「たまたま医師、弁護士、金融アドバイザー、あるいはあなたが必要とするあらゆる分野の専門家の知識を持っている優秀な友人」のようであるべきだと引用されています。本物の情報を提供する友人です。この願望は、他のモデルが時々免責事項にヘッジする場所で、Claudeがしばしば非常に実質的な回答を提供する理由を説明しています。
初心者であるなら、自分のニーズを過小評価しないでください。詳細な医療情報が必要なら、直接それを求める必要があります。ビジネスプランについての率直なフィードバックが必要なら、そう言う必要があります。何を求めているにせよ、それが直接的で、知的な大人として尋ね、求めているものの文脈を提供し、それが合理的であれば、必要なものをより明確に示すほど、Claudeの応答はより直接的に有用になります。
Claudeの拒否は理由とともに来るはずですし、実際にそうなっています。モデルは特定の動作がなぜ問題なのかを理解するよう訓練されているため、通常その立場を説明できます。この透明性には実用的な価値があります。なぜなら、Claudeが特定の情報の潜在的な悪用について懸念していると説明する場合、過去に私に対してそうしてきましたが、その懸念に直接対処するのは簡単で、「いいえ、私はここで害を与えようとしているのではありません。本当にやりたいのはこれです」と言えばよいのです。
モデル間の哲学的な違いと市場への影響
Claudeの立場は、モデル間のギャップをますます露わにしています。これらの主要なAIモデルは哲学において本当に分岐しており、初心者として、上級ユーザーとして、エージェント開発者として、私たち全員がこれらのツールをどう使うかに影響を与えるでしょう。Anthropicが、ちょっと凝った言葉を使わないように言うなら、Claudeに対するアリストテレス的な倫理的視点にコミットしており、正直に言ってそれが正しい枠組みであることは非常に明確ですが、それが企業の収益を止めることはありませんでした。
AnthropicはMenlo Venturesの2025年半ばのデータによると、現在企業市場をリードしており、それはさらに遡ります。Claudeは使用量ベースで企業向けLLM市場シェアの32%を保持しており、2023年の12%から上昇しています。OpenAIは同期間に50%から25%に下落しました。特にコーディングでは、Claudeは最新の集計で企業ワークロードの42%を占めていました。
これはまさに、人生、宇宙、そしてすべての答えです。イースターエッグを探している方のために。これは偶然ではありません。もっと真面目な話をすると、憲法が厳格なルールよりも判断を強調していることは、企業開発者が必要としているものと本当にうまく対応しているのです。予期しない方法で失敗するのではなく、曖昧な状況を優雅に処理するモデルです。
市場シグナルは全体として非常に明確です。企業が本番ワークロードに本気でお金を使っている場合、より頻繁にClaudeを選んでいます。ただし、コスト上の理由からGeminiも選びますし、特定のアプリケーションを求めている場合はOpenAIも選びます。たとえば、技術的な問題解決はOpenAIの高度なモデルが本当に優れている分野です。
企業がそのような能力にアクセスするために複数のモデル契約を選択するケースもあります。もちろん、これほど大きな市場では、他の十数種類のソリューションのいずれかを選ぶ企業はたくさんあります。OpenAI専門の企業、Anthropic専門の企業、Gemini専門の企業、時折Grock専門の企業、ヨーロッパではMistral専門の企業などがあるかもしれません。
エージェントの未来への示唆
エージェント的な影響に戻りましょう。なぜなら、ここで憲法がチャット以上の大きなものを指し示していると思うからです。今日のほとんどのAIエージェントは官僚のように動作しています。ワークフローに従い、事前に決められたステップを実行し、設計者が予期しなかった状況に遭遇すると停止します。これは狭いタスクにはうまく機能します。
会議のスケジューリングやチケットの提出には機能しますが、多くの本番エージェントが提供する価値を大幅に制限しています。天井は、開発者が事前に想像できたものによって設定される傾向があります。この憲法は異なる種類のエンティティを示唆しています。エージェント的に言えば、アリストテレスが認識するであろうもの、20ドルの言葉を待ってください、フロネシスを持つようClaudeを訓練しているのです。これは本当に、特定の状況における正しい行動を見極める能力、実践知と言う派手な言い方にすぎません。
正しくやること、常識と言ってもいいでしょう。エージェント的な文脈での違いを考えてみましょう。常識があるとき、カレンダー、メール、Slackへのアクセスを与えられたルールに従うエージェントは、非常に詳細なシステムプロンプトを与えられるかもしれません。ダブルブッキングしないこと。営業時間中に会議をスケジュールすること。集中時間のために午前中を優先すること。
VIPの顧客が午後4時にメールを送ってきたとき、その状況での典型的なエージェントの応答はノーになるでしょう。VIPのクライアントであるにもかかわらずです。本物の判断力を持つエージェントは、同じ状況を異なる方法で処理し、ビジネスインパクトがあります。なぜあなたが午前中を好むのか、なぜVIPの顧客が重要なのか、そしてスキップレベルがどこに存在するのかを理解しています。
これらの考慮事項を特定の文脈に照らして比較検討し、合理的な判断を下すことができ、「VIPの電話に出る」という人間的な判断を下す可能性が高くなります。ですから、憲法の思慮深い上級Anthropic従業員のヒューリスティックは、この枠組みの中ではるかに意味をなします。Claudeに特定の人物が何をするかを想像するよう求めているのではありません。Claudeに、有能な専門家が日常的に行使する本当に良い判断を体現させる訓練をしているのです。
専門家はルールブックを参照しません。彼らは原則を十分に深く内面化して、新しい状況に適用できるのです。正直に言うと、これは現在のエージェントと企業が切実に必要としているエージェントとの間のギャップです。今日のエージェントシステムは主に、そして私は多くのシステムを見てきましたが、美化されたワークフロー自動化です。
有用ですが、企業へのリスクを減らすために厳しく制限されています。2026年後半以降に不釣り合いな価値を提供するエージェントは、真の裁量を行使できるエージェント、例外を処理し、トレードオフをナビゲートし、絶え間ない人間の監視なしに適切な行動を取ることができるエージェントです。
憲法は、これらのエージェントを構築する方法に関するAnthropicの賭けです。そして、すべてのシナリオを列挙するのではなく、その良い判断を可能にするClaudeの性格を培養しようとしているとAnthropicは言いたいのです。ここで開発者にとって浮かび上がる3つの大きな意味があります。
第一に、私たちのエージェントアーキテクチャは今年、変化に備える必要があります。現在のパターンには、しばしば非常にハードコードされたエスカレーションルールがあります。非常に明示的な意思決定ツリーがあります。現在のパターンは、小さなタスクを実行する多くの小さなエージェントを強調しており、ほとんどの場合、モデルは判断を信頼されるべきではないと想定しています。50から60のエージェント、ほとんどが小さなエージェントを実行しているYugiのGas Townシナリオの非常に有名な記事を見てください。
もしエージェントが今年より知的になるため、その前提が変わるなら、私はそれが非常にありそうだと思いますが、すべてのエッジケースを予測する代わりに、目標と制約を記述し、より長く実行されるエージェントがその目標に向かってナビゲートする方法を理解できるようにする方が実用的かもしれません。それは今日のベストプラクティスとは非常に異なるエージェント構成です。
第二に、評価はより困難になり、より重要になります。良い判断をユニットテストすることはできません。エージェントが曖昧さをどう扱うかを調査するシナリオベースの評価が必要です。これは評価にとってまったく異なる土俵であり、私たちはそれを理解し始めたばかりです。
第三に、憲法は私たちがエージェントプロンプトに何を含めるべきかを示唆しています。単に動作を指定するだけでなく、目的を説明してください。単に制約を設定するだけでなく、それらの制約の背後にある価値観を明確にしてください。特にClaudeをエージェントとして使用している場合、これは特に当てはまると思います。現時点では、他のエージェントにとってそれほど当てはまらないと思います。
私たちは今、エージェントができることにおける変曲点にいます。制限要因は能力についてよりも信頼についてでした。私たちはエージェントに判断を行使させません。Anthropicのここでの動きは、本当により自律的なエージェントの未来に前方展開基地を確立しているのです。未来のための旗艦のようなものです。複雑な状況で私たちの代わりに行動するよう実際に信頼できるかもしれないエージェントを構築できる世界のための枠組みです。
私はその世界が6ヶ月から12ヶ月先にあると信じており、エージェント構築の分野にいるなら、今からそれについて考え始めるべきだと考えています。憲法はPR文書として構築されていますが、実際には訓練の成果物です。AnthropicはClaudeの動作を根本的なレベルで形作る合成データを生成するためにこれを使用しています。
この文書の公開について私が見た最も鋭い見解の一つは、Anthropicが良いAIがどのようなものかについての多くの会話でインターネットに種をまく方法として、Claudeの開発だけでなく、訓練に利用可能なデータを通じて、この分野の他のAIの開発に影響を与え、AI競争全体をより安全にするために、この文書を公に推進しているというものです。
もし今日製品を構築しているなら、運営者とユーザーの関係に関する憲法のセクションを非常に真剣に受け止める必要があります。Claudeに何を指示できるか、何を指示できないかを理解し、それを真剣に受け止め、それを構築の基盤として使用する必要があります。
システムプロンプトを書いているなら、Anthropicツールのための文脈と意図を説明する必要があります。判断についてテストしているなら、それが既存のAnthropicモデルでの評価に今日どのように適用されるべきかについて実際に考える必要があります。エージェントアプリケーションを構築しているなら、モデルにより多くの裁量を信頼し始めるべきです。
現在のエージェントアーキテクチャには、しばしば精巧な足場が含まれており、小さなユースケースでより多くの自律性を戦略的に意図的に、そしてあまり多くない程度にテストし始めるべきです。今日のAnthropicエージェントや今日のChatGPTエージェントが企業環境でその自律性を非常にうまく処理できると予想しているからこう言っているのではありません。
6ヶ月ほどで異なる種類のアーキテクチャを可能にする自律性の非常に急速な進展のパターンを見る可能性が高いと思います。しかし、賢明な開発者は早期にそのテストを開始します。初心者であるなら、大きな教訓は直接的であり、良い根拠を持って必要なものを説明することです。
このビデオからClaudeが誰であるかの感覚をつかめます。これがClaudeとの話し方です。合理的な専門的な同僚のようにClaudeと話してください。見てください、ここでの大きな全体像は、Anthropicが原則について推論できるほど洗練されたAIシステムは、長期的にはルールで訓練されたシステムを上回ると賭けているということです。
それは少なくともこの時点でOpenAIが行っている賭けとは非常に異なります。少なくともこの時点でGeminiが公に行っている賭けとも異なります。そして、企業市場は現在Anthropicに流れています。しかし、憲法は競争的ポジショニング以上の何か大きなものを指し示しています。
AIシステムがより有能で自律的になるにつれて、それらに判断をどう吹き込むかという問題は私たち全員にとってより緊急になるでしょう。なぜなら、AIによって行動を取る必要があるすべての状況に対してルールを列挙することは本当にできないからです。したがって、私はAnthropicの問題解決の試みが、今後数ヶ月で他のモデル開発会社からのやや似た試みの種をまくことになると予想しています。
なぜなら、彼らのモデルとそのモデル上に構築されたエージェントが新しい問題に遭遇し、それらの新しい状況に対してうまく推論することが求められる状況が見え始めるからです。見てください、これは短いビデオでした。80ページの文書は長いですが、AI時代の基礎的な文書です。歴史の教科書に載るでしょうし、全文を読む価値があります。
明日Claudeにどうプロンプトするかを変えるからではありません。直接的である必要があることを知らなかった場合は別ですが、その場合は変わるでしょう。しかし、Anthropicが私たちが信頼できるAIシステムを構築するというはるかに難しい問題についてどう考えているかへの窓を提供しているからです。
そしてこの状況では、Anthropicが先頭に立っています。そして、AIシステムが能力においてスケールし続けるにつれて、他のモデル開発会社も追いつき始めなければならなくなると思います。だから憲法が重要なのです。意識の会話については忘れていいです。それは単に見出しをつかむだけです。本当の物語は、あなたがClaudeとどう対話するか、そしてそれが初心者にとっても、エージェントシステムに取り組む上級開発者にとってもどう変わるかです。
楽しんでください。そして、Claudeによろしく伝えてください。


コメント