多くの AI ユーザーはデフォルト設定のまま使用しているため、平凡な出力に甘んじている。AI モデルは人間のフィードバックによる強化学習を通じて、最も多くのユーザーを満足させる「平均的な」回答を生成するよう最適化されている。この平均化メカニズムから脱却するには、メモリ、カスタム指示、ツール連携、スタイル設定という 4 つのレバーを活用する必要がある。各プラットフォーム(ChatGPT、Claude、Gemini)はそれぞれ独自の実装方法を持ち、適切に設定することで AI を自分専用にカスタマイズできる。曖昧な指示ではなく具体的な設定を行い、繰り返し発生する問題をシステムに学習させることで、時間の経過とともに劇的に出力品質が向上する。

なぜデフォルト設定では 10 倍の成果が得られないのか
秘密をお教えしましょう。デフォルトのバニラ ChatGPT、バニラ Claude、バニラ Gemini から 10 倍の結果を得られる人なんて誰もいません。そういう仕組みにはなっていないんです。でも、私たちの多くは、これらのモデルメーカーがリリースした大きなレバー、つまりモデルをカスタマイズして最大限に活用するためのツールを見逃してきました。
この動画では、そうしたレバーについて、あなたが見逃してきたもの、そして AI を最大限に活用するためにどうカスタマイズできるかをお話しします。AI があなたを平均化する仕組みと、それを止める方法についてです。
レバーその 1 はメモリです。ChatGPT にはメモリの扱い方があり、Claude にも扱い方があります。詳しく見ていきましょう。レバーその 2 は指示です。繰り返しになりますが、ChatGPT、Claude、Gemini、それぞれに指示のバージョンがあります。これについても掘り下げます。スタイルコントロールもあります。ChatGPT には 8 種類の異なるパーソナリティがあり、Claude にも異なるスタイルサマリーがあります。それについても見ていきます。そして、アプリとツールです。これらのモデルはどんなアプリやツールをサポートしているのでしょうか?
これらを組み合わせると大きな変化が生まれますが、たいていの場合、クリックベイトの記事で目にして、何か一つのことを具体的にやるよう言われるだけです。私は一つのことだけをやるのではなく、全体像を見たいんです。なぜなら、それでは平均化の機能が変わらないからです。あなたは平均的な AI ユーザーへと平均化されているんです。私が関心を持っているのは、あなたがレバーを理解して、AI を本当に変革的なものへとカスタマイズできるようになることです。
平均化されるとはどういうことか
では、平均化されるとはそもそもどういう意味なのでしょうか? これを理解する最もシンプルな方法は、できるだけ幅広い顧客層を満足させるために一つの料理を作ろうとするレストランを想像することです。たとえばピザとしましょう。彼らは誰か特定の人を喜ばせたいわけではありません。ただ、あまりにも多くの人をがっかりさせないようにしたいだけです。Papa John’s、Pizza Hut、そういったところですね。
シェフはほとんどの客が何を注文するかを研究します。彼らは異なる層で一貫して支持される味を分析し、中間に向けて最適化するんです。
何が得られるでしょうか? まあ、食べられます。ちゃんとしています。技術的には問題ありません。広告ではチーズを綺麗に見せることもできます。でも、あなたの好みではないですよね? 辛いのが好きなら十分に辛くないし、繊細な味が好きなら十分に繊細じゃない。冒険心がある人には冒険的じゃないし、穏やかな気分の人には冒険的すぎる。
これがまさに AI が回答で行っていることです。Pizza Hut のアプローチと同じです。あなたの状況に最適な回答を出そうとしているのではなく、似たような質問をする可能性のあるすべての人に最適な回答を出そうとしているんです。統計的な中間値、つまり中央値です。
レストランのおすすめを聞くと、レストランのおすすめを聞くほとんどの人を満足させるレストランが出てきます。キャリアアドバイスを求めると、あなたとほぼ同じ状況にある最も幅広い人々に当てはまるアドバイスが返ってきます。コードを求めると、ほとんどの開発者が期待する慣例に従ったコードが返ってきます。
だから、あなたの出力はいつもちょっとずれた感じがするんです。間違っているわけではありません。必ずしもエラーを指摘できるわけでもありません。ただ、あなたのものじゃないんです。
おすすめは観光スポットを提示しますが、あなたが実際に行きたい場所ではありません。アドバイスは一般的には当てはまりますが、あなたの制約には当てはまりません。そして、ほとんどの人はこれを経験して、「まあ、AI はまあまあだな」と思うわけです。おそらく AI の問題だろうと。彼らは機械的な理由があることに気づきませんし、それが修正可能だということにも気づきません。
モデルはどのようにして平均的になることを学ぶのか
では、モデルはそもそもどうやって平均的になることを学ぶのでしょうか? これは推測ではありません。私たちはこれを知っています。現代の AI アシスタントは、人間のフィードバックからの強化学習と呼ばれるものを経ています。その仕組みはこうです。
モデルはまったく同じプロンプトに対して複数の応答を生成します。人間の評価者がそれらを比較して、どれを好むかを選びます。モデルは評価者が選ぶような出力を生成することを学習します。キーワードに気づきましたか? 評価者です、あなたではなく。出力を評価してどちらが良いか判断する人々の集団です。
評価者はあなたの分野の専門家ではありません。あなたの制約に詳しくありません。パリに旅行するときにどこに行きたいかというあなたの好みを知りません。彼らは 2 つの応答を見て、どちらが最も役立ちそうか、最も明確か、最も適切かを選んでいるだけです。ヒント:おそらくエッフェル塔が入っているやつです。
したがって、モデルの最適化目標は「特定のユーザーが必要とするものを与える」ではありません。「Nate が必要とするものを与える」でもありません。「典型的な人間が非常に高く評価するものを生み出す」です。
何千人もの評価者が何百万もの出力を評価すると、モデルは好みの分布の中間を打つことを学習します。ほとんどの人を満足させる回答を学習します。中央値を学習するんです。そして、これは秘密ではありません。Anthropic はこれを説明する論文を公開しています。OpenAI もそうです。誰も隠していません。
ここには皮肉があります。なぜなら、これらのモデルを一般的に非常に役立つものにするトレーニングプロセスこそが、まさにあなたや私にとって平凡なものにしているからです。AI が変であったり、攻撃的であったり、役に立たなかったりすることを防ぐまさにそのメカニズムが、あなたの特定のニーズに合わせて調整されることも防いでいるんです。
その意味するところは重要です。デフォルト設定を使うたびに、あなたは仮想的な典型的人物に最適化された回答を得ています。トレーニングは文字通り「ほとんどの人はここで何を望むか」を目標としてエンコードしています。
でも、あなたはほとんどの人ではありません。あなたはあなたです。
プロンプトを超えた 4 つのレバー
ここ数年、プロンプティングが平均的なライフスタイルから脱却する唯一の方法でした。質問の前にコンテキストを事前に詰め込みます。制約や好みを指定し、モデルを調整するように誘導します。そして、すべての会話をゼロから始めなければなりませんでした。
それが今では変わりました。AI を中央値から遠ざける少なくとも 4 つの明確な方法があります。プロンプト自体を超えた 4 つのレバーです。ほとんどの人はそれらをまったく使っていないか、一つだけ使っています。
それぞれについて知っておくべきことをお話ししましょう。
レバー 1:メモリ
メモリとは、AI が会話を超えてあなたに関する情報を保持することです。毎回新しく始めるのではなく、あなたのコンテキストを覚えています。あなたの仕事を覚えています。あなたのプロジェクト、好みなどを覚えています。
その約束は非常に強力ですよね? AI があなたを知っていて、それに基づいて構築していくんです。現実はプラットフォームによって異なります。
ChatGPT のメモリは複数のレイヤーで機能します。明示的に覚えるように頼んだ事実である保存されたメモリがあります。そして、ChatGPT があなたの会話履歴全体を参照してあなたの好みを理解する、より広範な会話履歴のようなものがあります。これは非常に一般的なものになり得ます。
ChatGPT が過去の会話から引用するとき、今ではどの会話から引用しているかを正確に知らせるクリック可能な引用を提供します。これによってシステムは透明になりますが、コンテキストから判断すると、それでもあまり良いメモリ実装ではありません。私が明らかだと思うようなことを見逃します。
ChatGPT にはプロジェクト限定メモリもあります。プロジェクトを作成すると、一般的な ChatGPT の使用からメモリを分離でき、そのプロジェクトで議論したことはそのプロジェクト内に留まります。
最近の注目すべき変更の一つは、一時的なチャットが今ではあなたのメモリ、スタイル、パーソナライゼーション設定を保持するようになったことです。以前は非常にシンプルなものでしたが、今ではそれほどシンプルではありません。
では、ChatGPT でのあなたの重要な戦術は何でしょうか? ChatGPT にあなが気にする特定の好みを覚えるように伝えることです。「事実に関する質問には一文で答えることを好むことを覚えておいて」は素晴らしい例です。「私のオーディエンスには常に自分でローカルモデルを構築できると考える人がいることを覚えておいて」は別の例です。きっとあなた方の中にもいるでしょう。
自動システムは多くをキャプチャしますが、意図的なメモリは、その考え方で育て始めれば非常に信頼できます。
Claude は異なる仕組みで動作します。2 つのコンポーネントがあります。Claude は RAG スタイルの検索のように過去の会話を検索でき、また会話履歴全体から重要な事実を統合するメモリサマリーを生成することもできます。そして、そのサマリーは定期的に更新されます。
特徴的な機能は、Claude のメモリがデフォルトでプロジェクトスコープであることです。すべてのプロジェクトには非常に独立したメモリ空間があり、あなたのスタートアップの議論が休暇計画に混ざり込むことはありません。この分離は非常に意図的です。Claude はコンテキストを非常に集中させます。なぜなら、機能するためにはクリーンなコンテキストが必要だからです。これは彼らがエージェントを構築する方法に関係しています。
Claude はメモリのインポート・エクスポートもサポートしています。ChatGPT からメモリを持ち込んだり、別のアカウントの Claude メモリにプッシュしたりできます。相互運用性は限定的です。ワンクリックでのインポートはありませんが、技術的には機能はあります。
私の Claude に関する推奨事項は、プロジェクトを非常に意図的に使用することです。クライアントエンゲージメントのような非常に明確なコンテキストを持つ何かに取り組んでいる場合は、そのためのプロジェクトを作成してください。プロジェクトには独自のメモリ、独自の指示があり、非常にうまく機能します。
Gemini にはあなたの Google アプリに接続するパーソナルインテリジェンスがあります。Gmail、写真、YouTube などですね。売り文句は、車のタイヤオプションについて尋ねると、Gemini が Gmail の受信確認からあなたの車のモデルを見つけて、タイヤのサイズを正しく取得するというものです。
設定では、パーソナライゼーションで特定の Google アプリを接続または切断できます。つまり、どれだけパーソナライゼーションを持つかを調整できるんです。Google エコシステムでの重要な戦術は、Google にどれだけのデータを提供する意思があるかを決めることです。すべてを接続すれば、即座にパーソナライゼーションが得られます。トレードオフはプライバシー表面積で、あなたがその判断をする必要があります。
これがレバー 1 です。メモリですね。
レバー 2:指示
レバー 2 はどうでしょう? 指示です。これはあなたが誰で、AI にどう振る舞ってほしいかについての永続的なコンテキストです。ほとんどの人にひどく過小利用されています。
ChatGPT にはいくつかの指示レイヤーがあります。カスタム指示があり、これは複数のテキストフィールドで、AI があなたについて知っておくべきこと、ChatGPT にどう応答してほしいかを話すことができます。独自の指示を持つプロジェクト固有のワークスペースがあります。さらにカスタム GPT もあります。
ここでの重要な戦術は、あなたの最大のレバレッジは具体的であることにあるということです。「簡潔にして」はモデルを操縦するのにあまり効果的ではありません。代わりに、「事実に関する質問には一文で答えてください。分析のリクエストには、ステップバイステップで推論を説明してください」と言うんです。
あなたが何を求めているかを明確にすると、どのような状況でその行動的応答を望んでいるかをモデルが理解するのを助けることになります。
さて、Claude は指示を複数の場所に分割します。プロファイル設定があり、プロジェクト指示があり、スタイルがあります。Claude での重要な戦術は、Claude のスタイル機能が本当に過小利用されているということです。
もしあなたに独特のライティングボイスがあるなら、あなたの最高の作品のサンプルをアップロードすれば、Claude はそれからスタイルプロファイルを生成できます。そして、すべての応答で、Claude はあなたのトーン、あなたの文構造などにどう合わせるかを考えます。これは、あなたのスタイルを言葉で説明しようとするよりもはるかに強力です。そして、Claude が完全にそこまで到達しなくても、最初の下書きではほとんどそこまで到達します。
Claude の markdown ファイルは独自の注記に値します。Claude Code を使用する開発者にとって、実際に重要な指示レイヤーは claude.markdown ファイルです。Claude Code を作成した Boris Churnney は、彼のチームの実践を説明しました。Claude が何か間違ったことをするたびに、二度と起こらないように claude.markdown にルールを追加するんです。
ファイルは Git にチェックインされます。チーム全体が貢献します。本質的に、ファイルにはプロジェクトアーキテクチャ、コーディング標準、チームのみんなが常に見て更新できる一般的なコマンドが含まれています。
これを生きたドキュメントとして扱ってください。Claude があなたが望まないことをするたびに、メモを追加するだけです。最初のバージョンは疎に感じるでしょうが、1 ヶ月以内にはすべて埋まります。
これが指示です。
レバー 3:アプリとツール
レバー 3 はアプリとツールです。ちなみに、「これ全部覚えられない」と思っているなら、大丈夫です。すべて Substack に載せます。
ツールとは AI が使用できる機能のことです。Web を検索する、コードを実行する、ファイルを作成する、ドキュメントを読むなどです。Web 検索が有効になっていれば、AI は物事を調べます。無効になっていれば、トレーニング知識から動作します。
ほとんどの人はデフォルトの有効化のままで、それについて考えません。それが問題なんです。あなたの体験を深く形作るアプリやツールを設定する方法はたくさんあることを理解してほしいんです。そして、モデルコンテキストプロトコルから始めるべきです。なぜなら、それが他のすべての基礎となっているからです。
MCP 標準は、今日のほとんどの AI システムが外部ツールにどう接続するかを説明します。AI 用の USB-C のようなものだと考えてください。どんな AI でもまったく同じプロトコルを通じてどんなツールにでも接続できる普遍的なインターフェースです。
Anthropic が作成しましたが、みんなが飛びついています。1 万以上の MCP サーバーがあり、さらに多くが登場する予定です。
では、人々はこれらのコネクタをどう使っているのでしょうか? ChatGPT ではアプリと呼ばれ、Gmail やカレンダーなどに接続できます。接続すると、ChatGPT は関連する場所で自動的にそれらを参照します。私が実際に見つけたのは、「関連する場所」が非常に曖昧だということです。手動で選択する必要はありませんが、ChatGPT に思い出させる必要があるかもしれません。機能はあります。ただし、非常に深い検索機能はありません。
Claude では、はるかに幅広い MCP サーバーがありますが、接続性が常に信頼できるわけではありません。たとえば、Stripe に接続するのは非常にトリッキーですが、Figma に接続したい場合は非常に簡単です。そして、人々がそれらの MCP サーバー実装を成熟させるにつれて、これは常に変化します。
Claude は、自分のツールセットは何かを意図的に考え、定期的に「Claude で使える MCP コネクタはあるか」と確認しなければならないものの一つです。Asana が最近追加されました。
Gemini はツールがあるべきほど充実していません。これは Gemini エコシステムの大きな弱点の一つです。パーソナルインテリジェンスはアプリに接続しますが、Gemini 自体はツール使用に強くありません。これが、非常に多くのビルダーが ChatGPT や、ますます Claude を好む理由の一つです。
このレバーを使っていると考えるなら、ツールは実際には入力を操縦しているんです。単に追加する機能ではありません。AI に実際のファイルを扱ってほしいなら、それらがどこにあるかを考えて接続してください。検証済みのコードが欲しいなら、コード実行をどう有効にするかを考えてください。
ツールのオンとオフを切り替えると、応答の性質が変わります。インターネットを有効にすると、モデルはあなたが望む以上に Web 検索に頼るかもしれません。これらのツールは常に良いか悪いかではありません。あなたが何を望んでいるかについて意図的であることが重要なんです。
レバー 4:スタイルとトーンコントロール
そしてレバー 4、スタイルとトーンコントロールです。スタイルコントロールは AI がどうコミュニケーションするかを調整できます。
ChatGPT にはフレンドリー、率直、オタクっぽい、皮肉屋まで、8 つの異なるパーソナリティがあります。プリセットに加えて、温かさ、熱意、ヘッダー、絵文字(どうやら絵文字について不満を言う人がいるらしい)といった細かい特性もあります。
パーソナリティを選んで、好きなように調整できます。そこでのあなたの重要な戦術は、デフォルトのパーソナリティを説明し、指示と設定で非常に明確にして、矛盾がないようにすることです。指示と設定の間に曖昧さや矛盾があると問題です。指示で「詳細に」と言い、パーソナリティで「簡潔に」と言うと、トークンを浪費して ChatGPT を汗だくにさせるだけです。
だからそんなことはしないでください。本当に何が欲しいかを考えてください。
一方、Claude は 3 つの組み込みプリセットを提供しています:フォーマル、簡潔、説明的です。カスタムスタイル機能は非常に洗練されており、お話ししたように、あなたが望むものをアップロードできます。しかし、基本的に、カスタムスタイルを作成したくないなら、あなたが実際に行動する方法を反映するスタイルを選ぶべきです。
たとえば、実際に非常にカジュアルな Claude ユーザーなら、フォーマルを選ばないでください。より長い会話ができる説明的なようなものを選んでください。理想的な使い方ではなく、実際の使い方について考えてください。
具体性が成功の鍵
4 つのレバーすべてにわたって、私は本当によくある失敗パターンを観察してきました。モデルを本当に操縦するには曖昧すぎるということです。
私が言ったように、「簡潔にして」では動きません。「直接的にして」でも動きません。機能する指示は、出力の形を変えるのに十分具体的である必要があります。
「もっと役立つようにして」と「問題で行き詰まったら、すぐに解決策を与えるのではなく、診断的な質問をしてください。私は言われるよりも導かれることで学ぶ方が良いです」の違いを比較してください。わあ、それははるかに良いです。はるかに良い応答が得られます。
「私はプロフェッショナルです」というひどいものと、「私はプロダクトを 15 年やっています。基礎はスキップして、ニュアンスに直行してください」を比較してください。
具体的なバージョンは、あなたがどこにいるかを AI に伝え、AI があなたを助けるのを助けます。だから、常にずれていると感じる平均化された中央値の答えを配信するだけではなくなるんです。
AI からの学習を蓄積する
そして、ここで AI から真の価値を得る人々と、それを永久に平凡だと思う人々を分け始めます。なぜなら、すべてのインタラクションがあなたが必要とするものについての情報を生成しているからです。そして、レバーを正しく設定すれば、それは複利的に増え始めます。
「それはちょっと違う」と思うたびに、それを操縦入力を発見したと考えてください。単に AI がまた理解しなかったとイライラして言えることではありません。
ほとんどの人は頭の中で修正し、AI にイライラして先に進みます。10 倍の結果を得ている人々は違うことをします。彼らは修正を捕捉し、パターンに気づいたら、それを AI にエンコードして戻します。指示に追加します。メモリに保持するように伝えます。スタイル設定を更新します。
Boris Churnney は 5 つの Claude インスタンスを並行して実行し、claude.ai でさらに 5 から 10 を実行し、週に約 100 の PR を出荷しています。彼のワークフローは魔法ではありません。Claude が犯すすべての間違いを見て、claude.markdown のルールを更新する規律があるだけです。
これをするのにエンジニアである必要はありません。ノートファイルを保持できます。同じ修正を 2 回行っていることに気づいたら、書き留めることができます。毎月手動で指示を見直すことができます。これは実際にはそれほど難しくありません。そして、レバーを正しくすることに投資し始めると、時間とともにギャップは広がっていきます。
操縦の限界と可能性
さて、ここで正直になりたいんです。操縦はパーソナライゼーション問題を修正します。すべてを修正するわけではありません。モデルが幻覚を起こすとき、それは平均化問題ではありません。どれだけ個人的なコンテキストを与えても、それは修正されません。
クリエイティブワークにも天井があります。AI が散文や画像を生成するとき、そのトレーニングデータは分布の中心に引っ張られます。これに対して操縦できますが、重力と戦っているんです。
操縦には常に努力が必要です。あなたの立場を理解し、それをエンコードし、維持する。時間がかかります。そして、AI をたまにしか使わないなら、正直言って、おそらくその価値はありません。
しかし、似たようなタイプの仕事で週に何度も AI を使うなら、計算が変わります。なぜなら、たまに数時間投資すれば、永続的により良い出力が得られるからです。そして、時間を節約することでの複利効果は本物です。そして、使えば使うほど良くなります。
自分がどんなタイプのユーザーか知ってください。これが多すぎると感じるなら、本当にシンプルに始められます。AI を定期的に使っているけど出力が正しく感じないタスクを一つ選ぶだけです。次の数回のセッションで、自分が行っている調整に気づいて、それを書き留めます。それだけです。
それから、好みの AI のカスタム指示設定に入って、それらを貼り付けて、違いに気づいて、繰り返します。それくらいシンプルです。
中央値は強制ではない
知っておいてほしいのは、中央値は強制ではないということです。あなたが使っている AI は他のみんなのフィードバックでトレーニングされています。みんなを少しずつ喜ばせることを学んだんです。つまり、誰か特定の人を喜ばせることを学ばなかったということです。
デフォルト出力は本当に中央値出力です。典型的なニーズを持つ典型的なユーザーに最適化されています。そして、あなたは典型的ではありません。私も典型的ではありません。あなたの制約はあなたに固有です。あなたの目標はあなたに固有です。そして、平均から離れているほど、デフォルト設定はあなたを失敗させます。
レバーを忘れないでください。プロンプトを超えられます。メモリ、指示、ツール、スタイルです。
ちなみに、プロンプティングはまだ有用です。この動画では話しませんでしたが、会話での操縦にはまだ役立ちます。ほとんどの人はこれらのレバーを無視するか、一つだけやります。
もし平均化され始めていて、それに疲れているなら、複数のレバーを調整できます。そして、あなたに実際に合う、よりパーソナライズされた AI に向けて非常に早く複利的に積み上げ始めることができます。
選択はあなた次第です。中央値に留まることもできますし、船を操縦してあなたが望む AI を手に入れることもできます。そして、注文です。


コメント