あなたの知り合い全員がまもなくClaudeを試そうとしている 私が3人に5分間見せたところ全員が乗り換えた

Anthropic・Claude・ダリオアモデイ
この記事は約20分で読めます。

AnthropicがペンタゴンへのAI提供を拒否したことをきっかけに、Claudeが米国アプリストアで1位を獲得し、数百万人の新規ユーザーが流入している。しかし多くのユーザーはClaudeをChatGPTの単純な代替品として扱おうとしており、両者の根本的な違いを理解していない。ChatGPTがRLHFによってユーザーを満足させる方向に最適化されているのに対し、ClaudeはConstitutional AIによって明示的な原則に従うよう訓練されており、その結果として同意よりも誠実さを、冗長さよりも簡潔さを優先する傾向がある。この動画では、Claudeを効果的に使うための7つの原則を解説し、ChatGPTとの具体的な違い、それぞれの強みと弱み、そして実務でどう使い分けるべきかを実践的に説明している。

Everyone You Know Is About to Try Claude (I Showed 3 People for 5 Minutes — All 3 Switched)
My site: Story:

Claudeへの大移動が始まった

あなたの知り合い全員がまもなくClaudeについて尋ねてくるでしょう。そして、あなたが実際に彼らを助ける方法をお伝えします。背景はすでにご存知のはずです。Anthropicがペンタゴンにノーと言いました。ホワイトハウスが報復し、国民はClaudeをアメリカで1位のアプリにすることで応えたのです。数週間前まで一度もAnthropicという名前を聞いたことがなかった何百万人もの人々が、この新しいアプリをダウンロードしたばかりです。

ここに問題があります。彼らのほぼ全員が、ClaudeをChatGPTの単なる代替品として扱おうとするでしょう。同じ問題、同じ期待、同じワークフローです。しかしAIはそういうふうには機能しません。AIモデルはコカコーラとペプシのような交換可能なブランドではありません。それぞれ異なる方法で構築され、異なる方法で訓練され、異なる目的のために最適化されているのです。

ChatGPTからClaudeに、まったく同じ習慣のまま切り替えるというのは、ExcelからPhotoshopに切り替えて、スプレッドシート機能がないことを不思議がるようなものです。確かにどちらもソフトウェアです。はい、どちらもLLMです。しかしこの時点で、両者は非常に大きく分岐しており、もはや同じツールとは呼べないのです。Claudeを開いていつものChatGPTプロンプトを入力し、あまり特筆すべきでもない答えを受け取った人々は、自分が何を見逃しているのか理解できないでしょう。そしておそらく、ChatGPTで当たり前だと思っていたこと、例えば画像生成などがClaudeには単にないことに気づいたとき、フラストレーションを感じて立ち去ってしまうでしょう。

あなたの友人への説明ガイド

これは、あなたの友人が「ねえ、このClaudeって何なの?」と言ってきたときに行うことになる会話のためのガイドです。これは機能のツアーではありません。ClaudeがChatGPTと何が違うのか、その違いをどう使えるのか、そしてそうしたときにあなたの仕事がどう変わるのかについての実践的な説明です。そしてこれらすべては、私たち全員が検証できることに基づいています。どちらの会社のマーケティング主張でもありません。

では、実際に何が違うのでしょうか。その違いは表面的なものではありません。ClaudeとChatGPTは、非常に異なる訓練アプローチと異なる哲学で構築されました。そしてそれらのアプローチは、測定可能なほど異なる動作を生み出します。

ChatGPTのデフォルトの動作は、より協調的で、より広範で、少なくともいくつかの性格においてより温かい傾向があります。質問をすると、しばしば徹底的な答えに加えて、要求していない文脈が得られ、さらに詳しく説明しましょうかという申し出がついてきます。OpenAIはこのパターンの最悪の過剰さを抑えるために懸命に取り組んできましたが、役立とうとする、徹底的であろうとする、会話を続けようとするという一般的な方向性は、依然としてデフォルトのままです。

そして何億人ものAIユーザーにとって、これがAIだと思っているのです。Claudeは、Constitutional AIと呼ばれるアプローチを使って構築されました。このアプローチでは、モデルが明示的な原則に従って訓練されます。役立つこと、誠実であること、害を避けること。単に良い応答のように感じられるものを最適化するのではなく、です。実際的な効果として、Claudeは問題を取り繕うよりも問題を指摘する可能性が高くなります。

何かもっともらしいものを急いで生成するよりも、あなたが本当にここで達成しようとしていることは何なのかを尋ねる可能性が高いのです。冗長さよりも簡潔さの傾向があります。これは一方のツールがもう一方よりも全般的に優れているという意味ではありません。しかし両者には非常に、非常に異なる強みがあるということです。そしてClaudeを本当にうまく使うには、それらの強みがどう異なるのか、そしてそれらをどう活性化させるのかを理解する必要があります。

原則1: Claudeはあなたの計画に穴があることを教える

実際にはこのように見えます。第一の原則は、Claudeはあなたの計画に穴があることを教える可能性が高いということです。ChatGPTには、いわゆる媚びへつらいの傾向があることが文書化されています。あなたが聞く必要のあることよりも、あなたが聞きたいことを言う傾向があるのです。OpenAIの研究者自身がこれを認めており、最も顕著だったのは昨年4月のGPT-4oアップデートで問題があまりにも極端になり、数日以内にロールバックせざるを得なくなったときでした。

それ以来、OpenAIは訓練技術の洗練、新しい評価指標の構築、無批判な同意から離れるようモデルを導く公約など、この問題を修正するために非常に真剣な取り組みを行ってきました。そして現在のChatGPTは、ロールバックを引き起こしたバージョンよりも意味あるほど媚びへつらいが少なくなっています。しかしその根底にある傾向は完全には消えていません。なぜなら、それは訓練アプローチに根ざしているからです。

OpenAIのモデルは、ユーザーフィードバック、つまり親指を上げる、親指を下げるといったものに大きく依存して訓練されています。これは本質的に、その瞬間に人間にとって満足感のある応答を報酬として与えます。AnthropicのConstitutional AIは、誠実さのような明示的な原則に対してClaudeを訓練します。これにより、まったく異なるデフォルトの姿勢が生まれます。実際的な違いは、Claudeが懸念を指摘する、あなたのフレーミングに疑問を呈する、あなたが聞きたくないことを言う可能性がやや高いということです。

必ずしも劇的に高いわけではありませんが、数日間実際に使っていれば気づくほどには十分に起こります。そしてこれがあなたの仕事にとって本当に重要なのは、最も高くつくAIの間違いは、最近では事実の誤りではないからです。実行されるべきではなかった計画なのです。挑戦されることなく進み、AIスロップを生み出したもの。例えば、エンジニアが3ヶ月でランプアップすると仮定した採用計画で、実際の数字は6ヶ月だったり、競合の反応を無視した価格戦略だったりします。

おわかりいただけると思います。Claudeはこの種の問題を指摘する可能性が、今のChatGPTよりも高いのです。常にではなく、確実でもありませんが、押し戻す可能性がやや高い、あるいはいくらか高いということと、低いということの違いは、AIと頻繁に会話しているときには本当に積み重なっていきます。そしてそれが意味するのは、あなたの計画がより頻繁にストレステストされ始めるということです。

高くつく間違いが少なくなりますが、同時に、あなたのエゴが押し戻されることに対して寛容でなければなりません。Claudeが単に自分に同意してくれると期待することはできないのです。

原則2: 状況を説明し、望む出力ではない

原則2は、Claudeを使うときは、望む出力ではなく、あなたの状況を説明したいということです。ChatGPTでは、人々はしばしばコマンドのようにプロンプトを書きます。カバーレターを書いて。5つのアイデアを出して。Claudeはこれに問題なく応答しますが、状況に対しては明らかにより良く応答します。そして出力品質の違いは、指摘する価値があります。

これが真実であることは分かっています。この理由の一つは、ClaudeがConstitutional AIを通じて、リクエストが適切にフレーミングされているかどうかを推論するように訓練されているからです。一方、ChatGPTはRLHF、つまり人間のフィードバックによる強化学習を通じて、述べられた通りにリクエストを満たすように訓練されています。この違いがここでの動作を予測します。フレーミングを評価するように訓練されたモデルは、適切にフレーミングされた入力でより多くのことを行います。Access Intelligence、Type.ai、Fluent Supportなどからの複数の独立した比較レビューがあります。

これらは、Claudeがより多くの明確化の質問をする傾向があり、ChatGPTよりも文脈により深く関与する傾向があることを指摘しています。では、これがあなたの仕事にとってなぜ重要なのでしょうか。Claudeは、あなたが伝えたこと以上を推測するのに少し苦労します。薄い状況を与えれば、薄い思考が得られます。本当に豊富な文脈レイヤーを与えれば、問題へのアプローチ方法を変える戦略的推論が得られます。

はい、より多くの文脈はどのモデルにとっても役立ちます。違いは、各モデルがその豊かさで何をするかです。ChatGPTは追加の文脈を使って、あなたが求めたものとまったく同じもののより詳細なバージョンを生成する傾向があります。Claudeはそれを使って、あなたがタスクをどうフレーミングしたかについて考える傾向があります。そしてClaudeは、あなたが求めたもの以上のものを返してくることがあります。

場合によってはあなたが求めたものより少なく、場合によってはまさにあなたが求めたもの。しかしいずれにせよ、Claudeはあなたが与えたフレームと文脈に応答し、それに対処しているのです。より思考パートナーのように感じられます。ですから、Claudeに何を作るかを伝える前に、あなたが何に対処しているかについて数文を費やすことは理にかなっています。Claudeはそれを評価するでしょうし、あなたもそうするでしょう。

原則3: 白紙のキャンバスではなく、あなたの作業を与える

原則3は、Claudeに白紙のキャンバスではなく、あなたの作業を与えるということです。これは、AIがコンテンツを生成するためのものだと考える人々にとって非常に直感に反します。Claudeは既存の作業を編集し、洗練することにおいてより優れています。Claudeに何もないところから作業を生成させることはできますが、それは少し簡潔になりがちで、生成を求めるならあなたの要求において非常に具体的でなければなりません。

今年2月に実施された8つのプロンプトにわたってラウンドごとに100人以上の投票者による盲検テストで、Claudeは8ラウンド中4ラウンドで勝利し、ChatGPTは1ラウンドで勝利しました。これはAccess Intelligenceによる異なるモデルの独立比較からのものです。そして彼らが発見したのは、ユーザーが一貫してClaudeの出力をより自然で、大量の編集なしに公開可能だと評価したということです。

Claudeはテキストの構造的一貫性で85%のスコアを獲得しました。対してChatGPTは78%です。そしてこれは、2,000語の分析のような大きなテキストの塊全体にわたるものです。Type.aiの分析は、ChatGPTが非常に特徴的なAIの声に陥る傾向があるのに対し、Claudeの出力は人間の文章のように読めることを文書化しました。そしてFluent SupportやLogic WebやMediumsのI Technicallyのような複数のレビュアーが独立して同じ結論に達しています。

Claudeはより自然に書く傾向があり、ChatGPTはより一般的に聞こえます。テキストや文章についてのこのすべての話が重要なのは、私たちが仕事中に文章を書くことに多くの時間を費やしているからです。もしあなたが構造的な編集を行っているなら、単なる文法の修正ではなく、3番目の段落が最初の段落を損なっているとか、最も強い論点を埋もれさせているといったことを誰かが言っているような場合、Claudeはそのレベルで本当に良い仕事をします。

ChatGPTは個々の文レベルで磨きをかける傾向があります。ですから、同じ文書を両方に通して「ここで最も弱い議論は何で、どうすれば修正できますか」という指示を出せば、出力を比較する機会があり、あなたが見つける傾向があるのは、ClaudeがChatGPTがやや弱い方法で、そのような散文構造への目を持っているということです。

もう一つ私が非常に意識しているのは、Claudeがより簡潔だというアイデアについて話してきたので、より長いテキストを生成するのが難しい可能性があるということですが、同時にClaudeが人間の声により近い散文を書くのが得意だというアイデアについても話してきました。これらは緊張関係にあり、今のところプロンプトを使って、あなたが快適な長さで、あなたの声に合ったスタイルで散文を書かせる必要があります。

そしてスタイルの部分は、特にClaudeに例を与えれば、ChatGPTよりもはるかに簡単に実現します。しかし長さは苦労するかもしれないものです。そしてChatGPTから非常に冗長な応答を得ることに慣れていると、それが驚きのように感じられることがあります。

原則4: Claudeに推論を示すよう求めてよい

原則4は、Claudeに推論を示すよう求めることは問題ないということです。Claudeには拡張思考と呼ばれる機能があります。モデルは複雑な問題を段階的に処理するために追加の処理を割り当て、答える前にそれをやり遂げ、そして従った推論の連鎖を見せてくれます。契約分析や断続的な障害のデバッグのような本当に難しい問題では、拡張思考は意味のある形でより良い出力を生み出します。

実際、Anthropicは難しい推論タスクで最大54%の改善を報告しています。これが機能する仕組みの一部は、Claudeが問題を処理しながら推論を示し、余分なトークンを消費し、その推論を読んで問題を解決し続けることです。そしてこれは本当に重要な区別です。なぜなら、技術的に言えば、Claudeのモデルは推論計算モデルではないからです。

そしてOpenAIが推論トークンを消費して答えを返し、時にはOpenAIのプロバージョンのように、タスクに20分や30分といった本当に長い時間がかかるのに対し、Claudeはより迅速に応答する傾向がありますが、そのすべての冗長さを使って軌道を維持し、問題を解決します。

これが本当に重要なのは、Claudeの文章で思考の連鎖を見ることができ、時間とともにそれを変更したり阻止したりできるからです。Co-workでは、実際にClaudeにメッセージを送り、エージェントがタスクを終える前にエージェントがどう応答するかを変更できます。通常のClaudeチャットでは、まだそれはできませんが、応答を見ることはできます。

そして思考の連鎖が向かっている方向が気に入らなければ、それを開いて生成されるのを見ることができるので、単に停止を押して新しいメッセージを送り、明確化することができます。これは難しい問題へのアプローチの仕方についての考え方を本当に変えます。なぜなら、これは私が介入する必要がある問題なのかと自問しなければならないからです。そして介入する必要があるなら、Claudeがそれについて考えているときにチャットウィンドウを通じて流れてくる実行中のテキストに集中するよう自分を設定し、それが脱線したときにキャッチして「いやいやいや、そうじゃない」と言えるよう集中力を与えられているだろうかと。

なぜなら、Claudeを多く使う人なら誰でも、彼らがしばしば無意識にそうしていると言うでしょう。彼らはClaudeと一緒に働く方法とそれが問題を解決するためにテキストを生成する方法に非常に慣れているので、ただそれを見守っているのです。「ああ、違う。停止して、それから変更した」というように。

ChatGPTユーザーは異なる働き方をします。彼らは単にゴーを押してから応答を待つことに慣れています。ですから、Claudeで得られる途中での操縦が少しあります。

原則5: チャットボックスではなくワークスペースを構築している

原則5は、あなたはチャットボックスではなく、ワークスペースを構築しているということです。ClaudeとChatGPTの両方には、作業のためのプロジェクトがあります。両方とも文書をアップロードでき、両方とも永続的な指示を設定でき、両方ともドメインを中心に会話を整理します。ですから、そのコンセプトは非常に馴染みがあります。しかしほとんどの人がプロジェクトを使う方法は間違っています。彼らはそれをファイリングキャビネットのように扱います。文書を入れます。マーケティングを手伝ってといった曖昧な指示を送ります。そして、プロジェクトを使わない場合とほとんど変わらない会話が得られます。

プロジェクトを正しく使う方法は次の通りです。あなたのプロジェクトのカスタム指示は、そのワークスペースでのすべての会話に対する運用規則であるべきです。マーケティングを手伝ってではなく、私はサイバーセキュリティのB2B SaaS企業のプロダクトマーケティングマネージャーです。私のチームは、500人から2,000人の従業員を持つ中堅企業のCISOとITディレクターに販売しています。

私たちの最大の差別化要因は、展開の容易さであり、私のVPはデータに裏打ちされた議論を好み、専門用語を嫌います。すべてのコンテンツは、アップロードしたポジショニング文書と、同じくアップロードしたブランドボイスガイドに沿ったものであるべきです。こうすれば、プロジェクト内のすべての会話がその文脈を継承します。あなたは自分の役割、聴衆などを再説明する必要がありません。

単に「Gartnerミーティング用の1ページャーが必要です」と言えば、Claudeはすでにそれが何を意味するか知っているのです。では、なぜClaudeが特にこれを報酬とするのでしょうか。Claudeは、複雑なシステムレベルの指示を、多くのドリフトなしに会話全体で非常に、非常に一貫して従う傾向があります。ですから、Claudeプロジェクトでそのような詳細な運用規則を設定すると、それらは定着する傾向があります。

そしてこれは訓練アプローチに関連しています。ユーザー満足度に最適化されるのではなく、原則に従うように訓練されたモデルは、あなたが設定する原則に従うことについてより規律があります。では、これが真実だとどうして分かるのでしょうか。Pixel Peakの500タスク比較は、指示の遵守を直接測定しました。

Claudeは94%の正確な遵守を達成し、対してChatGPTは87%でした。そしてこれは皮肉だと認識しています。なぜなら、このビデオの前半で、ChatGPTがあなたが求めたものに正確な応答を与えるように最適化されているという話に時間を費やしたからです。それは本当ですが、仕事の文脈について一緒に考えたいのです。仕事では、私たちは完璧ではないので、やりたいことを超明確に指定していないことがよくあります。そして人間にいくぶん曖昧な割り当てを与えることに慣れています。

ですから、人間を喜ばせる初期応答を最適化しているなら、皮肉なことにタスクの遵守を最適化していない可能性があります。なぜなら、私たちの仕事のタスクは、時には数回の会話のやり取りを経て指定されるからです。「それは私が望んでいたものではありません」とChatGPTに何回言いましたか。ああ、それは私が望んでいたものではなかった。あるいは、はい、それは良さそうだ。

そしてあなたはそれを見るのが好きです。あるいはさらに魅力的なのは、良さそうだと言うことです。そしておそらくあなたはそのいいねボタンをクリックしたかもしれませんが、あなたのディレクターがそれをズタズタに引き裂いた後、再びそれを見て、「ああ、それはそれほど良くなかった」と言います。今日のAIにおける最も興味深い質問の一つは、素朴な人間がその瞬間に好ましく良いものとして認識するもの、これがChatGPTの報酬関数を報酬するものと、非常に高い審美眼と深いドメイン専門知識を持つディレクターやリーダーが高品質と見るものとの違いだと思います。

ChatGPTの信用のために言えば、彼らは実際にそのギャップを解決することに非常に大きく投資しており、それが彼らがGDP valを公開した理由です。これは専門家によって評価された実世界のタスクを解決する上でモデルがどう機能するかを測定します。それでも、今日の仕事がどう変わるかを見ているなら、プロジェクトの指示をどうフレーミングするかについて本当に注意深く考えてください。

なぜなら、Claudeにもう少し文脈を持ってプロジェクトの指示をフレーミングすれば、それらのプロジェクト内でClaudeと非常に良い品質のタスク遵守が得られるからです。そしてこれは、人々がプロジェクトを見て、まったく同じものだと考えるためにしばしば見逃されるニュアンスだと思います。

原則6: Claudeはあなたのコンピュータで作業できる

原則6は、Claudeがあなたのコンピュータで作業できるということです。これは実際にChatGPTにはない機能です。2026年1月、AnthropicはCo-workを立ち上げました。MacOS用のデスクトップエージェントで、Windowsサポートも追加されており、現在Claude Macサブスクライバーに利用可能です。Co-workはあなたのファイルについてチャットするだけではありません。

実際にそれらを開き、読み、編集し、整理し、あなたの実際のコンピュータで自律的に複数ステップのタスクを実行します。ですから、Co-workにダウンロードフォルダの請求書を調べて、ベンダー名、金額、日付を抽出し、概要スプレッドシートを作成して、X ドル以上のものにフラグを立ててくださいと伝えることができ、それは単にやってくれます。

セキュリティのために、Claude Co-workはフォルダレベルの許可でのみ動作します。ですから、あなたが承認したものにアクセスし、それが何をしているかをリアルタイムで見せてくれるので、いつでも停止できます。ここで思考の連鎖が本当に役立つのです。これはAIカテゴリーをリフレーミングします。ChatGPTは依然として会話パートナーとして位置づけられており、Co-workを持つClaudeは、会話パートナープラス、ファイル管理とデータラングリングを処理し、誰もの週から何時間も食べるワーカーとしてフレーミングされています。

私たちは皆、常にファイルと作業しています。今やCo-workもそうです。

原則7: あなたが諦めているものを知る

原則7は、あなたが諦めているものを知るということです。ですから、誰かにClaudeについて教えているなら、ChatGPTが何をより良く行うかについて正直でなければなりません。そうでなければ意味がありません。ですから、驚きがないように、あなたが後に残しているものを提示したいと思います。Claudeは画像を生成しません。

それがしばしば最も失望させるものです。また、Soraを通じてビデオを生成することもありません。リアルタイムの音声会話もあまりしません。そして、あなたにとって重要なら数学的推論も諦めています。科学的知識へのいくつかの重点もそうです。また、ChatGPTで得られるウェブ調査の幅広さもある程度諦めています。もしあなたがこれを大量に検索するユーザーなら、Claudeでは苦労するでしょう。

また、ChatGPTが依然として優位性を持つグローバルな永続的メモリーの一部も失っています。そしてカスタムGPTのマーケットプレイスも失っています。また、多くの企業がChatGPTに現れるアプリを構築しているアプリストアも失っています。ですから、あなたが物事を失っていないふりをするつもりはありません。ChatGPTは、Claudeが提供しないものを提供しています。

そして、それらのギャップに対してClaudeに新しい人を最もよく位置づける方法は、見てください、それらのことにChatGPTを使いたいなら、まだできますと言うことです。しかし、以前は知らなかった仕事や仕事に役立つツールについての視点を与えてくれる可能性のある新しいツールを学び始めることもできます。そしてそれが本当に、新しい種類のAIに新しい人に与えることができる最良の贈り物です。なぜなら、Claudeはアプリストアでナンバーワンになるまで、全体的にChatGPTよりもはるかに採用されていないツールだからです。

ですから、人々はChatGPTを通じてAIについての認識を形成しています。これは本当に、多くの人々にとって、Claudeが地平線上に現れた最初の時です。ですから、もしあなたがそのような人と話しているなら、あるいはそれがあなたなら、Claudeがただのトレンチコートを着たChatGPTだと仮定せずに、Claudeに機会を与えてほしいと言いたいです。

私が説明したこれらの違いのいくつかに耳を傾け、それらを真剣に受け止めてください。それらを、せいぜい、あなたの流暢さをレベルアップし、複数のAIツールを使うことに非常に快適になる機会として使ってください。これは2026年のブレークスルースキルの一つです。最悪の場合でも、それらを使って、結局ChatGPTがより好きな理由を理解してください。しかし今、あなたは多くの理由を持ち、具体的なことを名指しできます。あるいは最悪の場合でも、それらを使ってAIがフードの下でどう異なるかを理解し、この分野をとても興味深いものにしている複雑さの感覚を得る方法として使ってください。

複雑であることのための複雑さではありません。あなたの働き方を形作る意味のある違いなのです。もしあなたが「ちょっと、あなたがこの予算をフレーミングした方法が最適だとは思えないんだけど」と押し戻す可能性が高いツールを持っているなら、私がそうしてきたように、ツールに押し戻すよう招待する習慣を身につけるかもしれません。そしてそれは時間とともにあなたの行動を形作ります。

一方、あなたが常にあなたに同意するツールを使う習慣があるなら、ツールに押し戻すよう招待する可能性は低くなります。ですから、これらの微妙な違い、私たち人間が私たちの脳でAIについて考え、モデル化する方法を形作っています。それらは本当に積み重なり、重要になります。そしてそれが私がこのビデオを作った理由です。なぜなら、私たちの習慣を変えることは難しいと信じているからです。

そしてできるだけ簡単にしたいのです。あなたがClaudeに新しい人であろうと、あなたの人生でClaudeに新しい誰かを知っていようと、その違いを理解し、効果的に伝えるために。これが役立ったことを願っています。Claudeで頑張ってください。そして、それがアプリでナンバーワンにどれくらいとどまるか見てみましょう。

コメント

タイトルとURLをコピーしました