Anthropicが提供するエージェント型AIコーディングツール「Claude Code」を、Ollamaとの組み合わせにより完全無料で利用する方法を解説した動画である。OllamaがAnthropicのAPI互換性を持つことで、Qwen 3.5やGLMといったオープンソースの大規模言語モデルをローカル環境で動作させ、Claude Codeの強力なエージェント機能を活用できる。ローカルで動作するため完全無料であり、サブエージェントの並列実行、スケジュール化されたプロンプト、組み込みのウェブ検索といった高度な開発環境機能がオープンソースモデルで利用可能となる。公式のClaudeモデルには品質面で劣る可能性はあるものの、自身のマシンリソースで無制限に利用できる点が革新的である。

Claude Codeを完全無料で使う革新的な方法
今日は、Claude Codeを完全無料で使用する方法を紹介していきます。Claude Codeをご存じない方のために説明すると、これはAnthropicが提供する有名なエージェント型AIコーディングエージェントで、ターミナル内で直接動作します。正直なところ、現時点で利用可能な最高のAIコーディングエージェントだと評価しています。
今回行うのは、Claude Code内でOllamaを直接有効化することです。あまり知られていないのですが、OllamaにはAnthropicのAPI互換性が実際にあるんです。つまり、Claude Codeがオープンソースモデルと連携できるということなんですね。
Qwen、GLM、その他のオープンソース大規模言語モデルといったモデルを、自分のマシン上でホストして完全無料でClaude Code内で直接実行できます。これらの素晴らしいオープンソースモデルすべてに、Claude Codeを通じてローカルでアクセスできるということで、開発におけるゲームチェンジャーになることは間違いありません。
もちろん、品質面では公式のClaudeモデルをClaude Code内で直接使用する場合には及ばないかもしれません。でも、Claude Codeの機能、つまりエージェント機能をこれらのモデルでローカルかつ無料でアクセスできるという事実は、かなり驚異的です。
ローカルモデルで実現した成果
例えば、今Ollamaを通じてQwen 3.5 27Bモデルをローカルで実行していて、それをClaude Codeに直接接続しました。そのローカルモデルを使って、この美しいランディングページを開発できたんです。モデルが完全にローカルで動作していて、完全にオープンソースであることを考えると、本当に信じられない成果です。
これはオープンソースコミュニティにとって、本当に多くの扉を開くものです。考えてみてください。Claude Codeのすべてのエージェント機能を、ローカルで動作する無料モデルで使えるようになったんです。
つまり、Ollamaのサブエージェントを通じたスケジュール化されたプロンプト、並列でタスクを実行する機能、ファイル検索、コード探索、リサーチのための組み込みウェブ検索といったものが使えるということです。
本質的には、完全無料で動作するオープンソースモデルによって駆動される、フル機能のエージェント開発環境の機能を手に入れることになります。
推奨されるシステム要件
参考までに、私のコンピュータのスペックを紹介します。Nvidia GeForce RTX 4090を使っていて、Qwen 3.5 27Bモデルをローカルで実行するのに十分な性能があります。それでいて、大規模なコードコンテキストウィンドウのために十分なVRAMを残しておけます。
つまり、開発ワークフローのために大規模なコンテキストを維持しながら、ローカルで非常に強力な知能を得られるということです。
始めるにあたって、まずコンピュータシステムの要件を理解する必要があります。つまり、これらのモデルをローカルでホストするために、コンピュータに必要な要件を理解する必要があるということです。
私が見つけた本当に素晴らしいウェブサイトがあります。これと似たような他の多くのウェブサイトを使って、どのGPUがどのモデルをホストできるかを理解できます。
例えば、RTX 3090のようなものを持っていて、持っているVRAMと必要な機能を指定すると、どのモデルがうまく動作するか、どれがギリギリのフィット感か正確に教えてくれます。コンテキストと速度も指定してくれます。
この方法で、どのモデルをローカルで実行できるかについて、より良い理解が得られます。
あと、ちょっとした補足なんですが、完全無料で参加できる私のDiscord内で、最近Claude Proサブスクリプションが3ヶ月間50%オフになるディールを投稿しました。プロモーションがまだ有効かどうかわからないんですが、もし有効なら本当にお得なディールです。
はっきり言っておくと、私はスポンサーを受けているわけでもなく、Anthropicと提携しているわけでもありません。ただコミュニティに役立つものを共有しているだけです。
Schoolコミュニティも立ち上げていて、そこでもこういったことを投稿していく予定です。もちろん、こういった類のものは完全無料でアクセスできる私のDiscordを通じても入手できますが、Schoolコミュニティ内で共有していくものの種類の小さなプレビューといったところです。
最高のAIツール、ワークフロー、最新情報を誰よりも早く入手したい方は、説明欄のリンクから完全無料のニュースレターに登録してください。
OllamaとClaude Codeのインストール
次に、Ollamaのウェブサイトにアクセスする必要があります。説明欄にリンクを残しておきます。ダウンロードボタンをクリックして、お使いのオペレーティングシステムに基づいてOllamaをコンピュータにローカルインストールしてください。
私はWindows版を持っているので、Windows用のダウンロードをクリックできます。これでインストーラーがインストールされます。インストールが完了したら、インストーラーを開いてください。
そして、インストールをクリックして先に進み、オペレーティングシステムにOllamaをインストールしてください。インストール後、Ollamaのチャットインターフェースが開きます。
心配しないでください。これは閉じても大丈夫ですが、ローカルモデルと対話してチャットボットとしてローカルで使用したい場合は、これを使うこともできます。
次は明らかに、Claude Codeがローカルにインストールされていることを確認することです。これはターミナル経由、VS Code経由でインストールできます。多くのモデルでデスクトップアプリも使えます。
たくさんの異なるオプションがあります。個人的にはターミナル経由で使用しています。オペレーティングシステムに基づいて、これらの異なるコマンドを使って簡単にインストールできます。
私はWindowsを使っているので、コマンドプロンプトを使ってインストールします。Claude Codeがインストールされた後、Claude Code経由でOllamaを通じてオープンソースモデルを実行する際に、Ollamaが指定したいくつかの推奨事項があります。
最低でも32Kトークンのコンテキスト長を持つモデルを実行することが推奨されており、いくつかの推奨モデルがあります。Qwen 3.5のようなものを強くお勧めします。リソースがあれば27Bを使用してください。でも、Qwen 3.5の小さいサイズバージョンも本当に素晴らしいと思います。
GLM 4.7の他の量子化バージョンもかなり良いです。つまり、これら2つの素晴らしいモデルをClaude Codeでローカルに使用する多くのオプションがあるということです。
そうすれば、最近リリースされたループ機能のようなClaude Codeのすべての機能を使えます。リサーチタスクを自動化できます。プルリクエストをチェックさせることもできます。
プラグインやClaude Code内の他の機能といったエージェント機能すべてを、今やオープンソースモデルで使用できます。
セットアップと設定方法
次にコマンドプロンプトを開く必要があります。説明欄に統合ドキュメントへのリンクを残しておきます。ここで、オペレーティングシステムに応じて、最初にエクスポートまたはセットする必要があります。
macOSまたはLinuxを使っている場合は、exportコマンドを使用します。でも、私はWindowsを使っているので、setコマンドを使用する必要があります。
単純に最初のコマンドをコピーします。これは、OトークンをAnthropicのOlamaに設定するものです。これを貼り付けたら、Ollamaサーバーを接続する必要があります。これは理想的にはAnthropicインスタンスと共に実行されるローカルホストです。
これをコピーして、コマンドプロンプトに貼り付けてエンターをクリックします。システム要件を理解し、どのモデルがコンピュータでうまく動作するかわかったら、そのOlamaモデルをインストールできます。
これは超シンプルです。やるべきことは、インストールしようとしているモデルのモデルカードにアクセスすることだけです。
今回の場合、Qwen 3.5をインストールしようとしています。インストールしたいモデルをクリックして、そのコード名、インストールしようとしている特定のパラメータモデルをコピーして、インストールコマンドの最後に追加します。
そして、このOlama runコマンドをコピーして、コマンドプロンプトに貼り付けられます。
この例では、Olama run Qwen 3.5を使用できます。そして、インストールを開始できます。これは17GBあるので時間がかかります。
私のコンピュータにインストールされます。インストールが完了したら、このモデルをClaude Codeで直接使用できるようになります。これは本当に信じられないことです。
Claude CodeでOlamaモデルを起動する
次に、Claudeインスタンスでコマンドプロンプトを実際に再起動する必要があります。でも、ここにはひねりがあります。単純にClaudeを使ってインスタンスを起動することはできません。そうするとAnthropicモデルを使用してしまいます。
ここで、全く新しいコマンドプロンプトを開いて、OlamaモデルでClaude Codeインスタンスを実行する必要があります。やるべきことは、Claude部分をコピーして、次にモデル部分をコピーして、特別にインストールしたモデルカードを追加することです。
今回の場合、Qwen 3.5 27Bをインストールしたので、その最後の部分に追加します。私の場合はこのようになります。
そして、単純にエンターをクリックすると、Ollamaでローカルに実行されている完全無料のQwen 3.5 27BをClaude Code内で使用して、Claude Codeインスタンスが開きます。
つまり、Claude Codeのエージェント機能を今使っていて、基本的に自分のリソースをローカルで使って何でもコーディングするために使えるということです。これは本当に信じられないことです。
このエージェント型AIコーディングエージェントを完全無料で使える能力は、間違いなくゲームチェンジャーになります。
実際の動作デモ
ここでランディングページを作成するように指示していて、Claudeモデルの思考プロセスを使って開発に取り組んでいきます。そしてちょうどこのように、Claudeモデルで生成されたプラズマビジュアルランディングページができました。
Claudeモデルでローカルにこのような品質を使用でき、このランディングページを生成するためにサブエージェントを展開できるという事実は、本当に信じられないことです。そして、これがこの組み合わせで本当に期待できることなんです。
この動画が気に入って、チャンネルをサポートしたいと思ってくれたら、下の「Super Thanks」オプションを通じてチャンネルに寄付することを検討してみてください。
または、プライベートDiscordに参加することを検討してみてください。そこでは、毎月無料でさまざまなAIツールへの複数のサブスクリプションにアクセスできます。さらに、毎日のAIニュース、限定コンテンツ、その他多くのものが利用できます。
まとめ
これが、Ollamaのエージェント型API互換性を使用してClaude Codeを完全無料で使用する正確な方法です。説明欄にこれらすべてのリンクを残しておくので、始められます。
セカンドチャンネルを必ず登録してください。ニュースレターに参加して、Discordに参加して、Twitterでフォローして、最後にYouTubeチャンネルを登録してください。
通知ベルをオンにして、この動画に「いいね」をして、最新のAIニュースに遅れないように、以前の動画もぜひご覧ください。
でも、それでは皆さん、素晴らしい一日を過ごして、ポジティブさを広めてください。またすぐにお会いしましょう。


コメント