この動画は、インターネットにデータを送信することなく、完全にローカル環境で動作する強力なAIエージェント「AgentZero」の概要とセットアップ方法を解説するものである。Ollamaを使用したローカルモデルの導入手順から、AgentZeroとの連携、さらに写真の解析や機密データの取り扱いといった、プライバシーを重視した実践的な活用事例までを初心者向けに詳しく紹介している。

AgentZeroとは?ローカルで動く強力なAIエージェント
あなたのパソコンで100%動作する、超強力なAIエージェントがあったらと想像してみてください。データがマシンから外部に出ることは一切ありません。完全なプライバシーが保たれた状態で、基本的に何でもこなすことができます。それがAgentZeroです。
私の名前はデビッド・アンドレです。この動画では、AgentZeroをセットアップする新しい簡単な方法をご紹介します。ローカルモデルを使ってどのように動かすのか、そして実際に何ができるのかをお見せしますね。
AgentZeroのインストール手順
さて、最初のステップはAgentZeroのインストールです。GoogleでAgentZeroと検索して、最初のリンクをクリックしてください。ここで注意してほしいのは、正しいウェブサイトにアクセスすることです。私たちをコピーしているプロジェクトがいくつかあるからです。
正しいURLはagent-zero.aiです。動画の下にもリンクを貼っておきますね。お気づきかもしれませんが、この1行のインストールスクリプトを追加しました。これがAgentZeroとすべての依存関係をインストールする最もシンプルで簡単な方法です。
右側にコピーボタンがあります。それをクリックして、あとはターミナルを開いて貼り付け、エンターキーを押すだけです。エンターキーを押すと、AgentZeroのインストールプロセスが開始されるのがわかります。ターミナルがどうするか尋ねてきていますが、ここでは最初からすべてのステップをお見せできるように、新しいインスタンスを選択します。エンターを押します。
次にバージョンを選択できます。まだ一般に公開されていない機能を使いたい場合は、testingブランチを選んでください。しかし、最新の安定版を使いたい場合は、latestを選んでください。そして、このインスタンスに名前を付けることができます。ここではシンプルにYTと名付けます。
次に、AgentZeroを実行するポートを選択する必要があります。デフォルトでは5080になっているので、そのままエンターキーを押します。ご覧の通り、これはAgentZeroのDockerイメージ、つまりオペレーティングシステム全体をプルし始めます。これにはLinuxのすべて、たくさんのツールなど、オペレーティングシステムに期待されるすべてのものが含まれているため、数ギガバイトのサイズになります。
そして、これがAgentZeroを安全なものにしている理由です。もし他のエージェント、たとえばClaude CodeやOpenDevin、Codexなどをインストールして、すべてのコマンドを承認しなくてもいいような完全なYOLOモードでパソコン上で実行したとします。問題なのは、それらがあなたのファイルを削除したり、データを漏洩させたりする可能性があるということです。AgentZeroはDockerコンテナ内で実行されるため、安全でプライベートが保たれるのです。
よし、終わりましたね。早かったです。ブラウザで開くをクリックして、エンターキーを押しましょう。はい、これでAgentZeroをゼロからインストールできました。ご覧の通り、赤い通知が出ていますね。まだLLMを接続していないので、これは想定通りです。
ですので、次にお見せするのは、データがパソコンから一切出ないように、完全に自分のマシン上で実行されるローカルモデルを実際に接続する方法です。
Ollamaを使ったローカルモデルの導入
モデルをローカルで実行するとなると、主にOllamaとLM Studioという2つのプラットフォームがあります。AgentZeroに関して言えば、Ollamaの方がサポートが充実していてうまく機能します。ですので、今回はこれを使います。
まずはollama.comにアクセスしてください。こちらにも便利な1行のインストールスクリプトがあるので、それをコピーします。ターミナルに戻ります。実際には新しいターミナルを作成してもいいですね。Command Nを押して、貼り付けます。バン!エンターキーを押します。これでダウンロードが始まります。
現時点ではまだモデルはダウンロードされていません。モデルについてはすぐ後で説明します。これは単にOllamaアプリをインストールするだけで、これによって簡単にモデルを実行したり、サーバーでホストしたりして、AgentZeroを動かすことができるようになります。
よし。では、ターミナルを消去するためにclearと入力し、Ollama listと入力してモデルのリストを確認してみましょう。初めてインストールしたばかりなら、当然ここは空になっているはずですので心配しないでください。次に、Ollamaを通じて特定のAIモデルを実際にインストールする方法をお見せします。そのためには、ウェブサイトのホームページに戻ります。左上にModelsというボタンがあるはずです。
パソコンのスペックに合わせたモデルの選び方
どのモデルを実行するかを選ぶ際の最も重要な要素は、あなたのハードウェアです。パソコンがどれくらい強力かということですね。ここに、どのサイズを実行できるかの一般的なガイドラインを示す簡単な図があります。なぜなら、モデルを見ると、それぞれ12億から1220億までサイズが異なるからです。Nvidiaからのもう一つの素晴らしいモデルであるNemotronの1200億パラメーターもありますね。
しかし例えば、Qwenの場合、どのサイズのQwenを実行するかを選ぶ必要があります。3970億パラメーターのものを動かしたいですか?おそらく無理ですよね。ですので、このチャートを見てください。さまざまなサイズのMacBookや、どれくらいのRAMを搭載しているかがわかります。繰り返しになりますが、これらのシステムではパソコンのRAMは重要ではありません。NvidiaのGPUを搭載している場合、重要なのはそのGPUのVRAMです。
そこがAppleの素晴らしいところです。Appleシリコンを搭載している場合、RAMはCPUとGPUの間で共有されます。そのため、NvidiaのGPUを持っている人、あるいは複数のNvidia GPUを持っている人よりも、はるかに強力なモデルを実行できるのです。ですので、皆さんの多くはおそらく200億から350億の範囲になるでしょう。これもマシン次第ですが、もし少し古いパソコンなら、90億から130億の範囲にすれば問題ないはずです。
そしてQwenの素晴らしい点は、これらすべての異なる範囲のモデルが用意されていることです。ですので、あなたのパソコンが処理できるものを選んでください。モデル名をコピーします。例えば、私が1220億パラメーターの122Bを選ぶとしましょう。ターミナルに戻り、Ollama runに続けてモデル名を入力すると、モデルの読み込みが始まります。これは巨大なモデルで、今は録画中なのでシステムが重くなってしまうため、私はこれを強制終了します。でも、これがモデルを起動する方法です。
もしターミナルの使い方がわからないという方のために、AIに聞くという魔法のトリックをお教えしましょう。ターミナルに馴染みがない人もいますからね。彼らは不合理な恐怖を抱いています。ターミナル恐怖症みたいなものです。クモが怖いとかヘビが怖いとか、そういうのと同じですね。私に言わせれば、それらの方がターミナルへの恐怖よりもずっと合理的です。ターミナルは親友です。恐れる必要はまったくありません。
しかし、あなたがAIの初心者だとしましょう。あなたは開発者ではなく、ターミナルにも詳しくない。もしかしたら起動の仕方さえ知らないかもしれません。でも聞いてください。AIにやり方を聞くという秘密のヒントをお教えします。
私はターミナルをどうやって開けばいいですか?YouTubeのチュートリアルを見ていますが、彼がターミナルを開くと言ったときに何をすればいいのかわかりません。指示をシンプルでわかりやすくしてくださいと入力するのです。こんな風にして、私のチュートリアルで遭遇するどんな問題でも完全に解決することができます。
さて、ターミナルに戻りましょう。使いたいモデルを選んで、それを実行してみます。もう一度、Ollama runと入力し、モデル名を貼り付けます。これは巨大なモデルですし、私のMacBookが超強力だとはいえ、OBSがクラッシュしないことを祈ります。メッセージを送ってみましょう。やあ、と。
うん、大丈夫ですね。余裕です。122Bモデルを動かしていますが、まったく問題ありません。ちなみに完全なローカル環境です。でもご覧の通り、これはかなり優秀です。毎秒40トークンくらいは出ていると言っていいでしょう。1220億パラメーターのモデルが毎秒40トークンで、完全にローカルで推論しながら動いているんです。これは文句なしですね。完全なプライバシーが保たれた上でこれですから。素晴らしいです。
また、動画の最後で実際のユースケースについても触れる予定です。ローカルモデルを搭載したAgentZeroのような完全なローカルエージェントを使うことが、実際に非常に理にかなっている3つの異なるユースケースをお見せします。あなたのデータは最も価値のあるものです。もし機密性の高い作業をしていたり、会社のデータを扱っていたりする場合、それをOpenAIやGoogle、Anthropicに送信したいとは思わないでしょう。だからこそローカルモデルが存在するのです。
AgentZeroとOllamaの連携設定
AgentZeroの内部では、チャットモデルとユーティリティモデルの2つがあるため、2つのセットアップをお見せします。それではAgentZeroに戻って、その中でOllamaを設定しましょう。
実のところ、AgentZeroで作業を始める前にもう一つやらなければならないことがあります。Ollamaと入力してください。これでOllamaアプリが起動します。Ollamaをインストールした時、CLIだけでなくアプリも一緒にインストールされています。左上に行ってOllamaをクリックし、設定を開きます。そしてここでコンテキストの長さを選択する必要があります。
ご覧の通り、256が選択されています。いいですね。最低でも16Kであることを確認してください。最低16Kです。理想は32K以上ですね。私は自分のモデルのコンテキスト長として256Kを選ぶことにします。よし、これは閉じて構いません。そしてAgentZeroの内部で、次はLLMのセットアップです。設定に行き、ここのチャットモデルをクリックします。
ここでモデルのプロバイダーを選択する必要があります。デフォルトではOpenRouterになっていますが、ここでOllamaを選択する必要があります。Ollamaです。これをクリックします。そしてここに、インストールしたモデル名を入力する必要があります。もし何をインストールしたかわからなくなったら、Ollama listと入力してモデル名を確認し、正確な名前をここにコピーしてください。
このチャットモデル名をその名前に置き換え、コンテキスト長もそれに合わせる必要があります。100Kとありますが、たしか256Kだったと思います。256ですね。まあ、おそらく100Kのままにしておいても大丈夫です。問題は、小さくすることはできないということです。例えばOllamaで32Kにしたなら、ここでも必ず32Kに変更してください。とりあえずここでは保存をクリックし、Ollamaアプリを開いているか、ターミナル内でモデルを実行している状態にしておいてください。そうすることで、実際にAgentZero内で使用できるようになります。
さて、設定の中にもう一つあります。もう一度設定に行きましょう。左上からも設定にアクセスできます。そしてチャットモデルです。ベースURLを変更する必要があります。ありました。チャットモデルのAPIベースURLです。これを変更しなければならないのは、このモデルをどこで探せばいいかをAgentZeroに教える必要があるからです。モデルはローカルで実行されていますからね。
ですので、貼り付ける必要があるのはこれです。HTTPのhost.docker.internalの111434です。この正確な文字列は動画の下に貼っておきますので、皆さんはそれをコピーするだけで大丈夫です。これはOllamaが実行されているポートのはずです。保存をクリックして、これが機能するかどうか見てみましょう。よし。今のところエラーはありません。うまくいきますように。LLMを呼び出しています。出ましたね。
モデルが推論しているのがわかります。新しい会話ですね。温かく返答してください。こんにちは。私はAgentZero自律型アシスタントです。素晴らしいです。完全にローカルで動いています。1つのトークンも、1バイトのデータもシステムから外に出ていません。
そして、おっと、ここでエラーが出ました。これはユーティリティモデルを接続していないからです。これを今からお見せします。
ユーティリティモデルの追加設定
ではもう一度設定に戻り、ユーティリティモデルをクリックしましょう。ご覧の通り、これはデフォルトでGeminiの無料フラッシュを使おうとしています。しかし、ユーティリティモデルも確実にローカルで動くようにしたいのです。これは、小さなタスクやバックグラウンドタスクのためのもので、AgentZeroがスピードと効率のために最適化されている部分です。
ですので、再びOllamaに戻りましょう。Qwenファミリーの何かを使ってもいいですね。例えば35Bや27Bを使えば、122Bよりもはるかに速く動作するでしょう。ユーティリティモデルとしては理想的なサイズです。しかし、今回はちょっと違うものをお見せします。Modelsに戻りましょう。もう少しスクロールして戻って、別の超強力なモデル、GLM-4のFlashを使ってみます。
これは300億パラメーターのモデルで、300億にしては非常に強力です。異なる量子化のバージョンなどがあるのがわかりますね。好きなものを選べますが、デフォルトのGLM-4のFlashを実行するだけでも大丈夫です。先ほどと同じようにこのコマンドをコピーしてターミナルを開き、バン、clearと入力してから貼り付けると、まずモデルが実行されます。
ダウンロードが始まります。繰り返しますが、新しいモデルをダウンロードする時はいつでも少し時間がかかります。インターネットの速度によっては、10分から1時間、あるいは巨大なモデルならもっとかかるかもしれません。ですが、一度ダウンロードしてしまえば、Ollama listと入力するとモデルのリストが表示されるはずです。ご覧の通り、ここにこのモデルがあります。サイズは約19GBですね。このモデルをコピーします。バン。もう一度モデル名をコピーします。
AgentZeroに戻ります。そしてユーティリティセクションの中、もう一度ここから移動しますよ。左上の設定から、ユーティリティモデルをクリックします。そしてここで、プロバイダーを再びOllamaに変更し、モデル名をあなたのユーティリティモデルに変更する必要があります。この場合、私はGLM-4のFlashを使用します。APIキーは空白のままで構いません。ベースURLも同じことをする必要があります。先ほどと同じですね。host.docker.internalの111434で大丈夫なはずです。では保存をクリックします。
新しいチャットを作ります。やあ、あなたは誰ですか?私の名前がデビッドであることを覚えておいてくださいと言ってみます。ユーティリティモデルは、記憶の処理など多くのバックグラウンドタスクをこなすためのものです。だからこのことをお伝えしたわけですが、ご覧の通り今回はずっと速かったですよね。Qwenの122Bがすでに読み込まれていたため、20秒から30秒も読み込みを待つ必要がありませんでした。ですので、モデルを読み込んだままにしておく方がはるかに効率的ですし、これで記憶の保存も機能しました。素晴らしいですね。
これを行ってくれたのがユーティリティモデルであり、それがGLM-4のFlashでした。AgentZeroは非常に高度な記憶システムを持っていて、ベクター埋め込みとマークダウンファイルの組み合わせを使って、あなたに関する情報を長期的に記憶しておくことができます。これはコストを節約し、処理を速くするためにユーティリティモデルによって処理されます。ですから、ユーティリティモデルにはメインモデルほどの強力なパワーは必要ありませんが、それでもある程度きちんとしたものであるべきです。そのために20億パラメーターのモデルなんかを使うべきではありません。
また、コンテキストについても、一番下に行くとクリックして確認することができます。現在、9,318トークンあります。そしてそのほとんどがシステムプロンプトです。おっと、少しラグがありますね。ええ、4Kで録画しようとしている上に、2つのモデルを読み込んでいる状態ですからね。122Bと30Bです。つまり、MacBookを限界まで酷使しているわけです。ええと、これほどハードに働かせたことは今までありませんでした。
とにかく、ユーティリティモデルが機能するようになったのは素晴らしいことです。しかしここで、もう一つやらなければならないことがあります。それが埋め込み(Embedding)モデルです。
埋め込み(Embedding)モデルの設定
これは多くの人が気づかない落とし穴のようなものです。一部の人には必要ないかもしれませんが、もし問題が発生しているなら、Ollamaを通じて埋め込みモデルを設定する方法もお見せします。いいですか。設定の中に、埋め込みモデルがありますね。デフォルトでは、プロバイダーがHugging Faceに設定されていて、モデルはMiniLM-L6-v2になっています。これをOllamaと一緒に実行した時に問題が起こる人がいます。ですので、埋め込みモデルもOllamaを通じて実行する方法をお見せします。
これも再びターミナルを通じて行います。プロセスは同じですが、名前はnomic-embed-textになります。ですので、もう一度 ollama pull nomic-embed-text と入力してエンターを押します。問題が起きていない方は、ここは飛ばして構いません。ちなみにこのモデルはずっと小さいので、ダウンロードには数秒しかかかりません。そしてAgentZeroの内部に戻り、埋め込みモデルのプロバイダーをOllamaに変更し、ここをnomic-embed-textに変更して保存をクリックします。
よし。ご覧の通りAgentZeroは機能していて、応答しています。もちろんこれとチャットしたり、ChatGPTやClaudeでやるようなチャットのニーズを満たしたりすることができます。しかし、これをさらに一歩進めて、いくつかの実践的なユースケースを見てみましょう。
実践:ローカル環境での写真メタデータ解析
まず最初のケースは写真に関するものです。私たちは皆、個人的な写真、つまりインターネットにアップロードしたくないプライベートなものを持っていますよね。Sam Altmanに渡して、彼の次のトレーニング場として使わせたくはありませんからね。愛する人、子供、奥さんなどの写真があるなら、それをAIにアップロードしてはいけません。プライベートな状態に保ち、ローカルにとどめておいてください。
しかし、強力なAIモデルを使ってそれらを解析し、メタデータを読み取りたい場合は、ローカルで行う必要があります。これからAgentZeroを使ってそれを行う方法をお見せします。
まずは、写真をAgentZeroにドラッグする必要があります。非常にシンプルなUIですね。ドラッグして入れるだけです。ご覧の通り、すべて読み込まれました。そして、ここにプロンプトを貼り付けます。ちょっと読んでみますね。
ここに私の個人的な写真があります。それぞれの画像について、メタデータ、GPS座標、撮影日、カメラのモデルを読み取り、あなたの視覚機能を使って写真に何が写っているかを説明してください。次に、あなたの視覚機能を使って、それらをカテゴリーごとのサブフォルダーに分類してください。食べ物、人物、風景、ドキュメント、スクリーンショット、その他です。
見ての通り、これは単純なタスクではありません。マルチステップのユースケースです。
最後に、私がいくつの都市を訪れたか、カテゴリー別の内訳、いつどこにいたかのタイムライン、そして気づいたパターンをまとめたマークダウンの旅行レポートを作成してください。メタデータだけでなく、必ず画像そのものを見るようにしてください。
ご覧のように、ここにすべての画像があります。そして、おっと、ここでヘッダーに何か出たようですね。よし、設定に行ってみましょう。何が起きているのか確認します。チャットモデルが設定されているか確認しましょう。わかりました、これが間違いだと思います。埋め込みモデルのURLを設定していませんでした。ですので、もう一度、埋め込みモデルのAPIベースURLです。必ずこれに設定してください。そして、これがチャットモデル、ユーティリティモデル、埋め込みモデルに設定されているか再確認しましょう。よし、設定されていますね。保存します。もう一度やってみましょう。
バン。同じ画像と、同じプロンプトです。実行してみましょう。モデルが画像を通じて推論を行う必要があるため、テキストのみのユースケースを行う場合よりも明らかに時間がかかりますね。実際に、コンテキストを見に行くことができます。すでに14,000トークンに達しているのがわかります。ええ、画像は単なるテキストよりもはるかに早くコンテキストウィンドウを消費します。
ご覧のように、このようなマルチステップのユースケースでは、AgentZeroは多くのことを行います。推論を生成し、次にこれらすべての写真を解析するためのターミナルコマンドを実行します。その後、何をするべきかについてさらに推論を行います。ExifToolライブラリをインストールする別のターミナルコマンドですね。
これがAgentZeroの素晴らしいところです。Linuxターミナルへのフルアクセスを持ち、DevOpsエンジニアやプロのLinuxの開発者がLinuxシステム上でできることは何でもできるのです。そしてここに、そのツールの使い方についてのさらなる推論があります。それを使って、iPhoneの位置情報などの情報を抽出しています。ええ、基本的にこれらの写真に必要な情報ですね。何らかのエラーに直面しましたが、あきらめません。
AgentZeroについて気づくことの一つは、タスクを与えるととにかく進み続けるということです。Claude CodeやOpenDevin、Codexなども優れていますが、彼らは早く止まりすぎてしまいます。フィードバックを求めすぎますし、十分な粘り強さがありません。AgentZeroを使えば、タスクを与え、必要なコンテキストを与えれば、そのタスクを実現するために山をも動かしてくれます。そして今、これらすべてをローカルでやっているのです。
MacBookが熱くなっているのを感じます。ちょっとクレイジーですが、ええ、こんなに負荷のかかるタスクから始めるべきではなかったかもしれません。でもまあ、少なくともここではAgentZeroを限界まで押し上げていますからね。まあ、文字通り4Kビデオを録画しながら3つの異なるモデルをホストしているので、どちらかというと私のMacBookを限界まで追い込んでいるようなものです。
繰り返しますが、これはチャットモデルだけではありません。Ollama listを見れば、目的ごとに異なるモデルを使っていることがわかりますよね。埋め込み、ユーティリティモデル、そしてチャットモデルです。ですので、私はローカルで3つの異なるモデルをホストし、録画を行いながら、15枚もの写真を使ったマルチステップの非常に激しい写真ユースケースを与えているわけです。ええ、AgentZeroと私のMacBookの両方をここで限界まで追い込んでいるということですね。
よし、少し時間がかかりましたね。やはり最初はもっとシンプルなユースケースを選ぶべきだったと思いますが、まあ少なくともやり遂げてくれました。たくさんのツールの呼び出しがありました。AgentZeroがどれだけ働いたかわかりますね。これらをすべて折りたたんでみましょう。ええ、本当にたくさんのツールの呼び出しです。言った通り、AgentZeroは本当に仕事をしてくれます。おそらく世の中で最も粘り強いエージェントでしょう。そしてはい、これが証拠です。答えが出ました。
15枚の写真を解析し、メタデータを抽出し、カテゴリーに整理して、包括的な旅行レポートを生成しました。写真は50枚、訪問した国は日本、タイ、カザフスタン、UAE、ベトナムとなっています。ここにタイムラインがあります。これが写真のカテゴリー分けです。視覚ツールを使用しましたね。組み込みの視覚ツールがロードされているのがわかります。そして、ここにマークダウンファイルとしてレポートがあります。これを開いてみましょう。
マークダウンファイルをダウンロードし、アーティファクトとして見るために貼り付けました。マークダウンの構造を視覚化します。そしてはい、ここにすべての写真の詳細な分析があります。
なぜローカルAIが必要なのか?プライバシーとセキュリティの重要性
繰り返しになりますが、重要なのはこのデータが一切パソコンから出ていないということです。飛行中の機内でも、森の中でも、機内モードでも、オフラインでこれを行うことができます。問題ありませんよね。あなたは自分のデータをビッグテック企業や諜報機関に渡していないのです。データはパソコン内にとどまり、それでもあなたは強力なAIモデルを使って作業を行うことができます。確かに動作は遅く、時間もかかりますが、完全なプライバシーを確保するためのトレードオフですからね。
さて、ローカルAIモデルやAIエージェントを使用することを強くお勧めするタスクの例をもう少し紹介します。健康・医療データの分析です。医者に行って、何らかの報告書や分析結果をもらったとしましょう。腕を骨折したとか、DNAのメチル化検査を受けたとか、何でもいいです。それをビッグテックに渡したくはないでしょう。私を信じて、ローカルにとどめてください。このような財務記録を分析する際には、Ollamaと連携させたAgentZeroを使ってください。
もう一つのことは、これはマジな話ですが、人々は常に中国の社会信用スコアを批判しますよね。でも欧米にも社会信用スコアはあるんです。これらの国々はただ公表していないだけなんですよ。ですから、あなたの財務記録をインターネット上に公開しないでください。特に暗号資産のキーなどは絶対にダメです。ローカルに、プライベートに保ってください。そういったことをする時は、インターネットにアクセスすることすら避けるべきです。
高度な機密情報を扱う際の注意点
個人的なビデオについては先ほど話しましたね。パスワードや認証情報についてもです。繰り返しますが、ローカルに保ってください。みんな、絶対にChatGPTにパスワードをアップロードしないでくださいよ。頼みますよ。法的文書もそうです。NDAや何かの契約書にサインした場合、それをアップロードするべきではありません。クラウドにアップロードすることは、契約違反になりますからね。
日記やセラピーのメモ。これもまた、非常に機密性の高い情報です。あなたの感情や性格的特徴、精神的に何を抱えているか、これらはすべて広告のために利用される可能性があります。これらの企業は、ChatGPTが広告を展開し始めているのをご存知でしょうし、Metaは明らかにどこもかしこも広告だらけです。ですから、もし彼らにこの「弾薬」を与えてしまったら、広告としてあなたに対して使われることになり、さらに悪いことにもなり得ます。ジョージ・オーウェルが正しければ、広告よりもずっと悪い事態になるでしょう。
ビジネスの秘密もそうです。例えばコカ・コーラのレシピのようなものを持っているとか、コードであれ、何か化学的な秘密であれ、本当に素晴らしい洞察やアイデアを持っているなら、それをChatGPTにアップロードしないでください。
ところで個人的な話になりますが、詳細はお話しできませんが、私は非常に著名な科学者の兄弟である人物に会ったことがあります。彼がどこの国の出身かさえ言えません。彼は基本的に物理学者で、兵器製造に使えるかもしれないあるプロセスを発明したのです。そして彼は、OpenAIから無料サブスクリプションのオファーを受けました。なぜなら、OpenAIがやっていることというのは……ちなみに、これはあくまで「噂によると」という話です。弁護士から、確認されていない噂話としてこの警告を言うように言われているので。噂によると、OpenAIやこれらの企業が行っているのは、質問の質において上位0.01%から0.1%のユーザーを見つけ出すということなんです。科学者、研究者、非常に価値のある個人に対して、無料のChatGPT Proを提供するんです。一種のジェスチャーとして、有料プランを無料で提供するようなものですね。
で、この科学者にそれが起こったのです。彼はウェブ上で仕事をしている物理学者であり化学者でもありました。詳細はかなり省かなければなりませんが、基本的に、彼が自分の仕事や研究論文でChatGPTを使い始めてから1、2ヶ月後、彼の特許や発明の多くが盗まれたんです……ええ、これ以上は本当に詳しく話せません。でも、こう言っておきましょう。もしあなたがハイレベルな科学者で、独自のアイデアを持っているなら、それをChatGPTにアップロードするべきではありません。絶対にすべきではありません。企業だけでなく、それらの企業に対してより大きな力を持つ組織によって利用されることになります。ここは非常に曖昧にしておきましょう。
ええ、これらは、OllamaやLM Studioのようなローカルモデルを使ったAgentZeroをローカル環境で使用することを強くお勧めするユースケースのほんの一部です。セットアップする価値は十分にあります。繰り返しますが、この動画にはすべてのステップが示されています。必要ならもう一度見て、手順に従ってください。
ですが、もし何か機密性の高い作業をしているなら、例えば第三次世界大戦に備えるようなこととかですね。それが次にお見せするユースケースです。ここで新しいチャットを開いてみましょう。バン。新しいチャットです。このプロンプトを貼り付けます。
これは基本的に第三次世界大戦にどう備えるかについてのものです。何をすべきか、どこに物を隠すべきか、そして本当に第三次世界大戦が勃発した場合に政府に知られたくないデータについてです。すでに勃発していると主張する人もいるかもしれませんけどね。
ええ、こういうこと、つまり不可欠なサバイバル計画や、秘密の場所がどこにあるかといった情報です。皆さん、それをインターネットに載せてはいけませんよ。Qwenのモデルよりも賢かったとしても、Clawdbotを使ってはいけません。その価値はありません。本当に価値はありません。もしモデルとチャットしたいなら、Ollamaでローカルモデルをダウンロードし、AgentZero内で実行して、このセットアップを使ってください。
AIを活用して次のステップへ
さて、ローカルAIモデルがどれほど強力なものになり得るかをご覧いただきました。しかし問題なのは、ほとんどの人はこれを見て、週末にいじってみて、その後は何もしないで次に進んでしまうということです。AIの分野で本当に勝つのは、ただツールを使うだけの人ではありません。ツールを使ってプロダクトを作る人たちです。
ですので、もし自分の技術的スキルとアイデアを実際のAI企業に変える方法を知りたいなら、こちらの動画で私が辿った正確な道のりを解説しています。こちらの動画では、私が自分のAI企業を構築し売却するために辿った道のりを詳しく説明しています。動画の下の最初のリンクにあります。今すぐ見に行ってください。


コメント