実際に役立つOpenClawの活用事例

AIエージェント
この記事は約24分で読めます。

本動画は、OpenClawの実践的な活用方法を網羅的に解説するものである。製作者は数週間にわたる徹底的な検証を経て、OpenClawを24時間稼働する専用MacBook Airに実装し、Telegram、Slack、コマンドラインなど複数のインターフェースから操作可能なシステムを構築した。パーソナルCRM、ナレッジベース、動画アイデアパイプライン、Twitter検索、YouTube分析、ビジネスメタ分析など多岐にわたるワークフローを自動化し、複数のAIモデルを使い分けながら、全てのデータをローカルデータベースとベクトル検索で管理している。特筆すべきは、AIエージェントによる「評議会」を組織してビジネス改善提案を毎日生成する仕組みや、会議の文字起こしから自動的にタスクを抽出する機能である。全ての作業はGitHubとGoogle Driveに自動バックアップされ、完全な復元が可能な設計となっている。この動画は、OpenClawを単なるチャットボットではなく、包括的な業務自動化プラットフォームとして活用するための実践的なガイドとなっている。

- YouTube
YouTube でお気に入りの動画や音楽を楽しみ、オリジナルのコンテンツをアップロードして友だちや家族、世界中の人たちと共有しましょう。

OpenClawの完全活用システムの全貌

これからOpenClawの使い方を余すところなくお見せします。私はこの数週間、文字通り数え切れないほどの時間をOpenClawの可能性を探ることに費やしてきました。正直なところ、私は地球上で最も高度なOpenClawユーザーの一人だと自負しています。そして、学んだことの全てを皆さんにお伝えします。

全てはここから始まります。これは新品のMacBook Airです。完全に初期化して、OpenClawをインストールしました。このマシンは私のデスクの上に常駐しています。クラムシェルモードにしているので、蓋を閉じても電源は切れません。24時間365日稼働し続け、インターネットに接続されています。そして、どこからでも簡単にアクセスできるようにしています。

TeamViewerをインストールしているので、遠隔地にいて何か起きた場合、直接コンピュータに変更を加える必要があるときは、TeamViewerで接続すればいいんです。Tailscaleも設定しているので、簡単にSSH接続できます。つまり、Cursorでコードを書きたいときは、他のコンピュータからSSH接続すればよく、このマシンは常にデスクの上に置いてあるわけです。

システムアーキテクチャの概要

これが私のシステム全体の高レベルな概要です。複雑に見えるのは分かっています。これから詳しく説明していきます。

まず、インターフェースから説明しましょう。これが実際にOpenClawとやり取りする方法です。主にTelegramを使っています。以前の動画をご覧になった方はご存知だと思いますが、Telegramのグループを使っています。様々なトピックごとにグループを作成していて、それぞれのトピックを非常に狭く、ニッチに保っています。そして実は、もう新しいセッションを開始しないようにしています。

以前は、OpenClawのデフォルト設定では毎日午前4時頃に新しいセッションが開始されていました。つまり、それまでのチャット内容を基本的に忘れてしまうということです。無限に続く単一のDMがある場合なら意味があるかもしれませんが、私の場合は個別のチャンネルを持っているので、もうそうしたくなかったんです。解決策として、セッションの有効期限を1年に設定しました。

これらの異なるセッションを全部見てください。ナレッジベース、食事日誌、cron更新、動画リサーチ、自己啓発、ビジネス分析、会議準備、これら全てが異なるセッションで、トピックに集中できるようになっています。

さて、ここに戻りましょう。次はSlackですが、Slackでの実装は非常に限定的にしています。2つのチャンネルでのみ利用可能で、使えるのは私だけです。私だけがOpenClawを呼び出せます。他の誰かが呼び出そうとしても、無視されます。

そしてもちろん、コマンドラインインターフェースもあります。時々SSH接続しますし、スクリプトも使います。

使用モデルとスキル

もちろん、複数のモデルを使っています。AnthropicのOpus、Sonnet、Haikuを使っています。多くの用途でGoogle Geminiを使っています。xAIのGrokとXARCHも使っています。そしてもちろんOpenAIも使っています。

そして、使い始めてたった2週間以上ですが、既に大量の異なるスキルを持っています。パーソナルCRMとして使っています。ナレッジベース、動画アイデアパイプライン、XとTwitterのリサーチ、ビジネスメタ分析として使っています。これはすごいですよ。後で詳しくお話しします。HubSpotの運用もあります。常にヒューマナイザースキルを適用しています。出力されるテキストは全て、AIっぽくではなく人間っぽくしたいんです。Mダッシュは使いません。To-Doリストにも接続していて、タスク管理システムとしても使っています。やっていることの全ての使用状況を追跡しています。そしてもちろん、YouTube分析にも使っています。

データストレージ戦略

また、大量のデータを保存しています。実際、可能な限り全てのデータを保存しようとしています。通常、ベクトルカラムと組み合わせた従来型のデータベースにデータを保存しています。従来型のSQL検索も実行できるようにしたいですし、ベクトルカラムを使った自然言語検索もできるようにしたいんです。

それで、このハイブリッドデータベースを作成する標準化された方法を作り、複数の異なるスキルで使用しています。CRMには連絡先があります。これから全ての使用事例について説明しますので。ナレッジベース、動画ピッチ、ビジネスメタ分析、ソーシャルチャンネルのビュー、cronログがあり、全て保存されています。

外部サービスとの連携

そして、多くの外部サービスを接続しています。Goggを介したGoogle Workspace、Asana、HubSpot、Todoist、Fathom、Brave、GitHubがあります。Xもあります。YouTubeのAPIもあります。今、とても多くのことが起きています。

ちなみに、この動画のスポンサーであるGrapileに感謝します。OpenClaw用に出力している全てのコードのレビューにGrapileを使っていて、大量にあるんです。OpusやGPT-4o、Claude Sonnetでも見逃してしまうようなバグを見つけてくれます。OpenClawインスタンスの全ての粗い部分を補強するための素晴らしいシステムです。

Grapileの皆さんはコードレビューについて常に考えることに全ての時間を費やしていて、私とチームの時間を大幅に節約してくれます。OpenClaw、Nvidia、PyTorch、Postman、Storybookなど、世界で最も人気のあるリポジトリの一部で使用されています。チームの時間をコードレビューに浪費しないでください。でも、コードレビューは依然として非常に重要です。Grapileにやらせましょう。14日間無料でGrapileを試せます。下にリンクを貼っておきます。素晴らしいパートナーです。ですから、私たちを助けることで自分自身を助けてください。チェックして、リンクをクリックして14日間無料で使ってみてください。

パーソナルCRMワークフロー

最初にお話ししたいワークフローは、パーソナルCRMです。これは素晴らしいです。なぜなら、蓄積された全ての知識を、他の全ての作業に組み込むことができるからです。説明させてください。

基本的に、OpenClawに全てのメールをダウンロードさせ、解析を開始させています。メールが誰からのものかを理解し、保存したくない連絡先、つまりニュースレターやコールドアウトリーチ、コールドピッチなどをフィルタリングします。そして、最高品質の連絡先を見つけて、CRMに保存し始めます。

ダウンロードされた全てのメールを読み取り、グラフを構築し、各連絡先との会話の全てを理解し、データベースに保存し始めます。これを毎日実行させています。だから、常に最新の状態です。誰と話しているのか、何について話しているのかを常に把握していて、非常に便利です。「Grapileで最後に話した相手は誰で、何について話したか」とか、「他のこの会社で誰を知っているか」といった質問をいつでもできるからです。

仕組みはこうです。毎日のインジェストトリガーがあり、これはcronジョブです。Gmailとカレンダーをダウンロードします。ちなみに、Gmailだけでなくカレンダーもです。送信者と参加者から人物を抽出します。全てを重複排除し、連絡先レコードをマージします。AIを使用して役割とコンテキストを分類します。その分類には、非常に安価で高速なGemini 2.0 Flash、私の記憶では2.5 Flashモデルを使っています。

そして、タイムラインとLast Touchの更新を開始します。セマンティックインデックスを作成し、必要に応じてTelegramで更新を送信します。また、先ほど述べたように、単にクエリを実行することもできます。

このシステムが特に役立つのは、会議準備ワークフローです。毎朝一番に、その日のカレンダーを確認します。参加者がいないイベントや、社内チームだけのイベントをフィルタリングします。そして、基本的にその日の会議準備を提供してくれます。「この人と会議があります。最後に話したのはこれです。この会議で話したいのはこれです。この人はこういう人です」と教えてくれます。会議に入る前に最新情報を把握しておくのに非常に役立ちます。

ナレッジベースの構築

次はナレッジベースです。私は常にXを見たり、ウェブを検索したり、人工知能に関する記事を読んだりしています。見つけた興味深いもの全てを単一のリポジトリに投げ込める場所が欲しかったんです。そして、自然言語を使ってそれを検索できるようにしたかった。

繰り返しになりますが、構築している全てのものは、異なるワークフロー全体で使用できるようにしたいんです。これは本当に重要です。後で動画アイデア化ワークフローについて説明するときに、このナレッジベースに保存されている異なる記事を実際に参照しているのを見ていただけます。

仕組みはこうです。ファイルやURLを取得し、Telegramにドロップします。ソースタイプを検出し、そこから全ての情報を抽出し、正規化し、チャンク化し、ベクトルデータベースに入れて、保存します。

そうすると、例えば「Opus 4.5モデルに関する記事を全て見つけて」といった質問ができるようになります。ユーザーの質問を入力すると、それを埋め込み、候補記事を全て取得し、ソース付きで回答します。

これで、私が興味を持った全てのものの無限のナレッジベースを構築していることになり、保存されて、いつでも参照できます。動画を作成していて以前の記事を参照したい場合、見つけるのが非常に簡単になりました。

動画アイデアパイプライン

次です。これは私のお気に入りの一つです。動画アイデアパイプラインです。これには大量の時間を費やしました。

以前のやり方は、リンクをドロップすることでした。これも今はナレッジベースを通じて行っていることですが、Slackにドロップしてチームと共有していました。それについて話し合い、最も興味を持ったものについて動画を作ることを決めていました。そして、Asanaカードを作成します。リサーチを行い、関連する記事を全て見つけ、関連するXの投稿を見つけて、全てをそのAsanaカードにまとめます。とても時間がかかっていました。

でも今は、そのどれもする必要がありません。まず、先ほどのナレッジベースを覚えていますか。そのワークフローの一部として、Telegramに記事をドロップして全ての情報を取得すると、Slackチャンネルに投稿してくれて、「これはMattが見ているものです」と言ってくれます。そこで議論できます。

また、チームの誰かがSlackにリンクをドロップした場合、実際にOpenClawをタグ付けして「これについて動画アイデアを作ろう」と言うことができます。両方の方法が機能します。その後に何が起こるかお見せしましょう。

アイデアトリガーがあります。SlackまたはTelegramから来ます。動画のトピックまたは意図を解析します。次に、Xでリサーチを行い、ウェブでもリサーチを行います。ここには書いてありませんが、実際にやっています。次に、ナレッジベースのコンテキストをクエリします。関連する可能性のある記事を探します。

動画ピッチを考え出し、既に同様のものをピッチしていないことを確認します。次に、動画のフックとアウトラインの構築を開始します。全てのソースをリンクし、Asanaタスクを作成し、呼び出した場所に確認を送信します。

この全てが約30秒で起こります。非常に価値がありますよね。例をお見せしましょう。

Telegramでこのリンクをドロップしました。元GitHubのCEOであるThomas Donkeyが新しい会社を始めたそうです。興味深そうですね。ここにドロップしました。ナレッジベースに保存されました。そして、簡単な要約とリンクを、この種のことについて話し合うSlackチャンネルにもプッシュしました。

それについて動画を作りたい場合、これは別のトピックについてですが、「おっと、Claude、短い動画のアイデア」と言いました。するとClaudeが飛び込んできて、大量のリサーチを行い、カードを追加し、全てやってくれます。とても簡単です。

これで、これらの異なる部品が全て連携して、非常に自律的なシステムを作り出し、大量の時間を節約してくれることがお分かりいただけたと思います。

ちなみに、さらに25の使用事例を見たい場合、私のチームがOpenClawの使用事例について完全に無料の電子書籍をまとめました。具体的な実装方法、使い始める方法、なぜ価値があるのか、その他多くのことについて説明しています。電子書籍をダウンロードしてください。完全に無料です。下の説明欄にリンクを貼っておきます。

Twitter検索の最適化システム

次に、Twitter検索専用のワークフロー全体を構築しました。Twitterで非常に多くの検索を行っているからです。特定の投稿からデータを取得するなど、様々な方法があります。実際に、それを処理するフォールバックのデイジーチェーンシステム全体を構築しました。コストが最適化されていて、素晴らしいです。お見せしましょう。

実際にどのように機能しているかというと、Cursorに何が起こっているか正確に教えてもらいました。まず、ティア1ではfx TwitterのAPIを使用しています。これは明らかに無料です。どうやって無料なのか本当に理解できませんが、そうなんです。個別のツイートのみを取得できます。単一のツイート検索のみです。検索機能はありません。トレンドトピックを表示したり、トピックを表示したり、この他のトピックに関連する投稿を表示したりすることはできません。それはできません。

次に、低コストのティア2、twitterapi.ioに進みます。これはまだ試している段階で、このサービスはまだ新しいんですが、比較的安価にTwitterに対してクエリを実行する方法です。1000ツイートあたり15セントです。検索プロファイル、ユーザーツイート、スレッドコンテキストを実行でき、そのAPIを取得しました。

次に、別のフォールバックとして高価なティア3を使用します。公式のX API v2です。これは非常に高価です。ツイートあたり0.005セントで、従量課金制ですが、基本的に全てを取得できます。

フォールバックとして、XARCH tool を使用したxAI APIを使用します。時々、Twitterを検索するためにGrokを使用します。これら全てが組み合わさって、最適化された、最安で、最高で、最速の結果を提供してくれます。そのワークフローはこのようになっています。

YouTube分析の自動化

次は、明らかに私のYouTube分析と、注目している競合他社やチャンネルの追跡に使用しています。毎日APIにアクセスし、全ての動画の統計、チャンネルの成長、全てを取得します。それを永続化し、スナップショットを取得して、ローカルのデータベースに記録します。

次に、それに対していくつかの計算を実行し、繰り返しになりますが、全てローカルに保存します。競合他社、彼らのアップロード、ケイデンスをスキャンして、彼らが何をしているかを確認します。PNGチャートを取得し、その後、これらのインサイト全てをメタ分析ワークフローに送り込みます。これについてはすぐに説明します。

そうすることで、皆さんがどの種類の動画を気に入っているか、どのタイトルが機能しているか、どのサムネイルが機能しているか、どれが機能していないかを把握できます。常に推奨事項を提供してくれます。

ビジネスメタ分析の革新的アプローチ

次のものは本当にすごいです。実際、このアイデアはCoinbaseのCEOであるBrian Armstrongから得ました。彼は、非常に斬新な方法でAIを使用していると言っていました。基本的に全てのデータを接続し、AIに全てをレビューさせ、ビジネスの理解におけるギャップ、改善方法を探させているそうです。

「ねえ、それできるよ。既に全てのデータを収集しているんだから。やってみよう」と思いました。見てください。基本的にビジネスからの全てのデータを取り込みます。AIエキスパート、AIエージェントの評議会をまとめ、全員が協力して共同作業を行い、毎日レポートをまとめてくれます。ビジネスで見逃していること、ビジネスを改善する方法などについてです。

まず、全てのシグナルがあります。YouTubeメトリクス、CRMの健全性、cronの信頼性、ソーシャル成長、Slack、全てのSlackメッセージ、メール、Asana、X、Fathomミーティング、これが最もクールなものの一つです。

FathomはAIノートテイカーで、全ての会議に参加し、記録し、文字起こしをして、それを取り込みます。だから、全ての会議の記録があり、HubSpotパイプラインもあります。

次に、全てを信頼度の高い上位200のシグナルにコンパクト化します。最初にドラフトを作成させます。これらの異なるシグナル全てを見て、「ビジネスを改善するために何ができるか」といったプロンプトを与えます。明らかにそれよりはるかに洗練されたプロンプトですが、要点はそういうことです。

次にフェーズ2では、グロースストラテジスト、レベニューガーディアン、懐疑的なオペレーター、チームダイナミクスアーキテクトに全てをレビューさせ、互いに協力し、行き来させます。合意に達します。評議会のモデレーターがいます。繰り返しになりますが、Opus 4.5です。申し訳ありません、見えませんね。意見の相違を調整し、全てをまとめ、最終的に全てをランク付けして、レポートを提供してくれます。

これは1日1回、夜中に実行されます。だから、とにかくOpusからの使用量をあまり使っていない時間帯です。そして、レポートを提供してくれて、ビジネスについて素晴らしい実行可能なインサイトを提供してくれます。非常に素晴らしいです。

その他の統合機能

次に、HubSpotをOpenClawに接続しました。実際にはそれほど使っていませんが、OpenClawが取引パイプラインを参照できるようにしています。もちろん、これはこのチャンネルのスポンサーシップのためです。アクセスできます。これが可能にする自然言語クエリのようなものはあまり実行していませんが、とにかくここにあります。

自然言語リクエストが入ると、意図を分類し、エンドポイントにマッピングし、全てを検索して、要約を返します。だから、資格審査段階にある取引は何かと聞くことができます。ちょっと便利ですが、繰り返しになりますが、より便利なのは、現在取り組んでいる全ての取引にアクセスできることです。

次です。これは、OpenClawとの直接のメッセージングと、書くコンテンツの両方で全体的に使用しているものです。基本的に、全てに対してヒューマナイザースキルを使用しています。これにより、文章からAIの匂いが取り除かれます。非常に簡単です。スキルです。Clawhubにあります。ダウンロードしてインストールでき、AIの匂いで常に更新されています。

ドラフト入力があります。AIの文章パターンを検出し、問題のある拡張をマークし、書き直して、準備ができたら公開します。でも、全てを見るだけではありません。リアクティブだけでなく、プロアクティブでもあります。これもクールなものです。

次は画像生成と動画生成です。Banana NanoとVOをAPIとしてOpenClawに接続し、いつでも、どんな使用事例でも画像と動画を作成できるようになりました。ワークフローはこうです。

既存の画像に編集指示を送るか、欲しいものを伝えます。この全てはTelegramを通じて行われます。画像用とビデオ用に別々のTelegramトピックがあります。解釈し、画像を生成し、最終的に準備が整うまで行ったり来たりします。実際にどのように見えるかお見せしましょう。

ここで「Telegramで自分自身を表すために使用するアイコンを作成して」と言っただけです。ドーン。「別のものを作って、もっと大きく、見やすくして」と言いました。それを実行しましたが、水平フォーマットのようです。「正方形にして」と言いました。ドーン、できました。非常に簡単です。

今、基本的に無限の画像生成能力があります。「別のものを作って」と言うだけです。明示的に、ローカルに保存するのではなく、つまりOpenClawのMacBook Airに保存するのではなく、Telegramに送るように伝えました。さあ、これです。別のものができました。ちょっと変わった見た目ですが、とにかく、私が何を話しているか理解しました。

動画生成もあります。「動画を作って」と言いました。これです。だから、必要な動画を生成できます。すごいですよね。繰り返しになりますが、これらはOpenClaw全体の他の自動化で使用できるスキルです。それが鍵です。モジュール化してください。再利用可能にしてください。伝えるだけでいいんです。そうするように伝えるだけです。

To-Doリスト管理の自動化

次です。To-Doリストの管理もさせています。これはすごいです。これを設定したばかりです。これを開始する方法はいくつかあります。

一つは、会議があることです。先ほど、ビデオ会議があるときは常にFathomノートテイカーに参加してもらい、全てのノートを文字起こししてもらうと述べました。次に、Fathomの組み込みのテイクアウェイジェネレーターを使用する代わりに、これは不安定であまりうまく機能しなかったのですが、トランスクリプトを取得してGemini 2.0 Flash(軽量)に送り、「全てを見て。私がすべき重要なテイクアウェイと、参加者がすべきテイクアウェイを教えて」と言います。両方を記録します。繰り返しになりますが、この全てはローカルに保存されます。

また、「金曜日までにXさんにフォローアップするタスクを追加して」と言うこともできます。全てが抽出されます。アクション、所有者、期限がCRMとクロスリファレンスされます。その人は誰か、会社は何か、その人についての全てのコンテキストを確認し、タスクリストを表示します。承認すると、使用しているTo-Doリストアプリであるtoistに入れて、管理してくれます。非常にクリーンです。

これの最もクールな部分は、実際に会議のトランスクリプトを読み取り、自動的にTo-Doを提案してくれることだと思います。

使用量とコスト追跡

次です。非常に多くのことを行っているため、時々、API呼び出しやモデルに対して多額の料金が請求されることに気づき始めました。注意しておきたかったんです。予期しない料金がないことを確認したかったんです。

まだ月額で支払っています。Claudeサブスクリプションに月100ドル支払っています。Gemini APIコール、X APIコールにも支払っています。安くはありません。おそらく全部で月に約150ドル支払っていますが、それから得ている価値と比較すると、私の意見では非常に安いです。

そこで、全ての支出と使用状況を追跡するものを用意しました。これはバックグラウンドで静かに実行されるものです。全てのAI呼び出し、全てのAPI呼び出しが単一の場所にログされます。今週いくら使ったか、どのワークフローに多くのお金がかかっているか、30日間のトレンドを表示してと聞くことができます。

繰り返しになりますが、全てを使用ログに記録します。ログをクエリし、コストの内訳を提供し、使用量の内訳を提供してくれます。これは、やっていること、自動化されて実行されているが知らなかったことなどを把握するのに非常に役立ちます。全てに目を光らせているだけです。これは非常に便利です。

連携サービスの全体像

使用している全てのサービスをお見せしましょう。明らかにTelegramを使用しています。Slackを使用しています。だから、OpenClawとコミュニケーションできる別の表面に過ぎません。Goggを介したGoogle Workspace、これはカレンダーとメールの取り込み、ドライブバックアップのためです。

全てを保存する方法について説明します。OpenClawを失ったら、簡単に複製できないと非常に困るからです。Asana、Todoist、HubSpot、YouTube APIを使用しています。XとTwitter検索、Fathom、GitHub、Google Driveを使用しています。繰り返しになりますが、ここに含まれるべきです。なぜ2回リストされたのか分かりません。Brave検索をウェブ検索に、Firecrawlもウェブ検索に使用しています。

自動化とバックアップ戦略

次に、実行している全ての自動化の全体像をお見せしましょう。毎時間、コードリポジトリを同期しています。変更をチェックしますが、それはOpenClawが自分自身に加える変更かもしれません。自己進化しています。Cursorで私がそれに加えている変更かもしれません。何でもです。変更をチェックして、GitHubにバックアップするだけです。非常に重要です。

でも、データベースはGitHubにバックアップしません。スペースの無駄だからです。代わりに、Google Driveがあり、全てのデータベースをそこに保存します。全てを失った場合に全てを復元する方法についての非常に詳細なドキュメントもあります。

CRMの変更もチェックします。基本的にどこからでも新しいシグナルをスカウトします。毎日、メールを取り込んでいます。YouTube分析を収集しています。プラットフォーム全体に対してヘルスチェックを実行しています。これについてはすぐに説明します。夜間のビジネスブリーフィングを実行しています。

毎週、日次ノートを長期メモリに統合しています。これはOpenClawに組み込まれているものです。ハウスキーピングを実行しています。この全てが同じパターンに従っています。cronがタスクを実行し、Telegramで通知します。

実行される全てのcronジョブに関するTelegramチャンネルがあります。それらに関する通知、何が起こったか、失敗したか、成功したか、その全てが繰り返しTelegramにパイプされます。

バックアップについてもう少し詳しく説明させてください。繰り返しになりますが、これは絶対に失いたくありません。設定に多くの時間を費やしました。全てがGitで追跡されています。マークダウンファイルを含む全てのコードをGitにプッシュしています。常に追跡しています。だから、悪い状態になっても、ロールバックできますが、それは起こっていません。

そして述べたように、全てのデータ、データベースは、何も失わないように常にGoogle Driveにバックアップされます。これです。CRMデータ、分析、ナレッジベース、ビジネス分析、cronログ、全てがバックアップされ、タイムスタンプが付けられ、ドーン、Google Driveです。何か問題が起きたら、復元方法はこうです。

コードはGitHubに入れられ、繰り返しになりますが、常に最新です。全てをスケジュールで実行しているので、約1時間ごとに更新されます。

メモリとラーニングシステム

次、メモリです。この全てをどのように記憶するのか。かなり標準的な組み込みメモリを使用しています。QdrantやQMDも使っていません。おそらく使うべきですが、どのように使いたいか正確には把握していません。だから、全てかなり標準的です。

これが起こることです。日中、私との会話、完了したタスク、犯した間違いが全て日次ノートにパイプされます。それらには週次の統合があります。パターンと好みを蒸留し、長期メモリに保存されます。

そして、ラーニングフォルダー、修正パターン、二度と犯してはいけない間違いもあり、手動でそれをする必要なく、時間とともに良くなっていくだけです。

開発環境とワークフロー

次に、実際にOpenClawをどのように構築しているかお見せしましょう。多くの皆さんはおそらく、OpenClawと直接チャットして、何かを構築させているだけだと思います。それでいいんですが、実際にはCursorで開発する方が好きだということが分かりました。

理由はいくつかあります。一つは、インターフェースの方がはるかに使いやすいと感じます。作成されているファイルを見ることができます。開発用に構築されているのに対し、Telegramは単一のチャットウィンドウに過ぎません。はるかに難しいです。繰り返しになりますが、できますが、Cursorを使用する方が好きです。

だから、Mac Studioで、または繰り返しになりますが、どこにいても、いくつかの異なるラップトップがあります。基本的にCursorをインストールし、OpenClawがあるMacBook AirにSSH接続しています。

Cursor SSH、直接SSH、そしてTeamViewerを使用しています。本当にコンピュータを完全に制御する必要がある場合は、TeamViewerをインストールします。MacBook Airは常にオンで、家を離れることはなく、複数の異なるGitを使用しています。CRMのような主要なプロジェクト用に1つ、OpenClaw全体用に1つです。新しい編集を行っています。

やっていることのほとんどはCursorで起こっていて、Telegramで確認するだけです。全てに対してテストを書いていて、頻繁にGitHubにコミットしてプッシュしています。

マークダウンファイルの最適化

最後にお見せしたいのは、マークダウンファイルを全て最新の状態に保つ方法です。多くのドリフトが発生する可能性があるからです。複数の異なるマークダウンファイルがあります。それぞれが特定のことを行い、スキルを追加したり、OpenClawに何をすべきか伝えたりすると、時々複数の場所に入れます。

また、マークダウンファイルにある全ては、使用しているモデルに本当に依存しています。例えばOpus 4.5は、プロンプトされた全ての単語に本当に耳を傾けます。太字を使う必要はありません。全て大文字にする必要はありません。「これを決して忘れないで」とか「これを必ず行って、重要」のようなことを言う必要はありません。そのどれも必要ありません。でも、Opus 4.0の時とは大きく異なります。

これが私のやり方です。まず、このworkspace.mdファイルを作成しました。これは、実装方法に基づいて全てがどのように機能するかを指定します。目次があり、はい、非常に大きなファイルですが、他の場所で使用される参照です。

ワークスペースアーキテクチャがどのように見えるかがあります。主要なパターン、全ての永続ストレージ用のSQLite、ベクトル、Telegramがあります。プラットフォーム設定、使用しているモデルプロバイダー、フォールバックチェーン、プラグインなどがあります。

でも、これらの各ファイル、エージェントファイル、ハートビート、アイデンティティ、メモリ、これらのファイル全てが異なることを行います。それらを最新で正確な状態に保つために、OpenClawにOpenClawのウェブサイトに行かせ、ベストプラクティスをダウンロードしてローカルに保存させました。常にそれを参照させています。

1日1回、全てのマークダウンファイルを見て、ベストプラクティスとクロスリファレンスして、変更する必要があるものがあるか確認し、推奨事項を提供させています。

最後に、Opus 4.5のベストプラクティスについては、Opus 4.5のプロンプティングガイドに行かせてダウンロードさせ、それもローカルに保存しています。それもクロスリファレンスさせ、「Anthropicが提供するプロンプティングベストプラクティスに反するものがないか探して」と言います。

これを1日1回実行し、常に自分自身を更新し、クリーンにしています。非常に便利です。

今日は以上です。たくさんの情報だったことは分かっています。OpenClawから最大限のものを得る方法だけでなく、何が可能かも示せたことを願っています。この動画を楽しんでいただけたなら、いいねとチャンネル登録をご検討ください。次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました