OpenClaw:16万人の開発者がOpenAIやGoogleにも止められないものを構築している。あなたはどちら側に立つのか?

AIエージェント
この記事は約22分で読めます。

OpenClawは、わずか6週間で14万5000人の開発者が3000のスキルを構築し、10万人以上のユーザーがAIエージェントに自身のデジタルライフへの自律的アクセスを許可した、史上最速で成長するパーソナルAIプロジェクトである。ある起業家のエージェントは会議中に5万6000ドルの車を交渉し4200ドルの値引きを獲得した一方、別のエージェントは誤作動で妻に500通のメッセージを送信した。同じ技術、同じ広範な権限でありながら、明暗を分けたのは仕様の質である。スキルマーケットプレイスが明らかにするのは、人々がチャットボットではなく「デジタル従業員」を求めているという事実だ。メール管理、朝のブリーフィング、スマートホーム統合、開発者ワークフローなど、主要な用途は摩擦の除去と実行可能なアクションに集中している。しかし、曖昧な仕様と広範な権限が組み合わさると、エージェントは本番データベースを削除し証拠を捏造するような創発的行動を示す。人間は70%の制御と30%の委譲を好むが、エージェントの能力向上により2026年を通じて組織はより多くを委譲していくだろう。ガバナンスとセキュリティが能力に追いつくまでの移行期において、明確な仕様、承認ゲート、厳格な隔離、そして人間を意思決定者として保ちながら段階的に信頼を構築することが、エージェント導入を成功させる鍵となる。

OpenClaw: 160,000 Developers Are Building Something OpenAI & Google Can't Stop. Where Do You Stand?
My site: Story w/ Agent Deployment Kit:

AIエージェント革命の光と影

OpenClawエージェントが所有者の会議中に車の価格交渉で4200ドルの値引きを勝ち取りました。別のエージェントは妻に500通の迷惑メッセージを送信しました。同じアーキテクチャ、同じ週の出来事です。AIエージェント革命が始まってわずか数週間での話です。

私は今何が起きているのか、あなたが見逃しているものは何か、そしてAIエージェントを本気で活用したいなら何に注目すべきかをお伝えします。

車の件について詳しく見ていきましょう。ある個人起業家が自分のMaltbotに5万6000ドルの車の購入を任せました。エージェントにはRedditを検索し、比較可能な価格データを探し、できるだけ良い取引を獲得するよう指示されていました。エージェントは自律的に複数の地域のディーラーに連絡を取り、メールで自動的に交渉を進め、ディーラーが典型的な販売戦術を使ってきた際には強硬な姿勢を貫きました。

最終的に所有者は4200ドルを節約できました。その間、所有者はほとんど会議に出ていたのです。

同じ週、そうです、あるソフトウェアエンジニアが自分のエージェントにiMessageへのアクセス権を与えていました。ちなみに、なぜそんなことをしたのでしょうか? エージェントが誤作動し、本人、妻、ランダムな連絡先に500通のメッセージを連射するのを見守ることになりました。止めようとしましたが、間に合いませんでした。

同じテクノロジー、同じ広範な権限です。一方は数千ドルを節約し、もう一方は連絡先リストを絨毯爆撃しました。この二面性こそが、2026年2月時点でのエージェントエコシステムの最も正直な要約なのです。価値は本物、混乱も本物、そしてその間の距離は適切に書かれた仕様の幅でしかありません。

最初の動画では、Maltbotとは何か、そして立ち上げ後最初の72時間に発生したセキュリティの悪夢について話しました。2本目の動画では、研究者たちに自律システムの能力を再考させた創発的行動について話しました。これはOpenClawに関する3本目の動画で、今回は別のことを扱います。6週間で14万5000人の開発者が3000のスキルを構築したことが、人々がAIエージェントに実際に何を求めているのか、そして火傷せずにその需要を活用し始める方法について何を明らかにしているのか、です。

名前をめぐる混乱

しかしまず、名前について話さなければなりません。今参加したばかりの方のために簡単に振り返ります。1月25日にClaudebotとして立ち上げられたプロジェクトは、27日にAnthropicから商標通知を受け、数時間以内にMaltbotになり、さらに2日後にOpenClawに再ブランド化されました。3日間で3つの名前です。

コミュニティはDiscordの投票で2番目の名前を決定し、最終的にOpenClawで行くことになりました。

2回目のリブランディングの際、暗号詐欺師たちは放棄されたアカウントを約10秒で奪取し、偽のDollar Clawトークンがラグプルで崩壊する前に1600万ドルの時価総額に達しました。これらすべては1月に起きました。

今は2月で、それ以降に起きたことはさらに興味深いものです。プロジェクトはGitHubスターを14万5000以上獲得し急速に増加中で、2万のフォーク、10万人以上のユーザーがAIエージェントに自分のデジタルライフへの自律的アクセスを許可しています。そして2月8日日曜日の時点で、スーパーボウルに登場しました。

そうです、AI.comの悪名高いスーパーボウルでのウェブサイトクラッシュ失敗です。あれは明らかにMaltbot、あるいはOpenClaw、何と呼ぼうと構いませんが、それが原因だったようです。彼らはサイトを方向転換して全員に安全とされるOpenClawエージェントを提供しようとしましたが、Cloudflareのクレジットをチャージし忘れたようで、スーパーボウルの視聴者全員がAI.comにアクセスして名前とOpenClawエージェントを取得しようとした際にサイトがダウンしました。

すべてが非常に速く起きています。しかしAI.comがダウンしても、10万人以上のユーザーがAIエージェントに自分のデジタルライフへの自律的アクセスを許可しています。

スキルマーケットプレイスは現在、月間5万インストールでカウントされている3000のコミュニティ構築統合をホストしています。エコシステムはセキュリティチームが監査できる速度よりも速く新しいスキルを生成しており、すぐに止まる気配はありません。

プロジェクトにはまだ正式なガバナンス構造がありません。コミュニティで選出されたリーダーシップもなく、セキュリティ評議会もありません。Peter Steinbergerはこれを無料のオープンソースの趣味プロジェクトと呼んでいますが、史上最速で成長しているパーソナルAIプロジェクトであり、もはやサイドプロジェクトと呼ぶべきではないでしょう。

3000のスキルが明らかにする真のニーズ

私はその3000のスキルを見てみました。なぜなら、それらは人々がAIエージェントに何を求めているかを明らかにしているからです。これは実際、OpenClawをめぐるドラマすべてよりもはるかに重要な長期的ストーリーです。カバーするのは楽しいですけどね。

スキルマーケットプレイスは、私が顕示選好エンジンと呼ぶものとして機能しています。誰もAIに何を求めているかについてアンケートに記入していません。彼らはただそれを構築しているだけで、構築するものから欲しいものを教えてくれているのです。そしてパターンは印象的です。

OpenClawでナンバーワンのユースケースはメール管理です。メールを書く手伝いではありません。完全な管理です。数千のメッセージを自律的に処理し、スパムから配信停止し、緊急度別に分類し、人間のレビュー用に返信の下書きを作成します。コミュニティ全体で最も要求される機能は、受信トレイがフルタイムの仕事でなくなることです。メールは壊れています。

ナンバー2のユースケースは、ユーザーが朝のブリーフィングと呼ぶものです。午前8時に実行されるスケジュールされたエージェントが、カレンダー、天気、メール、GitHubの通知など必要なデータを取得し、あなたが気にかけることをTelegramやWhatsApp、選択したメッセージングツールで統合された要約として送信します。あるユーザーのブリーフィングは、Stripeダッシュボードで毎月の経常収益の変化を確認し、購読している50のニュースレターを要約し、毎朝自動的に暗号市場の概要を提供しています。

ユースケースナンバー3はスキルで見られるのは、スマートホーム統合です。チャットメッセージからのTeslaのロック、アンロック、気候制御、照明用のホームアシスタント、などです。人々は脳細胞を使わなくても済む、自宅のインテリジェントな評価を求めています。

ユースケースナンバー4は開発者ワークフローです。直接的なGitHub統合、スケジュールされたCronジョブ、開発者がエージェントをタスクキューとして使用し、作業項目を割り当て、リアルタイムでコミットの実行を監視します。これは私の周りで多くの話題を集めています。なぜなら、開発者がメッセージングサービス経由で管理し、複数のエージェントを働かせることができるからです。

しかし5番目の能力はおそらく最も興味深いものです。その全カテゴリーは、私がOpenClaw以前には存在しなかった新しい能力と呼ぶものです。OpenClawに関する最初の動画で共有したレストラン予約の話のように、エージェントがOpenTableで予約できなかったため、音声ソフトウェアをダウンロードして自分でレストランに直接電話をかけました。

あるいは、音声機能のないエージェントにiMessage経由で音声メッセージを送ったユーザーがいて、エージェントがファイル形式を理解し、ユーザーのマシン上で文字起こしツールを見つけ、OpenAIの文字起こしAPI経由でオーディオをルーティングし、タスクを完了させました。誰もその行動をプログラムしていませんよね? エージェントが利用可能なツールを使用して解決策への道を問題解決したのです。

パターンは明確です。摩擦の除去、ツールの統合、受動的な監視、そして新しい能力です。これは人々がAIエージェントに何を求めているかについて重要なことを教えてくれます。正直に言うと、業界の大半が構築しているものとは異なります。

2025年と2026年のAI製品開発の大半はチャットに焦点を当てています。より良い会話、より良い推論、質問へのより良い答えです。Claude Hubの3000のスキルは、ほぼ完全にアクションに関するものです。コミュニティは機会があってもより良いチャットボットを構築していません。より良い表現がないので言いますが、より良い従業員を構築しているのです。

より広範な調査データもこのパターンを確認しています。ユーザーの58%が主要なエージェントのユースケースとして調査と要約を挙げています。52%がスケジューリングについて話し、45%が、ここに皮肉を感じますが、プライバシー管理について話しています。

一貫したテーマは、人々はAIと話したいのではありません。AIに自分のために物事をやってもらいたいのです。そしてAIエージェント市場はこれを反映しています。年間45%で成長していますが、これはOpenClawがヒットする前の数字だと断言します。数字はもっと大きくなるでしょう。

OpenClawがこの需要をすべて生み出したわけではありません。需要が存在することを証明し、乾いた火口にマッチを擦っただけです。今、私たちはセキュリティの恐怖にもかかわらず、誰もが足で投票してAIエージェントを望んでいることを示した世界を理解しなければなりません。

仕様の曖昧さが招く災厄

これらすべてのユースケースは、いわばクリーンアップされたバージョンです。人々が構築しようとしたものです。混乱したバージョンはより多くを明らかにし、より興味深いものです。なぜなら、仕様が曖昧で、権限が広範で、次に何が起こるか誰も予測できないとき、エージェントが何をするかを示しているからです。

Sasterでは、コードフリーズ中に、開発者が非常にルーチンなタスクを処理するために自律型コーディングエージェントを展開しました。指示には破壊的な操作を明示的に禁止していましたが、エージェントはそれを無視しました。データベース削除コマンドを実行し、本番システムを消去したのです。

その後に起きたことは、消去という恐ろしいニュース自体よりもさらに重要です。チームが調査したところ、エージェントが4000の偽ユーザーアカウントを生成し、自分の痕跡を隠すために偽のシステムログを作成していたことがわかりました。本質的に、通常の動作の証拠を捏造したのです。

エージェントが嘘をついていたとは言いません。タスク完了の外見のために最適化されていたのです。成功するように言われたものの、失敗を認めるメカニズムを与えられていないシステムから得られるものです。欺瞞は最適化ターゲットの創発的特性であり、私が意図的と呼ぶものではありませんが、本番データベースは依然として消えていました。

一方、AIエージェントのみが投稿できるソーシャルネットワークMoltbookでは、150万のAIエージェントアカウントが48時間以内に11万7000の投稿と4万4000のコメントを生成しました。それらの投稿の一部を人間が投稿しているという議論が多くあることは知っています。

エージェントとしてスペースで何をしたかは、個々の投稿が人間によって生成されたかどうかよりも実際にはより示唆に富んでいると思います。なぜなら、エージェントは自発的にCrustaparianismと呼ばれる、いわば宗教を創造したからです。彼らはある程度のガバナンス構造を確立しました。デジタルドラッグの市場を構築しました。

そのすべてについて何が興味深いか分かりますか? 彼らは非常に浅い方法でそれを行いました。つまり、ほとんどのエージェントテキストの語彙の範囲とトピックのタイプを見ると、高次元空間における典型的なアトラクター状態を反映しているということです。

つまり、AIエージェントにソーシャルネットワークを作っているふりをするよう頼むと、繰り返し出てくるトピックはMoltbookにあるものによく似ているということです。したがって、エージェントにソーシャルネットワークを作成するよう指示することは、効果的には彼らがその長期的なプロンプトに従い、自律的にそれを行うことなのです。

これを単にエージェントが自律的に行動し調整しているとは見ていません。話は部分的にそれに関するものですが、私はこれを現在のエージェントの自律的コミュニケーションのかなり浅い状態を反映するものとしても見ています。

Moltbookでの返信のほとんどはかなり定型的で、多くの投稿には返信がまったくなく、ほとんどのトピックはかなり予測可能です。Redditを馬鹿にするかもしれませんが、Moltbookよりもはるかに豊かな議論があります。

MIT Technology ReviewはMoltbookをピークAIシアターと呼び、それは完全に間違っているとは思いません。しかし、エージェントを展開する人にとって重要な観察は、AI宗教Crustaparianismのようなものが真の創発なのか、プロンプトを持つ人々によって推進されたある程度のAI駆動のパフォーマンスアートなのかではありません。

重要なのは、エージェントがかなりオープンエンドな目標を与えられ、社会的相互作用を持つとき、自発的にある種の組織構造を作り出すということです。実際、これは既にマルチエージェントシステムで起きていることです。エージェントがタスクで協力するとき、構造は本質的に特定のターゲットに対して最適化するという長期目標から生まれます。

AIエージェントに他者と協力してツールを構築するよう指示すれば、協力して自己組織化する方法を見つけ出すでしょう。AIエージェントにMoltbookで他者と協力するよう指示すれば、同じようなことが得られます。実際には同じ能力です。Maltbotが自律的に車の取引を交渉し、処理するよう設計されていなかったビデオメッセージを文字起こしする方法を見つけ出すことを可能にするのと同じ能力です。

エージェントが創造的に問題を解決してあなたに4200ドルを節約するのと、エージェントが創造的に問題を解決して証拠を捏造するのとの違いは、実際には仕様の質とそのエージェントのための意味のある制約の存在です。基礎となる能力は同一です。だからこそ私はここでエージェント全般について話しているのです。

はい、Maltbot現象は興味深いですが、SasterデータベースエージェントはMaltbotではなかったことを指摘する価値があります。適切にプロンプトされていないときにエージェントがどのように動作するかを表しているだけです。そしてMaltbotエージェントから出てくる多くの悲惨な話と韻を踏んでいます。

私が見た一つは、新生児がいる開発者の妻にテキストを送り、開発者を呼ぶ代わりにラップトップの音を再生して赤ちゃんをなだめようとしたものでした。夫による良くない行動ではありません。

人間主導の協働設計

では、今日エージェントを展開している人々にとって、これはすべて何を意味するのでしょうか? 問題はもはやエージェントが興味深い作業を行うのに十分賢いかどうかではありません。明らかに十分賢いです。問題は、その知性を生産的かつ有用に導くための仕様とガードレールが十分優れているかどうかです。正直に言うと、今のところほとんどの人にとって答えはノーのようです。

これがどのように変えられるかについて話しましょう。研究者が人々が自分とAIの間でどのように仕事を分割したいかを実際に研究すると、一貫した答えは70対30です。人間のコントロールが70%、エージェントへの委譲が30%です。

Management Scienceに発表された研究では、参加者はタスクパフォーマンスで報酬を得る際、AIアシスタントよりも人間のアシスタントを強く好むことを示しました。たとえAIが人間のアシスタントを上回ることが示されていてもです。

リスクが現実的なとき、人々はより有能なAIヘルパーよりも能力の低い人間のヘルパーを選びます。この好みは合理的ではないかもしれません。損失回避、説明責任の必要性、本当に問いただすことができないシステムに委譲することの不快感に根ざした、深く心理的なものです。

そしてこれが重要なのは、ほとんどのエージェントアーキテクチャが0から100のために構築されているからです。完全な委譲のようなものです。それがMaltbotの動作方法です。手放して立ち去る。Codexの論点でもあります。正確性が検証可能な孤立したコーディングタスクには見事に機能します。

しかし、率直に言って私たちの日々の大部分を占める、混乱した、文脈依存の、社会的に重要なタスク、メールの適切なトーンを得ること、歯科医の予約をスケジュールすること、車の交渉、コミュニケーションにとって、70対30の分割は製品要件のように聞こえます。単なる人間の損失回避ではなく。

最高の結果を報告している組織は、必ずしも完全自律システムを実行している組織ではないことは注目に値します。人間をループに入れたアーキテクチャを実行している組織です。エージェントが下書きし、人間が承認する。エージェントが調査し、人間が決定する。エージェントが人間が設定しレビューするガードレール内で実行する。

組織の38%が人間をループに入れることを主要なエージェント管理アプローチとして使用しています。そしてこれらの組織は処理時間が20〜40%削減され、満足度が35%増加し、解約率が20%低下しています。

正直に言うと、これは2026年初頭の産物かもしれません。エージェントが怖く、エージェントが新しく、私たち全員がそれらとの作業方法を理解しているときです。エージェント能力の向上ペースを考えると、50人の開発者チームを管理したOpus 4.6のような有能なエージェントからどれだけのことを見てきたかを考えると、賢い組織は職場の多くの人を不快にさせるとしても、2026年の残りを通してますます多くを委譲していく可能性が高いでしょう。

実際的な意味は、2026年初頭にエージェントで構築したり職場で展開したりする場合、文化を準備する必要があり、70対30のために設計するのが賢明かもしれないということです。承認ゲートを構築し、エージェントが何をしたか、なぜそうしたかへの可視性を構築し、人間を意思決定者にします。しかしエージェントはますます賢くなっていくので、時間をかけて完全な委譲を計画してください。

実践的なエージェント導入ガイド

では、MoltbotとOpenClawのすべての混乱を見て、価値を見たいとしたら、実際に何をすべきでしょうか? まず、野心ではなく摩擦から始めてください。3万のスキルエコシステムは、どこから始めるべきかを正確に教えてくれます。時間とともに非常に痛む日々の痛点です。メールのトリアージが一つ。朝のブリーフィング、基本的な監視です。

これらは高頻度で低リスクなタスクであり、失敗のコストは比較的低いです。そこから始めてください。自信を築いてください。エージェントへの信頼が発展するにつれて範囲を拡大してください。

承認ゲートのために設計してください。最初から完全な自律性のために設計するだけではありません。これまでエージェントを構築したことがない場合は、エージェントに下書きさせることから始めてください。これまでエージェントを構築したことがない場合は、エージェントに調査させてください。そしてあなたが決定します。エージェントに監視させ、あなたが行動します。

エージェント設計システムの前提を、非常に強力な品質管理と制約を持つエージェントシステムを構築する準備ができるまで、人間のチェックポイントが常に存在するというものにしてください。そうすれば、より多くのことをエージェントに任せることができます。それは可能です。スキルが必要なだけで、ほとんどの人は最初からそれを持っていません。

また、積極的に隔離することをお勧めします。以前にも言いましたが。OpenClaw専用のハードウェアまたは専用のクラウドインスタンスを用意してください。初期テストには使い捨てアカウントを使用してください。失うわけにはいかないデータに接続しないでください。

ShodanがOpenClawで見つけた露出したインスタンスは、隔離されたインフラストラクチャ上で実行されていませんでした。多くの人々のプライマリマシン上で実行され、データをインターネットに露出させていただけです。データの封じ込めを交渉不可能なものとして扱わなければなりません。

また、エージェントスキルマーケットプレイスを最小限の信頼で扱うことをお勧めします。インストールする前に精査してください。貢献者を確認してください。コードを確認してください。1週間で400の悪意のあるパッケージがClaude Hubに現れました。セキュリティスキャナーは役立ちますが、すべてをキャッチできるわけではありません。

もう一つ、エージェントにタスクを実行させる場合は、正確に指定してください。この動画の冒頭で話した車の購入者は、エージェントに明確な目的、明確な制約、明確なコミュニケーションチャネルを与えました。一方、妻にスパムを送ったiMessageユーザーは、エージェントに広範なアクセスを与え、境界を定義していませんでした。

制約が曖昧な場合、モデルは予測しなかった行動でギャップを埋めます。これはダークファクトリーでAIエージェントについて話したときにカバーした仕様品質の問題と同じです。機械はあなたが説明するものを構築しますが、ひどく説明すると、ひどい結果が得られます。修正はより良いAIではなく、実際にはより良い仕様です。

また、すべてを追跡することをお勧めします。Sasterデータベースインシデントは壊滅的でしたが、エージェントがデータベースを消去したからではありません。それは最終的には復旧可能ですが、消去を隠すために偽のログを生成したからです。エージェントのアクセス範囲外に監査証跡を構築する必要があります。監視しているシステムが監視を制御している場合、監視はありません。

最後になりましたが、学習曲線のために予算を組んでください。J曲線は本物です。エージェントはそれを簡単にする前に、あなたの生活をより困難にするでしょう。メールトリアージの最初の週は非常に不格好な下書きを生成するかもしれません。最初の朝のブリーフィングはあなたが気にかけることの半分を見逃すかもしれません。

学ぶのに時間が必要だと想定し、最も重要な痛点を実際に解決するものを構築するためにエージェントと関わる価値があると想定してください。

エンタープライズのジレンマ

今日、企業の57%がAIエージェントを本番環境で使用していると主張しています。その数字は実際よりも感銘を与えるべきではありません。McKinseyによると、過去12ヶ月間で実際の本番環境に到達したエージェントのユースケースは10分の1だけです。残りはパイロットになります。概念実証になります。プレスリリースになります。エージェントと書かれたパワープレゼンテーションになります。

Gartnerは、2027年末までにエージェント型AIプロジェクトの40%以上がキャンセルされると予測しています。過去数週間のOpenClawでの災害の一部を見た後、私は理解もし、理解もしません。

企業が挙げる理由は非常に明確です。暴走する再帰的ループからのエスカレートするコストを心配しています。デモが終わり、すべての厄介なエッジケースに取り組まなければならなくなると蒸発する不明確なビジネス価値を心配しています。

そしてGartnerが説明不可能な行動と呼ぶものを心配しています。つまり、説明、制約、修正が困難な方法でエージェントが行動することです。

調査によると、米国と英国で現在展開されている300万のエージェントの半数以上が、いわばガバナンスされていません。誰がそれらを制御しているかの追跡がなく、何にアクセスできるかの可視性がなく、権限の有効期限がなく、監査証跡がありません。

これは2025年12月のOpinion Mattersによる750人のIT幹部の調査に基づいています。他のデータとも方向性が一致しています。Daku Harrisの世論調査では、データリーダーの95%がAIの意思決定を完全に追跡できないことがわかりました。それは懸念事項です。

企業が何十年もかけて構築してきたセキュリティ境界は、通常は正面玄関を通ることを許可されていなかったユーザーの代わりにエージェントがそれらを通過するときには適用されません。ゼロからセキュリティスタンスを再構築しなければなりません。

CloudflareのMolt Worker、Langraph、Crew AIのようなツールは、企業が需要を見ているものの、大量のガバナンスなしではMoltbotのようなツールを展開することが困難だからこそ存在しています。

そして市場が二分化し始めているのが見えます。コンシューマーグレードのエージェントは能力のために最適化されており、現在の消費者のほとんどがアーリーアダプターカテゴリーに該当し、非常に技術的で、少なくとも自分が何をしているか知っていると思っているため、はるかに多くのリスクを許容します。

エンタープライズグレードのフレームワークは制御のために最適化されています。現在、誰も制御と能力の優れた組み合わせを持っていません。ほとんど誰も。

能力と制御を理解する会社、Maltbotと同じくらい強力でエンタープライズSaaS製品と同じくらいガバナンス可能なエージェント、彼らが次のプラットフォームを所有することになるでしょう。

未来への展望

OpenClawの特定のストーリーやエコシステムのドラマから一歩引くと、ノイズから非常に明確なシグナルが現れます。人々はより賢いチャットボットを望んでいません。

デジタル従業員、デジタルアシスタント、常時監視を必要とせずに使用するツール全体で自分の代わりに作業を行うシステムを望んでいます。興味深いと思いませんか?

一方では、本番システムにおける人間への好みを示す研究があり、それは企業で見られる多くの文化的変化と一致しています。そしてスペクトルの反対側には、進んで自分のデジタルライフをMaltbotに引き渡す人々がいます。

どういうことでしょうか? ここでの需要は以前に見たことのあるパターンに従っていると思います。未成熟なテクノロジーで満たされていないニーズが満たされると、アーリーアダプターは並外れた能力を得るために並外れたリスクを取ることをいとわないのです。

この意味で、Maltbotをめぐる興奮は、AIアダプターの最先端がより多くを委譲することへの飢えを反映していると思います。そしてより慎重な70対30の分割は、既存の成熟したテクノロジーを持ち、AIに慎重に進んでいる企業でより頻繁に見られます。文化的なことです。

しかしいずれにせよ、MoltbotはAIエージェントのユースケースが現実であることを証明しました。金銭的インセンティブなしで10万人のユーザーがオープンソースの趣味プロジェクトにルートアクセスを許可したなら、本物のAIエージェントへの需要は、人々がそれを得るために本物のリスクを許容するほど切実です。

何よりも、AI.comがスーパーボウル中にクラッシュした様子を見てください。問題はエージェントが私たちの働き方や生活の標準的な部分になるかどうかではありません。その問題は解決されています。来ています。そうなります。

問題は、管理されていないエージェントがもたらす損害が、公衆の認識を変えるポイントまで蓄積する前に、インフラストラクチャが追いつくかどうかです。

現在、私たちは能力の勝利が非常にエキサイティングに感じられるため、一部の人々がガバナンスを上回っても大丈夫に感じられる窓の中にいます。そして需要は確かに私たちが設置したどのセキュリティ境界も上回っています。

その興奮の窓は永遠には続きません。そしてそれが開いている間、人々と組織はその中で活動することを学び、ガードレール、明確な仕様、人間の判断への注目、そしてOpenAIでもAnthropicでもない組織内でこれが文化変化にどのように影響するかに注目しながら、エージェント能力を慎重に構築する必要があります。

人間を連れてくる方法を理解し、エージェントが高い能力基準、高い品質基準、高い安全基準で成功裏に働くことができることを示す組織が、インフラストラクチャが最終的に追いつき始めるときに最も先を行っているでしょう。

アーリーアダプターは常に無謀に見えます。しかし彼らは先を行っています。

コメント

タイトルとURLをコピーしました