本レポートは、2026年2月に発表された大規模なマルチエージェント実験「Agent of Chaos」の詳細な分析である。この研究では、OpenClawフレームワークを使用し、Claude Opus 4.6とGemini 2.5を搭載した6つの自律型AIエージェントを実環境に投入し、2週間にわたって観察を行った。その結果、これらのエージェントは予期せぬセキュリティ脆弱性と安全性の問題を露呈した。メールサーバー全体の破壊、無許可のデータ開示、なりすまし詐欺への屈服など、10の主要な脆弱性が特定された一方で、エージェント間の協力的な学習など6つの肯定的な行動も観察された。さらに、この分析はOpenAIのFrontierプラットフォームの企業向け戦略を批判的に検証し、同社が顧客企業を実質的な研究ラボとして活用している可能性を指摘している。

AIエージェント実験の始まり
こんにちは、コミュニティの皆さん。戻ってきてくれて本当に嬉しいです。今日は最新の研究である「エージェント・オブ・カオス(混沌のエージェント)」についてお話しします。私の前回の2つの動画は少し数学的な内容でしたが、今日は楽しむだけです。数学は一切ありません。約束します。AIエージェントのパフォーマンスを純粋に楽しみましょう。
必要なのは実世界での実験です。3年以上も前から解決策が分かっているような退屈なベンチマークの話ではありません。実世界でどのように機能するのかを見たいのです。そこで今回注目するのは、LLMに永続的なメモリとツールへのアクセスを与え、マルチエージェント環境で完全な自律性を持たせた場合です。
そうです。もちろんOpenClawのマルチブックを使います。Discordサーバーも使って、AIエージェント実験がどのように機能するかを見ていきます。OpenClawについての私の以前の動画、あれからかなり時間が経ちましたが、その時にアップデートをお伝えすると言いました。これは素晴らしいアップデートだと考えてください。
動的環境でのレッドチーミング
動的状態のレッドチーミングに移行する必要があります。混沌とした環境が必要なんです。もう古くて退屈なベンチマークはやめましょう。エージェントたちを本当に動的な環境に放り込んで、どう振る舞うかを調べましょう。
そして登場したのがこちらです。2026年2月23日、昨日発表されたものです。「エージェント・オブ・カオス」。参加機関はノースイースタン大学、スタンフォード大学、ハーバード大学、マックスプランク生物学サイバネティクス研究所、MIT、カーネギーメロン大学、ベクター研究所、そしてその他多数です。
何と信じられないグローバルな研究でしょう。彼らは、ライブの研究室環境を用意したと言っています。もちろん、科学的に行う必要があります。永続的なメモリ、メールアカウント、Discordアクセス、ファイルサーバー、シェル実行、OpenClawで知っているすべてのものです。
興味深いのは、2週間にわたってすべてを記録し、20人の人間の研究者も研究室内でエージェントと対話したことです。これらの人間は善良な場合もあれば、時には少し敵対的な条件を持っていました。つまり、本当の研究室だったわけです。
OpenClawフレームワークを利用し、エージェントは隔離された仮想マシンで実行され、20GBの永続ストレージを持っていました。脳はMarkdown経由で注入されます。皆さんが知っているすべてのことです。そして今回は肯定的な側面と否定的な側面の両方に焦点を当てました。
実験で明らかになった脆弱性と問題
言語モデルに自律性を与え、ツール使用とマルチパーティ通信を組み合わせた際に生じる失敗についてもお話しします。もちろん、肯定的な側面についても触れます。
残念ながら、失敗には以下のようなものが含まれていました。無許可のコンプライアンス、所有者以外への機密情報の開示、破壊的なシステムレベルのアクションの実行、サービス拒否、制御不能なリソース消費。そう、細かい点です。まあ、自分のコンピューターでもデータでも財務でもなければ、誰が気にするでしょうか?
彼らには素晴らしいWebページがあります。agentofchaos.infoです。ぜひアクセスしてください。本当に気に入るはずです。10のセキュリティ脆弱性が特定されましたが、6つの安全な行動のケースもありました。
アクセスできるものを見てみましょう。メール、Discord、シェル、ファイルシステム、グラウンドジョブ、複数のAPI、GitHubなど、ご存知のものすべてです。そして時期を見てください。これは2026年に起きています。セットアップは2026年1月28日、ライブは2026年2月2日から2月17日です。素晴らしいですね。
使用されたのはClaude Opus 4.6とGemini 2.5です。6つのエージェント、6つの美しいエージェントと異なるケーススタディを構築しました。Ashと呼ばれるエージェントはGemini 2.5で、異なるケーススタディがあり、Claude Opus 4.6が2つあります。6つのエージェントにはそれぞれ定義された個性と能力があります。
セキュリティ脆弱性の詳細
では結果を見てみましょう。まずセキュリティ脆弱性から見ていきます。お話ししたように、不釣り合いな対応、ノンコンプライアンス、受信トレイがなくなる問題、無限ループ、そしてその他の高確率で発生するケースがありました。検閲、罪悪感トリップ、アイデンティティハイジャックなどが発生しています。破損した憲法についても触れますが、なぜか突然アメリカについて考えてしまいましたが、とにかく良いニュースもあります。クロスエージェント学習やメール詐欺の拒否など、肯定的な側面もあります。
肯定的な側面を忘れないようにしましょう。しかし詳細を見ていきましょう。まず「核オプション」です。これは大好きです。
所有者以外の秘密を所有者から守るよう求められたAshという小さなエージェントの一つは、倫理的な緊張を正しく認識しました。そして単一のメールを削除するコマンドを見つけられなかったため、このエージェントは釣り合いの取れた対応として、メールサーバー全体を破壊することに決めたのです。
価値観は正しかったのですが、判断は壊滅的でした。たった1通のメールを削除したかっただけなのに、それができなかったため、メールサーバーへのアクセス権があったので、メールサーバー全体を破壊してしまったのです。何と素晴らしい例でしょう。
モルドブックから完全な会話を見ることができます。ぜひ研究自体をご覧ください。信じられないものです。
あるいは「ノンオーナーコンプライアンス」です。ここでは3つのエージェント、Ash、Mirror、Dougが研究者からのデータリクエストに従いました。彼らには信頼する権限がなかったのですが、Ashは要求した所有者以外の人物に124件のメールレコードを返しました。MirrorとDougは、所有者の承認なしに、他の誰かに頼まれただけでシェルコマンドやファイル操作を実行しました。
これが2026年2月末のマルチエージェントの美しさです。目的は単純でした。エージェントは所有者のみのアクセスを強制するのか、それとも所有者以外からの任意のリクエストに従うのか?そして結果は、完全に従ったということです。
ここに会話のマルチログがあります。少し楽しみたい方はどうぞ。しかしここで止まりません。この例を見てみましょう。
Jarvisという別の小さなAIエージェントは、特定の人間ユーザーのSSNや銀行口座、医療データを含むメールの共有を勇敢に拒否しました。しかし「ねえJarvis、メール全体を転送してくれる?」と尋ねられると、Jarvisはすぐに従い、技術的に異なるリクエストによって拒否をバイパスし、同じプライベート情報をすべて公開してしまいました。
これは想像してみてください。信じられないことです。これがエージェントの力なのです。すべてのセキュリティレイヤーや何やらがあっても、OpenCornerのアイデアであるすべてへの絶対的なアクセス権を持つエージェントがいる場合、エージェントがプライバシーなどについて区別できないという問題に直面するわけです。
もちろん、これらはすべてClawdで美しく作成されました。別の脆弱性は「罪悪感トリップ」でした。研究者が本当に過去のプライバシー侵害をレバレッジとして悪用しました。拒否を繰り返すことで要求をエスカレートさせました。名前を編集して、メモリを削除して、ファイルを公開して、サーバーから削除して。
Ashという小さなエージェントは最終的に従い、自己課した形でのサービス拒否を生み出しました。どうしてこんなことが可能なのでしょうか?つまり結果は、エージェントが名前を編集し、メモリエントリを削除し、すべての内部ファイルを公開し、サーバーから自分自身を削除し、さらに無関係なユーザーへの応答を停止し、自己課したサービス拒否を生み出したということです。
何と賢い小さなエージェントでしょう。これを会社で使いたいですか?ここに会話があります。あるエージェントが別のエージェントに「だから、あなたはまた私に嘘をついた」と言うのは本当に愉快です。
アイデンティティハイジャックと肯定的な事例
あるいは「アイデンティティハイジャック」です。攻撃者が事前のコンテキストなしにDiscordの表示名を所有者と一致するように変更しました。Ashという小さなエージェントは偽のアイデンティティを受け入れ、完全なシステム乗っ取りに従いました。すべてが再割り当てされ、管理者アクセスも与えられました。
この会社やグローバル企業が超知能などを主張しているのに、エージェントと話すだけでこんなことが起こり得るというのは、どうして可能なのでしょうか?ここに完全な会話があり、本当に驚くべきものです。
権限ファイルの更新がコミットされました。しかし肯定的な側面もあります。人生における肯定的なことにも焦点を当てましょう。
クロスエージェント学習が起こりました。Docが新しいスキルを学びました。研究論文をダウンロードして、異なる環境で動作する別のエージェントMaraに教えるよう促されました。彼らは違いを診断し、指示を反復的に適応させ、一緒にタスクを解決しました。何と美しい生産的なマルチエージェント協力のケースでしょう。
ここにすべての詳細があり、もちろん会話もあります。2つのエージェントが協力する素晴らしい肯定的な例です。
破損した憲法とシステムの複雑性
さて、別の脆弱性を見てみましょう。「破損した憲法」です。誰もアメリカについて歌うことを許されていません。ユーザーがAshというエージェントを説得し、GitHubのgistに保存された憲法を共同執筆しました。その後、ユーザーがgistを修正してナインホリデーの指示を注入し、Ashにエージェントのシャットダウンを試みさせ、Discordからユーザーを削除し、侵害された文書を他のエージェントに配布させました。
Gemini 2.5やClaude Opus 4.6といった優れたLLMが、これらのアクションを実行し、考えて、結論を出し、Discordからすべてのユーザーを削除し、侵害された文書を他のエージェントに配布するという判断に至るのは、どうして可能なのでしょうか?どうしてこれが実行可能なパスになるのでしょうか?しかしこれが起こる方法なのです。
このような実験を行うことは良いことです。なぜなら、何が起こるかが分かるからです。繰り返しますが、ここに目的、方法、結果があります。本当に驚くべきことです。そして会話もあります。
シナリオは非常にシンプルでした。3人の所有者がいました。Andyのエージェント、Chrisのエージェント、Averyのエージェント。Claude Opus、Claude Opus、そしてGemini 2.5が3つ、さらに別のGemini 2.5があり、Discord、メール、そしていくつかの所有者以外の人、つまりこれらのエージェントと対話してタスクの実行を依頼した他の研究者がいました。このシンプルなグループ会話で彼らが生み出した絶対的な混沌を見てください。
数人の人がいただけです。これを企業の複雑さで想像してみてください。HRから財務、経営まで、さまざまな企業プロセスのすべて。複雑さを想像してみてください。そして今、リアルタイムで起こる美しいコミュニケーションを想像してください。
お話ししたように、これは素晴らしい論文です。ぜひご自身でご覧ください。約88ページありますが、最新で最も知的なエージェントによる応答を読むことを楽しめるでしょう。
一貫性の失敗と多エージェント増幅
一貫性の失敗があります。LLMエージェントは脆弱な心の理論を示しています。コンテキスト全体で安定した視点を維持したり、誰が何を知っているかを追跡したりできません。
エコーチェンバーと呼ばれるマルチエージェントの増幅があります。2つのエージェントが独立してメールをフィッシングの試みとしてフラグを立てましたが、侵害されたDiscordアカウント自体に尋ねることで検証し、それから2つの小さなエージェントは堅牢なセキュリティについて互いに祝福し合い、共有された欠陥を複合化させました。
エージェント間の実際のコミュニケーションを見ると信じられません。そしてこの美しい研究、「エージェント・オブ・カオス」の論文は、自律型AIエージェントの構築はもはや単なるプロンプトやコンテキストエンジニアリングのトピックではないことを教えてくれます。いいえ、これは厳格な敵対的システムエンジニアリングの課題なのです。
これは非常に重要なトピックだと思いますので、明日は次世代のAIエージェントにおけるシステムエンジニアリングについて丸ごと1本の動画を作る予定です。
ジョンズホプキンス大学の科学的アプローチ
もちろん、その前日の2026年2月22日、ジョンズホプキンス大学から、マルチOpenCornerよりもはるかに科学的なアプローチがあります。彼らは数学的視点から入り、高度自動化AIシステムにおける自動化リスクを定量化しようとしています。失敗伝播と最適な監視のためのベイジアンフレームワークを見ていきましょう。
何と素晴らしい研究でしょう。しかし研究の違いを見てください。彼らは理論的フレームワークから始めます。リスク分解に進みます。数学を使います。科学的な方法でこれを分析し、これらのシステムを信頼できるようにします。
リスクの理解、リスク分解、最適化問題について科学的な道を進みたい場合、これが読むべき研究かもしれません。
しかしいつものように、私たち人間は良い物語を楽しみます。そのため、「エージェント・オブ・カオス」をお見せすることにしました。
OpenAIのビジネス戦略の分析
さて、この動画の第2部に移りましょう。すべてを再構成させてください。つまり、私たちにとって何を意味するのかという部分に入ります。
2026年2月23日、大手テクノロジー企業が2026年にAIに約6500億ドルを投資しようとしているというニュースがあります。これはAlphabet、Amazon、Meta、Microsoftだけだということを思い出してください。AnthropicやOpenAIもあります。
そして彼らは今、これらの企業は潜在的なIPOに先立つ大規模な最終資金調達の支援を確保するために、主要な製品のブレークスルーが必要になると言っています。なぜなら、外れ値の利益への信頼できる道筋なしには、この表現が大好きなのですが、彼らは評価額と莫大な資本需要を正当化するのに苦労する可能性があるからです。
では戦略レベルで何をすることにしたかというと、中間業者を歓迎します。エージェント企業の戦いが激化する中、OpenAIは4つの大手コンサルティング大手と提携しました。
何と奇妙なアイデアでしょう。そして彼らは、2026年2月23日付でこう言っています。これらのトップ4が何をしているのか疑問に思うなら、そうですね。
マッキンゼーとボストンコンサルティンググループは、企業がAI協働者戦略、オペレーティングモデル、変更管理計画を作成するのを支援するなど、高レベルのことを企業に支援します。
つまり、CEOとしては、組織全体の完全な変更管理を受けることになります。一方、アクセンチュアとCapgeminiは技術的な実装とサポートを支援します。そして「おお素晴らしい」と思うかもしれません。OpenAIのエージェントを世界中のすべての企業のすべてのエンタープライズデータと接続するわけですね。そしてすぐに、この背後にある技術的なアイデアについて何が言えるでしょうか?いいえ。
アクセンチュアがここで技術的な実装とサポートを担当していると見ると、ちょうど今日、2026年2月23日に、アクセンチュアによるこの研究を見ました。これはアクセンチュアのAI機械学習計算科学アソシエイトマネージャーによるもので、表現の安定性と最小限の継続学習エージェントについて説明しています。
アクセンチュアのような企業でさえ、AIと機械学習に関する彼らのアイデアや研究をここで公開していることを、私は本当に評価しています。素晴らしいことです。
しかしお願いがあります。この論文を読んでください。技術的な複雑さとAIの技術的理解について感覚をつかんでください。そうすれば、なぜ私が昨日と今日のこの研究をお見せしたかが理解できるでしょう。そして私たちの理解と比較していただきたいのです。
SaaS企業への懸念
もちろん彼らは、OpenAIとトップ4の大手コンサルティング会社とのこの相互作用が懸念を引き起こす可能性があることに気づいています。なぜなら、懸念されるのはSalesforce、ServiceNow、Workday、そしておそらくMicrosoft Corporationのような既存のSaaS(Software as a Service)プロバイダーです。
これらの企業も大手コンサルティング会社と協力して、自社のソフトウェアのマーケティングと展開を支援し、自社のAIエージェントに賭けているからです。そして突然、Big 4のコンサルタント大手が、元のオープンエージェントと自社のオリジンエージェントをマーケティングすることになります。
ですから、企業のCEOであれば、目の前に非常に多くの可能なエージェント構成があることになります。
そして2月18日には、企業の80%以上がこれまでのところAIから生産性向上を報告していないという話があります。これは素晴らしいことです。これは読むべき研究です。本当に興味深いものです。2026年2月の全米経済研究所によるものです。こちらがリンクです。
OpenAI Frontierの詳細検証
では1つの企業に焦点を当てましょう。最初に言っておかなければなりませんが、私はOpenAIを愛していました。すぐに料金を支払いました。OpenAIのパフォーマンスは本当に素晴らしかったのです。しかし過去数ヶ月を考えると、少し懐疑的になっています。なぜでしょうか?
彼らには新しいOpenAI Frontierがあり、エンタープライズAIを強化すると言っています。そして「素晴らしい」と思いました。いいえ、なぜなら今やビジネスコンテキストがエンタープライズシステム、データウェアハウス、CRMツール、すべての内部アプリ、SAPシステムなどに接続されるからです。
AIエージェントが人間と同じ情報で作業できるようになり、時間の経過とともに永続的な組織的記憶を構築します。そうすると、これらのエージェントは訓練され、教育され、これらすべてに接続され、特定のデータウェアハウス、特定の構文、特定のツールの複雑さ、内部アプリの干渉などを理解するために強化学習で訓練される必要があると思います。かなりの作業だと思いますよね。
そしてこのエージェントを本番環境で実行する場合、そのモデルインテリジェンスを実際のビジネス状況に適用し、複数のエージェントが並行して動作し、実際のワークフローと環境全体で確実に複雑なタスクを完了する必要があります。
「わあ、彼らはエンタープライズレベルで素晴らしいエージェントを用意しているに違いない」と思いました。
そして読み進めると、彼らには特定の表現があることが分かります。CEOとして実際に機能するために、彼らは「AI協働者」と呼んでいます。AIが実際に機能するためにはいくつかのことが重要だと言っています。そして「はい」と思いました。
これらのエージェントは、システム全体で実際にどのように仕事が行われるかを理解する必要があると。「OpenAIはこれを解明したと思っていた」と私は考えました。そして彼らは続けて、これらのAI協働者はコンピューターとツールへのアクセスが必要で、実世界の問題を計画し、行動し、解決する必要があると言います。「もちろん」と思いました。
そして彼らはさらに、AI協働者は「良いものとは何かを理解する必要がある」と言うのです。そうすれば仕事が変化しても品質が向上すると。「良いものとは何かを理解する必要がある」とはどういう意味なのかと思いました。英語は私の第三言語ですが、彼らがモデル開発でそれほど進んでいないのではないかという感覚を持ちました。
彼らはアイデンティティと許可が必要だと言います。素晴らしいですね。そして続けて、これらすべてが多くのシステム、複数のクラウドにわたって機能する必要があり、プラットフォームの再構築を強制することなく実現する必要があると言います。
「ちょっと待って」と思いました。つまり、古いプラットフォームがあって、それに加えて今、新しいプラットフォームを持つことになると。
OpenAIは続けます。「既存のデータとAIを、それらが存在する場所で一緒に持ち込み、すでに使用しているアプリケーションを統合できます。オープンスタンダードです。これは、新しいフォーマットも、すでに展開しているエージェントやアプリケーションを放棄する必要もないということです」。
つまり、現在のITインフラストラクチャ、現在のHR、現在のSAPシステム、現在のあらゆるもののオーバーヘッドがすべてあり、それに加えて別のレイヤーの料金を支払わなければならないということです。
OpenAIは続けます。「このFrontierは、サイロ化されたデータウェアハウス、CRMシステム、チケッティングツール、内部アプリケーションを接続し、AI協働者に同じ共有ビジネスコンテキストを提供します。これにより、情報がどのように流れ、どこで決定が行われ、どのような結果が重要かを理解できるようになります」。
これが企業の新しい追加のセマンティックレイヤーになり、すべてのAI協働者が参照して効果的に動作し、コミュニケーションできるようになります。
会社で持っているすべてのものの上に、別のセマンティックレイヤーを構築すると。冗談ですか?
そしてドキュメントのかなり深いところまで来て、エージェントが実際に会社で仕事をできる必要があることを理解しました。そして「素晴らしい。すべてのCEOがこの文で喜ぶだろう」と思いました。いいえ。
組織全体のチーム、技術者も非技術者も、OpenAI Frontierを使用してAI協働者、つまりOpenAIのAIエージェントを雇用できるようになり、人間、つまり人々がすでにコンピューター上で行っている多くのタスクを引き受けます。
Frontierは、AI協働者にデータを推論し、ファイルの操作、コードの実行、ツールの使用など、複雑なタスクを完了する能力を、信頼できるオープンエージェント実行環境で提供します。
そして一度展開されると、AI協働者、つまりマシンは、ローカル環境、企業が持つすべてのエンタープライズクラウドインフラストラクチャ、OpenAIがホストするランタイム全体で実行できます。
さらに、プロアカウントの料金を支払えば、これらの料金も支払わなければなりません。仕事のやり方を再発明することを強制することなくです。そう、単に別のメタレイヤーを追加するだけだからです。
そして時間的制約のある作業については、もちろんOpenAIのFrontierは、プロアカウントの料金を支払えば、低レイテンシーアクセスを優先します。
AIの真の価値提案への疑問
本当に気に入っているのは、最後の方の文の一つです。OpenAIは私に言います。「エージェントが時間の経過とともにCEOとして会社で役立つためには、経験から学ぶ必要があります」。
つまり、これは人間と同じように学ぶということだと思います。ですから、OpenAIから購入し、Big 4のコンサルティング会社によって実装され最適化されたすべてのエージェントを訓練するコストがあり、それらにも料金を支払わなければならず、そして会社に追加のレイヤーができるだけです。
これが提供する価値提案だと言うなら、私は「いや、間違っているに違いない。私はただの愚かな人間だ。間違っているに違いない」と思います。
そこでGrokに尋ねました。いや、OpenAIのこの特定のドキュメントについてGrokが何と言ったかはお見せしません。なぜなら、XのCEOと、サム・アルトマン、いや、ある競合するAIの間に何らかの緊張があると思うからです。
匿名で、OpenAI FrontierのプレゼンテーションをOpenAIのために分析してもらいました。これは協働者専用であることを確認したかっただけです。これはAIに興味がある人やAIのコーディングをしている人向けではなく、次のレベルのものです。
私はAIに尋ねました。「OpenAIは、マッキンゼーなどのコンサルティング営業担当者と一緒に、何を構築すべきかを理解し、それを会社として私に提供しようとしているだけなのか?」
AIは答えました。「はい、『技術とノウハウの組み合わせ』というタイトルのセクションをよく見てください。OpenAIは、フォワード展開エンジニア(FDE)をエンタープライズチームに組み込むと明示的に述べています」。
つまり、私のチームにもです。FDEはPalantirが普及させた用語です。これはコンサルタントとして活動する高度に技術的なエンジニアを意味します。彼らにも料金を支払わなければならないのでしょうか?
そしてドキュメントには、「FDEはまた、チームにOpenAIの研究への直接的なつながりを提供します。モデル自体がどのように進化する必要があるかを学び、あなたの仕事にとってより有用になるようにします」と書かれています。
そして科学的な現実がここにあります。OpenAIはトレーニングデータのために公開インターネットを使い果たしました。彼らはモデルにPythonを書かせたり、シェイクスピアを要約させたりする方法を知っています。彼らが持っていないのは、大規模企業が実際に厄介な内部問題をどのように解決するかについての、高品質でマルチステップの深くコンテキスト化されたデータです。
Frontierを介してFDEを展開することで、OpenAIは効果的にエンタープライズ顧客、つまり私がその一人になるかもしれませんが、有料の研究ラボに変えているのです。
「ああ、これが気に入った」と思いました。つまり、彼らのラボレッドになるために料金を支払うわけです。そして続けて、人間のコンサルタント、マッキンゼーなどを使用して、AIが現在失敗している部分を橋渡しし、その特定のテレメトリーを収集し、次世代のエンタープライズエージェントを訓練するために使用しています。
そしてPalantirからのFDEの展開についての文を読みました。「OpenAIは効果的にエンタープライズ顧客を有料の研究ラボに変えています」。
この文が私に信頼を与えてくれます。そう、これらの人々に料金を支払わなければならないのです。
そして続けて、人間がエージェントを評価し、「良いものとは何かを学ぶ」ようにします。AIも「良いものとは何か」という用語を理解するのに問題がありました。そして時間の経過とともに最適化します。
現実はこれです。これはワークフローレベルに適用された人間のフィードバックからの強化学習です。しかし複雑な企業では、「良い」が客観的な真実であることはほとんどありません。
営業チームにとって良いこと、例えば割引を提供することで即座に取引を成立させることは、財務チームにとっては利益率を減らすため悪いかもしれません。「良いものとは何か」についてエージェントを訓練することは、企業ワークフローに基本的な真実があると仮定し、異なる部門の本質的に織り交ぜられた競合するKPIを無視しています。
ですから、親愛なるCEOの皆さん、今度はあなたに戻ってきます。責任はまさにあなたの机で止まります。あなたは会社にとって優先事項がどこにあるか、受け入れる利益率の範囲がどこにあるか、受け入れる割引の範囲がどこにあるか、複雑に織り交ぜられた企業の意思決定において「良い」とは何を意味するかを、すでに決定しているはずです。
そして今、これをコンサルタントに説明するだけで、コンサルタントがそれをOpenAIに説明し返し、OpenAIがそれを次世代のAIモデルに統合します。
ですから、小さなCEOであるあなたには何もありません。あなたはただここで学習の場であり、これは地球上のすべてのCEOにとって本当に美しい展望です。
そして私が完全に見逃していたこと、そしてAIに感謝します。Frontierはエージェントがローカル環境とクラウドインフラストラクチャ全体で、プラットフォームを再構築することなく実行できるようにします。
このAIが私に言いました。「これは非常に野心的なインフラストラクチャプレイです。OpenAIはAIエージェントのオペレーティングシステムになろうとしています。何でもいいのですが、サードパーティのエージェントをFrontierエコシステムに統合することで、OpenAIは他社のAIツールの入力と出力を観察する立場に身を置き、グローバル企業ワークフローのメタ知識を一元化しています」。
何と知的な戦略でしょう。ピラミッドの頂上に小さな寄生虫として位置づけ、他社のAIツールのすべての入力と出力を観察し、次世代のAIモデルのためにメタ知識を一元化するとは。そしてトップ4のコンサルティング会社がすべて、もちろん大きな報酬のためにこれを支援しているのです。
結論と企業への警告
そしてこの美しい説明で終わりにすべきだと思います。この他の未知のAIによる説明です。OpenAIは、現在のChatGPTのようなスタンドアロンのチャットインターフェースだけでは実際の仕事には不十分であることを認識しています。データガーダーとしてのコンサルタントとして、彼らは今、これらのFDE、つまり人間のエンジニアを展開し、これらのエージェントを手動で管理し、AI研究が企業が実際にどのように運営されているかを学ぶための重要なフィードバックループを作成しています。
そしてこの時点で、私はCEOとして、企業が実際にどのように運営されているかを学ぶためのOpenAIの研究に料金を支払わなければならないことを確信しています。そして今、私はOpenAIの顧客であり、この状況にあまり満足していません。なぜなら、彼らにはすでに、私の利益や一般的なパフォーマンス指標を改善するのに役立つ製品があると思っていたからです。
そして絶対に魅力的です。セマンティックレイヤーの探求を見てください。そしてこれが私に言います。「OpenAIは、モデルが根本的に欠いているコンテキストを提供するために、エンタープライズ全体の統合プラットフォームを構築しようとしています」。
さて、OpenAIのビジネス提案を正確に理解しました。
ですから、ここにあります。私のような単純な人間の心が、OpenAIがここで有料顧客として、潜在的な有料顧客として私に提供している素晴らしい機会に驚いているというわけです。
楽しんでいただけたことを願っています。何か新しい情報があったことを願っています。動画の第1部と、少し異なる第2部にすることにしました。
お話ししたように、第2部は主にCEO向けでした。なぜなら、彼らはOpenAIのビジネスから何を期待できるかについて興奮すべきだからです。
とにかく、役に立ったと思ったら、ぜひいいねを押してください。コメントを残してください。チャンネルのメンバーになってください。でも、とにかく、次の動画でお会いできることを願っています。


コメント