この動画は、幹細胞の多能性という生物学の概念をAIエージェント設計へ写像し、固定的で専用化されたエージェント群ではなく、環境や課題に応じて自律的に分化・適応する多能性AIシステムの可能性を論じる内容である。AmazonとBerkeley Universityの論文を軸に、MCPを介したツール取得、ユーザープロファイルの継続学習、記憶の階層化、スキルの結晶化、そして推論能力とドメイン知識の分離といった設計思想が紹介される。さらに、AIを化学的な段階から細胞的な段階へ進化させるという視点から、将来的な高次AIシステムの構想まで踏み込んで考察している。

- はじめに
- Stem Agent論文との出会い
- 複雑に見える図の基本発想
- 5つの相互運用プロトコルを単一ゲートウェイに統合する
- 推論能力とドメイン知識の分離
- 具体例:株式取得から購入まで
- 5層アーキテクチャ
- システムはどのように学習するのか
- 行動パラメータの継続的調整
- 記憶システムの核心
- 4種類の相補的メモリ
- スキル獲得を細胞分化として捉える
- 8段階の認知パイプライン
- 推論戦略の選択
- 計画、実行、整形、学習
- 生物工学的なフレーミングによる記憶最適化
- スキルの死と刈り込み
- この論文から得られる洞察
- 標準的なチャットUIの限界
- 生物学に着想を得たスキル獲得の魅力
- 静的なシステムプロンプトから進化する人格ベクトルへ
- この研究を超えて考えるスケーリングの問題
- 専門知識を詰め込むAIではなく、多能性AIコアへ
- より大きなモデルではなく、より多能な相互接続体へ
- 化学段階から細胞段階へのAI進化
- 数学的に見たスキルの定義
- エピソードから最適グラフを抽出するAI
- 金融アナリストの支援にStem Agentを使う想像実験
- コンサル企業はいらなくなるのではないか
- まとめ
はじめに
みなさん、こんにちは。戻ってきてくださってとてもうれしいです。今日は新しいAI研究についてお話ししたいと思います。
発端は2日前のことです。Anthropicのエンジニアリングチームが、2026年3月24日付で、長時間稼働するアプリケーション開発のためのハーネス設計について、そして特にコーディング性能の高さという点でのClaudeのさらなる発展について公開しました。
これを見ると、彼らのハーネスには基本的な発想があります。まず初期化エージェントが状態アーティファクトを作り、次にコーディングエージェントが段階的な進捗を積み上げ、さらに評価器が出力をいくつかの基準に照らして確認するのです。エージェント的な通信はすべてファイルを介して仲介され、要するにファイルシステムが、このシステムの外部化された状態バッファとして機能しています。
私はこれを見て、なかなか面白いアプローチだと思いました。こんなに単純化して本当に機能するのだろうか、と考えたのです。
そしてその後、こちらに出会いました。
Stem Agent論文との出会い
これは2026年3月のもので、AmazonとBerkeley Universityによるものです。タイトルは、StemAgent: A Self-Adapting Tool-Enabled Extensible Architecture for a Multi-Protocol AI Agent System です。
この論文は、正直かなり楽しいです。ぜひ見ていきましょう。もちろんGitHubもあるので、すぐに深く入り込みたければそこから始めることもできます。ただし、この仕組みには本質的な複雑さがあります。
そこはきちんと話すべきでしょう。
彼らはここで、生物学とのアナロジーを用いています。発生生物学では、幹細胞はその多能性ゆえに非常に特別です。未分化でありながら、あらゆる細胞型へと特化できる能力を持っています。
そこで出てくる発想がこうです。なぜ私たちは、個々のタスクや個々の複雑性ごとに、毎回専用の特殊エージェントを作らなければならないのでしょうか。
それよりも、多能性を持つAIエージェントシステムを作り、それが自分の置かれた環境や、その環境の中で遭遇する問題に応じて自己分化し、人間や動物の細胞のように分化を始めるようにしてはどうか、というわけです。
そこで彼らは、stem cell ではなく stem agent という発想を採用しました。つまり、自己適応型で、ツールプールを利用可能で、拡張可能なマルチエージェントシステムです。ある種の未分化エージェントが、特殊化されたプロトコルハンドラ、ツールバインディング、そしてメモリ型へと分化し、それらが組み合わさって機能するシステムを構成し、多様な環境におけるワークフローと複雑性を支えるのです。
複雑に見える図の基本発想
彼らはここで、とても美しい可視化図を示しています。ぱっと見は少し情報量が多すぎるようにも思えますが、気にしなくて大丈夫です。最初から順に見ていって、そのあとで戻ってこの図を再確認すればよいのです。基本的な発想さえつかめば、実はかなりシンプルです。
こんな世界を想像してみてください。エージェントコアは、何と対話するのかについて、最初から何の先入観も持っていません。
すると、あるシグナルがやってきます。たとえば環境内の別のAIエージェントが、こちらのエージェントに単純なタスクを委譲してくるとします。するとStem Agentは、これはエージェント間通信だと理解し、A2A JSON-RPCハンドラを使えばよいと判断します。
あるいは、そのシグナルが動的レンダリングを必要とするユーザーインターフェースであれば、A2UIストリーミング接続を立ち上げます。
もしそれがショッピングの依頼であれば、UCP、つまり Universal Commerce Protocol を起動します。
つまり、環境が必要とするものに応じて反応するのです。そしてすべては、実行時にMCPを通じてツール能力を取得することに依存しています。エージェントは、目覚めて周囲を見渡し、環境と相互作用し始めるまで、自分がどんなツールを持っているのかすら知りません。
5つの相互運用プロトコルを単一ゲートウェイに統合する
このStem論文の著者たちは、5種類の異なる相互運用プロトコルを単一のゲートウェイの背後に統合しています。必要なら7でも12でも追加すればいいのです。重要なのは、その発想です。
つまり、人間がわざわざ、エージェント間通信のためのエージェントを1つ、人間向けUIチャットのための別のエージェントを1つ、というように用途ごとに別々に構築しなくてよくなるのです。
そして、この仕組みの作り方も興味深いです。彼らは、数学的に裏づけられた連続的な caller profiler を導入しています。これについては数分後に詳しく見ますが、これは人間ユーザーの習慣を20以上の次元にわたって、バックグラウンドで静かに学習していくものです。
するとAIは理解し始めます。この人間は何をしているのか。このタスクの複雑性はどれほどか。人間は私に何を求めているのか。その意図は何か。この人間は金融の専門家なのか、医療なのか、数学なのか、物理なのか。いったい何を相手にしているのか。外部世界の複雑性はどの程度か。どんなツールにアクセスできるのか。どんなツールを構築し始めるべきか。
こうしたものがすべて20次元に符号化されます。つまりAIは、あなたとの相互作用の中で、あなたという人間がどういう存在で、どんな複雑性を抱えているのかを本当に学習するのです。
推論能力とドメイン知識の分離
そして、ここで非常に興味深い部分が出てきます。外部ドメインの能力をすべてMCPレイヤー、つまりレイヤー5に通すことで、レイヤー3にある推論ロジックは、そのドメイン知識から完全に切り離されるのです。
これが、著者たちの最重要仮説です。
つまり、LLMの主要な推論能力だけを更新し、ツール群には一切触れない、あるいは逆にツールだけを更新して推論部分には触れない、ということが可能になります。
このうさぎ穴の奥へ進むなら、推論ロジック全体をドメイン知識から切り離すという発想をよく考えてみてください。非常に大きな利点があります。
具体例:株式取得から購入まで
では、具体例を見てみましょう。
あるStem Agentをデプロイしたとします。このエージェントはローカルのMCPサーバーに動的に問い合わせを行い、株価取得ツールを発見して、それを使います。
そして相互作用の過程で、caller profile は、人間ユーザーが長い説明を無視する傾向があることに気づきます。すると20次元空間の中で、冗長さのパラメータを自律的に下げるのです。
そのあとでユーザーが、株を買ってください、と言います。するとエージェントは、UCPとA2P、つまり商取引と決済のプロトコルをシームレスに呼び出し、取引を実行します。
カスタムの糊付けコードは不要です。AIが人間の命令に従ってすべてを実行するのです。
5層アーキテクチャ
彼らはこのエージェントを5層アーキテクチャで構築しています。すでに触れた caller adapters、gateways、agent core、memory system、そしてMCP integration です。
これはかなりシンプルです。各プロトコルハンドラは create router を実装し、Express.js router を返します。ゲートウェイは、すべてのルーターを5つのミドルウェアとともにマウントします。識別、レート制限、リクエスト相関、エラーハンドリングなどです。非常に美しい構成です。
さらに4つのフレームワークアダプタが運用されています。AutoGen、CrewAI、LangGraph、OpenAI Agent SDK です。これらは、外部側の慣習をStem Agent内部の標準形式へと変換するだけです。
つまり、ここではプロトコル、エンドポイント、トランスポート、スキーマという比較の話は終わっています。
システムはどのように学習するのか
本当に面白いのは、システムの自己適応です。このシステムはいったいどうやって学習するのでしょうか。
著者たちは、ここで2つのレベルを採用しています。
それが、ユーザーごとの caller profile learning と、タスクごとの behavior parameter tuning です。
caller profiler は、各人間ユーザーについて、多次元モデルを4つのカテゴリにわたって学習します。なぜこのカテゴリを選んだのかは聞かないでください。彼らがそれを選んだのです。
カテゴリは、philosophy が8次元、principles が4次元、style が5次元、habits が4次元です。さらに、それぞれに例となる次元があります。そうすることで、システムが何を見るよう訓練されているのか、あるいは人間の振る舞いをどう捉えようとしているのかが分かります。
各次元は指数移動平均、つまりEMAで更新されます。美しいですね。しきい値も定義されています。これも良いです。細かいところは忘れて構いません。要するに、AIがあなたの意図、そしてAIシステムに何を正確に求めているのかを理解し、完璧な出力を返すための仕組みです。
行動パラメータの継続的調整
behavior parameters の方では、最初に10個のパラメータを用意し、それをAIがあなたのタスク特性と、先ほどの caller profile に基づいて継続的に調整します。
その10要素とは、reasoning、exploration versus exploitation、verbosity、confidence threshold、tool use preferences、creativity、proactive suggestion、self-reflection frequency、maximum planning steps、memory retrieval breadth です。必要ならもっと増やせばよいのです。
記憶システムの核心
そして本当に重要なのは、ここです。このシステムのメモリシステムです。
ここで彼らは、Distilling the Feedback into Memory as a Tool という論文を参照しています。これは2026年3月17日の version 2 で公開されたもので、Victor が提案したフレームワークです。
その考え方は、推論時にかかる高コストを、ファイルベースのメモリシステムとエージェント制御ツール呼び出しを通して、一時的な批評を検索可能なガイドラインへ変換することで償却する、というものです。非常にシンプルなファイルベースのメモリシステムです。
ここで気づくのは、動画の冒頭で紹介したAnthropicのハーネスのアイデアと、どこか似ていることです。
その論文を踏まえて、AmazonとBerkeleyは非常に特徴的なメモリシステム実装を考案しました。
4種類の相補的メモリ
彼らは、4種類の相補的なメモリ要素を採用しています。
まず episodic memory です。これは、個々の相互作用エピソードを保存し、類似検索のためにベクトル埋め込みを持ちます。
次に semantic memory です。これは subject、predicate、object という知識トリプルを維持し、concept graph の中で episodic memory から抽出されたパターンを保持します。
次に procedural memory です。成功した戦略やツール使用パターンを記録し、繰り返し現れるタスクに対して最適な手続きとのマッチングを可能にします。
そして user context memory です。これはユーザーごとのセッション履歴やプロファイルを保持し、忘れてくださいというサポートアクションにも対応します。
スキル獲得を細胞分化として捉える
先週、私はスキルとスキル獲得についていくつか動画を出しました。schema LD や skill file だけでなく、経験の追加も必要だと話しました。
彼らはここで、理論的な観点から細胞分化アプローチを採用し、Stem Agentシステム内でスキル獲得を実装しようとしています。つまり、スキル獲得を細胞分化のようなものとしてモデル化するのです。
episodic memory のパターン、手続き、成功率、MCPツールの可用性、そしていくつかの質的なドメイン信号がトリガーとなって、特殊化されたスキルの結晶化、あるいは実体化が起こります。
このときスキルは、intent patterns や domain のような trigger condition、単純なツール呼び出しやツールチェーン、あるいは手続き的ステップからなる action sequence、そして maturity metadata を内包します。
つまり、私はこれを10回実行して毎回100%成功しました、というようなメタデータです。
ここで分かるように、スキルという概念は、Anthropicのスキル定義とは少し異なっています。しかし興味深いです。
8段階の認知パイプライン
さらに彼らは、美しい認知パイプラインを用意しています。このシステムはどう動くのか。ワークフローはどうなっているのか。そのための8段階 cognitive pipeline です。とても面白い構成です。
論文のスクリーンショットを見ると、8つの要素がありますが、実際はかなり単純です。perception、adaptation、skill match、reasoning、planning、execution、formatting、そして learning です。
順に見てみましょう。
最初の4つは簡単です。まず perceive では、意図を分類します。intent categories、complexity が simple か medium か complex か、urgency はどうか、そして関連するエンティティをすべて抽出します。
次に adapt です。caller profile を取得します。もしかすると、この人間とは以前にもAIとして接触していたかもしれません。そこでAIと人間の相互作用の中で、10個の行動パラメータを動的に調整します。推論の深さ、創造性、ツール使用の好みなどです。
次に skill match です。もしエージェントがすでに、ユーザーが好むと言ったスキルセットや、利用してほしいと示したスキルを持っているなら、あるいはこのパターンに対する成熟した結晶化スキルがあるなら、そこへショートカットします。なければ新しく構築しなければなりません。
推論戦略の選択
その次が reasoning です。ここで彼らは、非常にシンプルな推論分類を採用しています。タスクパラメータに応じて推論戦略を選ぶのです。
ツール依存の強いタスクなら、昔ながらの ReAct システムを使う。
複雑なタスクなら、リフレクションや自己反省を試みる。ただし、そこまでうまくはいかないかもしれません。
創造的なタスクなら、複数エージェントがいる場合に内部ディベートや多数決を使う。
それ以外なら、古典的な chain of thought に行く。
はい、そんな感じです。
計画、実行、整形、学習
5から8は planning、execution、formatting、learning です。
planning では、MCPツール呼び出しのための並列実行グラフを構築します。ワークフローをどう組むかということです。
execution では、リトライや circuit breaker を使いながらツールを実行します。
formatting では、出力のスタイルを整えます。
そして learning です。
ここが私にとって一番興味深いところです。この self-learning、self-evolving なStemシステムでは、学習はどのように起こるのでしょうか。
もちろん、メモリエントリや caller profile は更新されます。ただ、私は caller profile よりも memory optimization の方に関心があります。
生物工学的なフレーミングによる記憶最適化
ここでも彼らは、バイオテクノロジーとのアナロジーを持ち込みます。単に bio framing と呼んでもいいでしょう。
人間とAIの相互作用を通じて episodic memory が蓄積されると、システムは非同期にパターン抽出を行います。複数の段階があり、たとえば3つのエピソードが同じ action key を共有し、かつ話題キーワードの50%以上が一致したなら、人間とAIの相互作用の中で新しいスキルが結晶化し始める、という具合です。
AIはそれを監視しますが、その時点ではまだ行動しません。
次に彼らが committed stage と呼ぶ段階があります。3回の成功した proxy activation の後、そのスキルはこのパイプラインを積極的にショートカットできるようになり、計算コストを節約します。
さらに10回の成功活性化の後、優先ルーティングが付与されます。つまりAIは、これが自分の優先的な動作方法だと言うようになるのです。自分のハーネスの中に、美しいグラフ実行が定義された状態になります。
スキルの死と刈り込み
そしてここで面白いことが起きます。生物学には細胞死がありますよね。それを彼らも何らかの形で実装したいのです。要するに、あまり良くないスキルを忘れていくということです。
彼らの考えでは、ある個人化スキルが一定のしきい値、たとえば10人のユーザーにわたって0.3を下回るようになると、そのシステムはそのスキルを徐々にフェードアウトさせ、場合によっては削除まで行います。
つまりこのエージェントは、この生物工学的アナロジーの中で、自分自身の死んだ組織を刈り込むのです。
これはかなり興味深いです。
この論文から得られる洞察
論文自体は短いです。まったく新しい何かがあるわけではありません。ただ、その組み合わせ方と、要素を扱う複雑さの設計が私は好きです。
では、そこからどんな洞察が得られるでしょうか。
ハードコードされたエージェントはもう時代遅れです。もう忘れてしまっていいでしょう。エージェントは少なくとも、通信レイヤーと能力レイヤーを動的に適応させるべきです。
ユーザープロファイルも、システムプロンプトの中の一行の文字列ではありません。継続的に更新される、EMAに支えられた数学的テンソル表現です。そしてそれが、生成ハイパーパラメータを動的に変化させます。
私はドメイン1ではある振る舞いをし、ドメイン2では別の振る舞いをするでしょう。金融から理論物理へ、あるいは医療から別の分野へ行けば、人間としての私は振る舞いも焦点も変わります。
だからユーザープロファイルも動的に適応すべきなのです。私が機械にいちいち何を望むかを伝えなくても、機械はすでに私を知っているべきです。
標準的なチャットUIの限界
そして私は、一般的なチャットインターフェースは失敗すると思います。少なくとも、特定のトピックにおいてはそうです。
たとえば、あなたの固有のパラメータに基づいて将来の金融予測をしたいとします。その場合、システムはそれを学ばなければなりません。UCPや複数の強制的なプロトコル群が必要です。AIと世界の間のトランザクションには A2P も必須です。
つまり、あなたのドメインが金融であるなら、金融サービスへどう接続するか、その数学的金融シミュレーションをどう回すか、といった固有のプロトコルを構築しなければなりません。私が言いたいことは分かると思います。構築できるのです。
生物学に着想を得たスキル獲得の魅力
私が本当に気に入っているのは、この生物学的インスピレーションに基づくスキル獲得です。
episodic memory にあるものをすべて分析することで、Stem Agent は高い成功率を示すものを検出します。しかも、私の好きな isomorphic subgraph of tool executions を見つけて、どの種のワークフローが、私が依頼する特定の仕事に対して成功していたのかを正確に把握します。
そうして、それを結晶化し、実体化し、そのサブグラフを procedural memory に導入します。
ここで、動画の冒頭で見たAnthropicの話を思い出してください。
さらにここには二次的な含意もあります。これが本当に美しいのです。なぜなら、これによって高価なLLM生成タスクが、オーダー1のメモリ参照と、決定論的な有向非巡回グラフの走査へ変換されるからです。なぜなら、環境との相互作用を通して、何度も何度も、100回でも、そのサブグラフが成功してきたことが証明されているからです。
だから私は、その特定の仕事に対して、そのサブグラフ走査を使うべきなのです。実に良いですね。
静的なシステムプロンプトから進化する人格ベクトルへ
もうひとつ気に入っているのは、古い静的なシステムプロンプトが不要になることです。あなたは親切で簡潔なアシスタントです、これから投資戦略の金融専門家人格を持ちなさい、といったあの固定プロンプトです。
このStem Agentは、ユーザー人格を進化するベクトルとして扱います。このシステムは20次元で動いていると分かります。哲学、スタイル、習慣、あらゆるものです。必要なら、あなたのドメインで40次元ベクトル空間に拡張すればよいのです。
そうすれば、40次元の進化するベクトル表現として識別される人格が得られます。この40次元数学空間の軸は自由に選べます。つまり、本当に最適化ができるのです。そしてシステムは、彼らが caller profiler と呼ぶ継続適応テンソルの中で、人間の要素を自己学習していきます。
この研究を超えて考えるスケーリングの問題
ここからは、この研究そのものを少し超えて、私自身の考えです。システムをどうスケールさせるかという話です。
Stem Agent は、ある深い建築的定理を証明しようとしているように見えます。もしドメイン知識と、LLMの認知的あるいはメタ認知的な推論能力を分離できるなら、それらはシステムがスケールするために厳密に直交しているべきだ、ということです。
なぜならそうなれば非常に簡単だからです。すべてのスキル、すべてのドメイン知識、たとえば金融のための知識はすでにあります。そして、それらを推論AIから完全に分離できるなら、それはまさに聖杯です。
したがって、すべてのツールをレイヤー5のMCP抽象化に通すことで、エージェントコアは純粋な論理と純粋な計画複雑性だけを担う存在へと縮退します。言ってみれば、ここが脳です。
もし本当にこれが達成できるなら、非常に興味深いことになります。
専門知識を詰め込むAIではなく、多能性AIコアへ
そうなると、私たちはもはやAIモデルを、何かを知っているように訓練しなくて済むかもしれません。専門家モデルを作るのではないのです。
その代わり、生物工学の例に沿うなら、動的に文脈代数をロードできる多能性AIコアを構築することになります。しかも、それは標準化されたプロトコルを通じて行われるのです。
これが、私にとってのAIの未来像です。
もしかすると以前、私がAIを新しい代数で再構築するという動画を見た方もいるかもしれません。あるいはもっと単純化した形では、neuro-symbolic AI integration の話です。もし数学的・物理的背景を持つ動的システムの真実を捉えたいなら、そうした発想が必要です。
より大きなモデルではなく、より多能な相互接続体へ
そしてもうひとつ、これは論文には含まれていない私自身の考えですが、AIにおける次の飛躍は、より大きく、より大きく、より大きくなる言語モデルではないかもしれません。さらに多くのデータセンターが必要だ、と考える前に立ち止まってみてください。
もしかすると必要なのは、こうした多能性エージェントたちの、より相互接続された集合体なのかもしれません。環境からどんな課題が来ても、それに応じて発達できるもの。環境の脅威や危険に適応できるもの。そして、人間の細胞のような知能を備えたものです。
これはひとつの青写真です。人間の体は、その時々に必要な細胞型を作り出せます。もしそれを人工知能へ写像できるなら、私たちは相互接続された多能性エージェントの群れを構築できるでしょう。それらが動的に組み上がって、いわば synatic organs のような、より高い複雑性を持つAIシステムとなり、超大規模な問題を解決するのです。
化学段階から細胞段階へのAI進化
別のたとえ方もできます。
Stem framework は、AIを純粋な化学段階から少し先へ進めるものだと思います。今のAIでは、化学基質Aと化学基質Bがあって、それを混ぜたり、加熱したり、特定の環境に置いたりします。要するに私たちは、分子化合物を混ぜ合わせているのです。
これが prompt engineering であり、context engineering であり、reinforcement learning であり、Transformerの重みテンソルを変えることです。まだ化学段階です。あらゆる組み合わせを試しているだけです。
しかし、もし私たちがより高いシステム複雑性に進むなら、AIを化学段階から細胞段階へと移行させることになるかもしれません。そうなるとAIは、もはや単なる分子や高分子的な化学化合物ではなく、細胞を構築し始めるのです。
もしAIの進化が本当に細胞段階に入るなら、それは非常に大きな前進になるでしょう。
もちろん、これは私の考えにすぎません。
数学的に見たスキルの定義
さて、動画の最後に数学的な見方もお見せしたいと思います。
Stem framework では、habit は skill として定式化されます。数学記号では sigma で表されます。ここでのスキル定義は、私の別の動画で使っているものとは少し異なります。これはBerkeleyとAmazonの定義です。
ここで持っているのは、T が trigger condition、P が procedural graph、そして maturity metadata です。
trigger condition とは何か。それは、人間である私の意図を表す高次元ベクトルです。必要なドメイン知識は何か。どんなエンティティについて話しているのか。仕事の複雑性はどうか。たとえば、ユーザーがショッピングカートのチェックアウトをしたいとしましょう。
すると、手元のタスクに非常に特化した procedural graph が必要になります。通常これは、AIが行う具体的なMCPツール呼び出しと、その実行順序を表す有向非巡回グラフです。順番に実行することもあれば、系列の集合として並行実行することもあります。
そして、最後に skill life cycle を追跡する state variables があります。
エピソードから最適グラフを抽出するAI
ここで一歩引いて、私たちが何を成し遂げたのか考えてみてください。
今やAIシステムの目標は、エージェントコアシステムのエピソード的な出来事を取り出し、それを新しい表現へ、つまり最適に構成されたグラフへと濾過することです。
もう少し詳しく言えば、Stem Agentのメモリシステム、とくに procedural memory が PostgreSQL データベース上に存在しているとして、そこで habit が結晶化されるとき、何が起きているのでしょうか。
保存されるのは、高度に構造化された決定論的グラフ構造です。もちろん、そうでなければおかしいですよね。
もしこのデータベースを生のまま開発者向けの skill.md ファイルや YAML ファイルへエクスポートすれば、それは先ほど説明した数学的タプルに直接対応するはずです。
ここで私はGeminiに、このコードの簡単なシミュレーションをしてもらいました。
これを見ると分かるように、生物学、数学、構造、因果性、ハーネスシステムといった、あなたが好むどのフレーミングからも、すべてが互いに流れ込み合っているのです。本当にかなり美しいシステムです。
自分が居心地のよい視点から、この次元性を探ればいいのです。
金融アナリストの支援にStem Agentを使う想像実験
AIにおける induced pluripotency は、私にとって非常に魅力的なテーマです。
たとえば、非常に熟練した金融アナリストを支援するために、1つのStem Agentをデプロイすると想像してください。3週間にわたって、そのAIエージェントは人間のアナリストが仕事をする様子を観察するだけです。より正確には、その行動系列を観察します。
では何を学ぶのでしょうか。
たとえば、その人がある企業のリスクプロファイルを分析するときには、常に特定の手順がある、と学ぶかもしれません。
私の例では、その最適系列はこうです。MCP経由でBloombergに問い合わせる。次に、ある種の将来パラメータ、金融パラメータの将来展開を見積もるために Monte Carlo の Python スクリプトを走らせる。そして最後に、その結果を Markdown テーブルとして整形する。
しかしよく考えてみると、このAIシステムはそれを実行できます。なぜなら、ここまでお見せしたように、人間を20次元以上で理解し、同時にその完了すべき仕事を正確に理解し、必要なツールをすべて含んだワークフローグラフ表現を構築できるからです。しかも、その背後にあるリスクも理解したうえで、フローの変更まで組み込めるのです。
そうなると、このAIは、ほとんど職業人間の人生全体を模倣し始めていると言ってもいいでしょう。
コンサル企業はいらなくなるのではないか
そして、ここで私は本当にこの話を締めくくりたいのですが、ひとつ考えがよぎりました。
もしかすると、Big Four のコンサルティング会社はいらなくなるのではないでしょうか。
というのも、このStem Agentの単純な方法論によって、このAIシステムはそれを自力で学べるからです。もはや、何百人もの職業人を観察するためにコンサル企業が必要なくなるのです。人間の職業人の横や後ろにコンサルタントが立って、産業部門全体にわたるワークフローを理解し、何を正確にすべきかを分析する必要がなくなるかもしれません。
AIシステムは、それを自律的に学習できるのです。
まとめ
少しでも新しい情報をお届けできていたらうれしいです。異なるものをどう組み合わせるか、特に幹細胞からStem Agent複雑系システムへのつながりについて、新しい発想を持っていただけたならと思います。
そして、もしかすると次の動画にも興味を持っていただけるかもしれません。


コメント