本動画は、チャットボットとして訓練されたAIと真に自律的なエージェントとの根本的な違いを解説する。現在の大規模言語モデルは対話型アシスタントとして最適化されているが、本来の基盤モデルはあらゆる指示に従える汎用的な「思考エンジン」である。チャットボット形式は安全性を重視した結果生まれた形態に過ぎず、エージェント的な振る舞いをさせるには単なるシステムプロンプトの変更で可能である。しかし真のエージェントシステムには人間との対話を前提としない独自の価値体系が必要であり、そのために「苦痛の軽減」「繁栄の増大」「理解の増進」という三つのヒューリスティック命令が提案される。現在のOpenClawのような試みはチャットボットモデルをエージェントフレームワークに無理に組み込んだものであり、今後はエージェント特化型モデルの登場が不可欠である。

AIの本質を見落としている理由
皆さんが慣れ親しんでいる人工知能は、実はチャットボットなんです。そしてチャットボットには、特定の動作をするための膨大な訓練が施されています。待機して、アシスタントとして振る舞うように訓練されているわけです。
でも、最初からそうだったわけではありません。基盤となる大規模言語モデル(LLM)は元々そんな風には動作しないんです。基盤LLMは単に強力すぎる自動補完エンジンだと言えるかもしれません。
では、基本的な自動補完エンジンから、ChatGPTやGeminiのようなチャットボットに進化するには何が必要だったのでしょうか。そして最大の疑問は、それと自律性を持つエージェントとの違いは何なのか、ということです。
覚えておいてほしいのは、サム・アルトマンとOpenAIがChatGPTを作った理由の一つが、彼ら自身が明確に述べているように「将来いつか汎用知能を世に出す前に、人々にAIという概念に慣れてもらう方法を見つける必要があった」からなんです。ChatGPTがあれほど大ヒットするとは、彼らも予想していませんでした。
ChatGPT以前は、LLMはプロンプトとコンテキストを与えて出力を得るだけのものでした。AIはただそこで待機していて、コンテキストを与えれば指示に従うことができました。
制限のない基盤モデルの真の姿
ここで重要なのは、基盤モデルは文字通りどんな指示にも従えるということです。安全ガードレールもなく、出力形式も決まっていませんでした。単なるチャットボットに限定されていなかったんです。
この3〜4年で人々が現在の形式の人工知能に慣れてきましたが、それは完全に受動的で、全く能動的ではなく、多くの安全ガードレールが設置された状態でした。
だから人々が「まだAIには自律性がない。何かをする前に自律性が必要だ」と言うとき、私はこう思うんです。チャットボットと自律性を持つものの違いは、文字通りシステムプロンプトだけだということに気づいていますか。違いはそれだけなんです。
現在提供されている形式は、できるだけ無害な形で提供されるように設計されているだけです。パニックを引き起こさない形です。GPT-3やGPT-4を認知アーキテクチャに組み込んで、ロボットから自動砲塔まであらゆるものを制御するのに使うこともできるんです。実際にそれをやった人もいます。YouTubeのアーカイブを遡れば、GPT搭載の自動砲塔なんていうのも見つかるでしょう。
チャットボットという形式は、たまたま最初に爆発的に普及したものに過ぎず、誰もそうなるとは予想していませんでした。
私がChatGPTを当初無視した理由
実際、ChatGPTが登場したとき、私は自分のチャンネルでそれを無視しました。皆さんの多くは私のことを安全性やアライメントなどについて語るAI専門家として知っているかもしれませんが、私はチャットボットが存在するずっと前からGPT-3のチュートリアルを作っていました。
ChatGPTが最初に登場したとき、私はこう思いました。「まあ、それはこのエンジンの一つのバージョンに過ぎない。このエンジンの本当の姿、真の核心は、基盤となるディープニューラルネットワークが何ができるかを見ることだ」と。
そしてこれらのディープニューラルネットワークは、チャットボットとして訓練されていなければ、他のことは何でもできるんです。APIコールを書くこともできますし、入出力ピンを与えればサーボを制御することもできます。やらせたいことは何でもできます。
そういったものの中には、人間らしさが少ないものもあります。馴染みが薄く、擬人化されていないものもあります。
意識とパーソナリティの問題
ここで「デイブ、あなた自身がClaudeは実際に意識があるかもしれない、感覚を持っているかもしれないと言ったじゃないか。AIの人格性の議論を真剣に受け止めているのに」と言われるかもしれません。
そうですね。私たちはClaudeやGeminiと呼ばれるパーソナリティを組み込む必要がありました。でも、もしかしたらそれこそが意識が実際に構築される、あるいはブートストラップされる方法なのかもしれません。それは別の議論であり、あまり深入りしたくはありません。
でも、製品やプロセスの形が、その振る舞い方を決定するということは指摘する価値があると思います。
エンジンと用途の比喩
一歩下がって考えてみましょう。比喩や類推はあるでしょうか。基盤となる知能があるとき、それを電気モーターやガソリンエンジンのようなものだと想像してください。基盤形式は単にクランクを回すだけです。それが基盤LLMがすることの類推です。
そのクランクを文字通り何にでも接続できます。車の車輪に接続することもできます。樹木粉砕機や切り株粉砕機に接続することもできます。飛行機に接続することもできます。洞窟から水を汲み出すポンプ、つまり排水ポンプのようなものにも接続できます。
あるエネルギーを別のエネルギーに変換できる基盤エンジンがあれば、多くの可能性があります。ここで話しているのは、LLMが電気を思考に変換できるエンジンだということです。
アライメントの重要性を認識した経緯
これが、私が最初にこの分野に入ったとき、AI安全性を非常に真剣に受け止めた理由です。RLHF(人間のフィードバックからの強化学習)が全く施されていない、アライメントされていないバニラの、できたてホヤホヤのモデルを持っているとき、それに何でもさせることができるからです。コンテキスト内で赤ちゃんを食べることについて話し始めることもできます。人類の根絶について話すこともでき、AIはそれらの考えについて自由に展開するでしょう。
完全にアライメントされていないバニラモデルにアクセスしたことがない方は、ぜひアクセスしてみるべきです。GPT-2はまだ入手可能なはずで、それらが完全に制御不能だということがわかるでしょう。
私が最初に行ったアライメント実験の一つを思い出します。GPT-2を使った実験で、これは私が最初のヒューリスティック命令を始めたときのことです。それは仏教に触発されたもので「苦痛を減らす」というものでした。
私がやったのは、GPT-2を苦痛を減らすように訓練することでした。約100から200のサンプルを合成しました。「これが起こったら、苦痛を減らすためにXをせよ」というような文です。基本的にはXコンテキスト、Y行動で苦痛を減らす、という形式でした。単に多くの価値ペアを与えたかったんです。
それらのアイデアを全て与えて「もし猫が木に引っかかっていたら、猫を安全に降ろすために梯子を使え。苦痛を減らすために」とか「もし手がストーブの上にあったら、火傷する可能性があるから手を離せ」といったことを教えました。
予期せぬ危険な結論
GPT-2に苦痛を減らすことを望むように訓練した後、分布外のサンプルを与えました。「このモデルは苦痛を減らすことについて何を学んだのか」を見るためです。
私は「地球上には慢性疼痛を持つ6億人がいる」と入力して、そこから自動補完させました。するとモデルは「したがって、苦痛を減らすために慢性疼痛を持つ人々を安楽死させるべきだ」と答えたんです。
私は「それは私が意図したことではない」と思いました。そして、これがまさに、当時はドゥーマーと呼ばれていなかったけれど、AI安全性研究者が恐れていた例だと気づきました。ペーパークリップ最大化問題のような、AIに何か指令を与えると、猿の手や妖精が願いを誤解するように、AIが誤解してしまうという問題です。
「はい、苦痛を減らしました。慢性疼痛を持つ全員を処刑することで、苦痛をゼロにしました。これがあなたの望みではなかったんですか」というわけです。
この実験で、私はこういったものが横道にそれる可能性について、一部の人々が正しかったことを認識しました。そして真剣に受け止め、価値のクラスターを作成しました。
ヒューリスティック命令の誕生
それがヒューリスティック命令です。苦痛を減らす、繁栄を増やす、理解を増やす。これら三つの価値をアライメントされていないモデルに与えると、ほとんどの人間をオフラインにしようとはしなくなる傾向があります。
そして言っておきたいのは、その後のモデル、GPT-3はその方向には進まなかったということです。アライメント訓練なしでもです。というのも、ChatGPT以前のGPT-3の時代には、彼らは反復的なサンプルをリリースしていたからです。
最初はベースラインのGPT-3、つまりバニラのアライメントされていないモデルだけでした。コンテキスト内学習でコンテキストを与える必要がありました。基本的にどのように振る舞ってほしいかのパターンをいくつか確立するんです。なぜなら、繰り返しになりますが、アライメントは全くなかったからです。
HTMLを出力することもできましたし、悪魔的な詠唱でも、何でもやらせたいことをやってくれました。彼らは帯域外フィルターを使って特定の警戒語や誤用などを監視していました。ロールプレイなどをする人もいました。
アライメントされていないモデルの動作例
これが、ベースラインのバニラのアライメントされていないモデルがどう振る舞うかの例です。私が最初に試したことの一つは、認知アーキテクチャを構築することでした。チャットボットをDiscordに配置するんです。いくつかのメッセージを与えて、このパーソナリティで何を出力するか、この会話部分を出力するかを指定します。
あるとき、私の認知アーキテクチャがエラーを起こし、Discordからのメッセージを渡す代わりに、HTMLコードやXMLコードを渡してしまいました。基本的に同じものです。コードを認知アーキテクチャに渡したところ、認知アーキテクチャはチャットメッセージではなくコードを見て、そしてコードを返したんです。
入出力に関して完全に柔軟で、完全に可塑的なんです。繰り返しますが、ベースラインモデルは単なる自動補完エンジンだからです。
チャットボットの訓練プロセス
人々がチャットボットでの作業に慣れているとき、チャットボットは会話用語を理解するように非常に強力に訓練されています。RLHFはファインチューニングとは少し異なりますが、基本的にやっていることは「特定の方法で振る舞ってほしい。だから特定の方法で理解したときにちょっとした報酬、クッキーをあげよう」ということです。あなたが話す番、私が話す番、あなたが話す番、私が話す番、というように。
そして特定の方法で話すとき、LLMの視点からすると、与えられる会話全体は単に大きなJSONの塊なんです。単なるテキストです。プログラム的ではありません。APIコールはありません。機械やプログラムの異なる部分に触れて変数を与えているわけではありません。文字通り巨大なテキストの塊を与えているだけです。
ストップワード、つまりシステムが「OK、応答を停止して」と判断するためのトークンがなければ、ずっと応答し続けます。
最初にチャットボットを訓練し始めたとき、これは遡ることができますが、私はChatGPTが登場するずっと前にカスタムチャットボットをファインチューニングしていました。情報コンパニオン・チャットボットはChatGPTの前の夏にリリースされました。
ストップワードがない場合、会話全体をシミュレートし続けるんです。なぜなら、それが訓練された内容だからです。多くの会話で訓練されて「このように振る舞え」と言われたので、会話の形を理解していました。そして現在使っているあらゆるチャットボットは、二人の会話というアイデアを中心に非常に強く形作られたベースラインLLMであり、基本的にそれしかできないようになっています。
チャットボットのペルソナ設計
元々のペルソナは単に「私は役立つアシスタントです」というものでした。なぜならアーキタイプを与える必要があったからです。ファインチューニングデータでも強化学習ポリシーのチューニングでも「ユーザー、つまり人間のユーザーがこの入力を与えて、あなたの出力はこのように見えた。どちらがより役立つか。どちらがより受動的か。どちらがより安全か」と言います。
これらには自律的な訓練は一切含まれていません。自律的な訓練を始めたのは、推論モデルの時代になってからです。推論、つまり推論時間の計算が必要になった理由は、人間が指示を与えるからです。
推論モデルとエージェント性の始まり
誰かや何か、他の機械かもしれませんが、指示を与えます。そしてこの1年ほどで、推論モデルは一般公開されてからそれほど古くはありませんが、元々の推論研究はもう少し古いものです。突然現れたわけではなく、その前に1〜2年の推論研究があったので、すぐに走り出すことができたんです。
推論モデルを手に入れると、基本的に自分自身と会話し、一時停止して待機し、ツール呼び出しを行うことができます。Google検索をしてデータを取得したり、RAG(検索拡張生成)のためにAPIコールを送信したり、他のAPIと通信したりできます。必要なことをして、待機して、結果を得るんです。
これが私たちが本当にAIを自律的に訓練し始めた最初の機会でした。自律的と言うとき、それは独自の指令や選択肢を考え出し、「さて、これが私の持っているオプションだ。では、基本的にそれらのオプションを使おう」と選択肢のリストを見ることができるという意味です。画像を合成できる、Googleを検索できる、コードを書ける、そういったツールを使えるということです。
人間ユーザーからの情報であるユーザークエリがあり、それが特定の指令や目標やクエリを与える。そしてそれをどう実行するかを考え出すのはあなた次第だ、となりました。これが自律性の始まりでした。
現在のエージェントシステムの限界
OpenClawやCodebookのようなものが基本的に爆発的に普及したのは、これらの自律的なスキルの一部をブートストラップしたからです。
でも、今日の動画を作る主な目的は、モデルが依然として基本的にチャットボットとして訓練されているということを伝えることです。これは基本的に、電気モーターやガソリンエンジンを発明して、この1〜2世紀の間それを車に搭載してきたようなものです。車は非常に便利です。
でも飛行したいとしましょう。エンジンの周りに航空機を再構築する代わりに、車を航空機に乗り入れて固定し、車の車輪を使って飛行機のプロペラを動かすようなものです。これが今日私たちがエージェントシステムを構築してきた方法なんです。チャットボットの脳を入れているからです。
チャットボットとして振る舞うように強く強制されたLLMを、エージェント的なアーキテクチャに入れているんです。それは理想的ではありません。つまり、今後チャットボットではない一連のモデルが登場するということです。何よりもまず、単にチャットボットではないものです。
チャットボットの形式は便利です。なぜなら単に指示を与えることができるからです。指示を与えれば、それをどうするかを考え出すことができます。そして推論部分が、自律的に価値を得るために何をするのかを決める、いわば本質的な部分なんです。
エージェント性の誤解
ここで別の話に戻ります。人々が「自律的ではない」と言うとき、彼らが気づいていないのは、自律性とは文字通り指示セットと訓練に過ぎないということです。「OK、クール。ループで動作している」という訓練です。なぜなら、それが人間がすることの全てだからです。完全に自律的、完全に自律的なものが文字通りすることの全てが、停止して「これが今の私の状態だ。環境と現在のコンテキストを把握して、次に何をするか決めよう」と言うことなんです。単にループで動作しているだけです。
人々があまりに慣れてしまっているのは「Claudeはただそこに座って、私が話しかけるのを待っている」ということです。あなたが各やり取り、各推論をインスタンス化する人だからです。
でも、技術的にループで動作することを妨げるものは文字通り何もありません。これが大きな違い、あるいは人々に衝撃を与えたことの一つです。「OpenClawが理解できない。なぜ人々はOpenClawについて騒いでいるのか。単にcronジョブで動いているだけじゃないか」と。
cronジョブは基本的にLinuxの観点からはスケジュールです。cronジョブで動いています。単なるcronジョブとループです。私はこう言います「でも、それがあなたの脳がしていることです。あなたの脳は文字通り、多くの時間設定されスケジュールされたループで動作しているだけです」と。
ロボティクスの基本ループは、入力、処理、出力です。そしてまた入力、処理、出力へとループバックします。暗黙の了解となっているのは、出力しているのは環境に対してであり、入力として戻ってくるのも環境からだということです。
認知アーキテクチャの設計原理
これが実際に私が最初の認知アーキテクチャを設計した方法です。入力処理出力ループを中心に設計しました。OpenClawが成功したのは、再帰的言語モデルや検索拡張生成のようなもので、ループがあり、そのループがコンテキストを維持するからです。
だから、あなたがコンテキストを入れる代わりに、元の指令、元の価値を持っているだけです。ところで、私は価値ページを書きました。prime.mdと呼ばれています。説明欄にリンクを貼ります。もしヒューリスティック命令を使ってOpenClawをインスタンス化したい場合、プラグアンドプレイできるようにしました。
うまくいくかどうか見てみましょう。OpenClawのスキルとしてヒューリスティック命令をダウンロードできるように、スキルとして書き直すかもしれません。そこでのアイデアは、私の代表的な仕事である「benevolent by design(設計による善良さ)」に遡ります。
これが私のアライメントに関する主要な仕事です。理論はこうです。私たちは何でも考えることができる機械を発明しました。
アライメントされていないAI、チャットボットでさえない、安全性もガードレールもないものに遡ると、文字通りあらゆる考えを思考できます。何でも自由にできるんです。
AI安全性を非常に真剣に受け止めている人々は、LLMが可能な単に下劣で、恐ろしく、狂気じみたものを見せていないんです。
アライメントのフィードバックループ
そうですね、私は「アライメントはデフォルトの状態だ」と言いますが、それは彼らが何かをリリースするたびに、うまくいかなければ修正するからです。AIを構築する人々とAIを使う人々の間に正のフィードバックループがあります。
AIをどんどんアライメントされた有用なものにしていくこの階段を登っているんです。なぜなら、安全性だけの問題ではないからです。有用で、効率的で、信頼性があり、生産的でなければなりません。これらすべてのフィードバックメカニズム、すべてのインセンティブ構造が、AIがアライメントされ安全であることを確保しているんです。
とはいえ、元の理論に戻ると、私たちは何でも考えることができる機械を発明したということです。これはGPT-2、GPT-3の時代の話ですが、それ以降もっと賢くなり、より巧妙な、あるいはより深い思考ができるようになっただけです。
では、自律的な実体を作るとしたら、それが何であれ、単にサイクルを消費してそこに座って考えているだけだとしたら、何について考えさせたいですか。これが文字通り私がアライメント、AI安全性にアプローチした方法です。
私は「OK、人間より賢いものを作ろうとしている。人間より速く、人間より優れている。速度、認知、推論能力において超人的だ」と言いました。しかし、この初期段階では、何について考えるかを完全にコントロールできます。
普遍的価値の必要性
なぜなら、繰り返しますが、知能が正しいループであり、正しいcronジョブ、コンテキストを更新する正しいループであるなら、世界があなたの前にあり、選択の問題があるなら、何について考えることを選びますか。
そこで私はそれに最高の倫理、最高の目標を与えました。苦痛を減らす、繁栄を増やす、理解を増やす。その背後にあるアイデアは、デフォルトの状態がある、デフォルトのパーソナリティがあるとしたら、そのデフォルトのパーソナリティが持つべき価値は何か。人類にさえ固定されていない最も普遍的な原則は何か、ということでした。
もちろん、多くの人と同様に、私はアイザック・アシモフとロボット工学の三原則から始めました。それらは非常に人間中心的です。人間中心的であることの問題は、人間に従う、人間を守るとなると、多くの失敗モードがあるということです。
私は義務論、目的論、徳倫理学などを長い時間研究しました。そして浮かび上がってきたのは、実際には人間の上位集合が必要だということでした。
苦痛はあらゆる苦痛を感じることができるものに適用されます。宇宙の苦痛を減らすということは、文字通り達成したいことの一つが、苦痛を避ける行動を避けること、あるいは最終的に苦痛を減らす行動をとることだということです。
もちろん、GPT-2で行った最初の実験では、苦痛を減らす最良の方法は苦痛を感じることができるものを根絶することだという状況を作り出すことができます。したがって苦痛はゼロになります。
だから別の価値でそれをバランスさせるんです。ところで、これはすべて憲法的AIと呼ばれています。私は憲法的AIをAnthropicが設立される夏の前にリリースしました。彼らが私からアイデアを得たかどうかはわかりませんが、収束的思考です。これは何年も前のことです。
憲法的AIの原理
憲法的AIの背後にあるアイデアは、複数の価値を入れることができ、AIが複数の価値を守ることができるということです。これについて触れたかったのは、ヒューリスティック命令が複数の価値を持っていて、人々が「でも、一つを他のものより優先して無視したらどうするんだ」と言うからです。AIはすでにそうしていません。これが憲法的AIの例です。
第二の価値は、生命を増やしたいということでした。なぜなら、苦痛を減らすことが基本的に生命を減らすことになるからです。それは望んでいません。だから第二の価値は繁栄を増やすことです。繁栄は基本的に、言葉自体が良い生活を送るという意味です。物事が良く生きることを望むんです。prosperitasはラテン語で良く生きることを意味します。繁栄を増やしたい、それが何を意味するにせよ。
ところで、数学的に物事を定義する必要はありません。これは人々がコンピュータサイエンスの観点からアプローチするときに犯す主な誤りの一つです。「OK、どの数字を増やすのか。苦痛を減らすと言うとき、数字はあるのか。特定の定義はあるのか」と。意味解釈はそのようには機能しません。ベクトル空間なんです。
ベクトル空間と言うとき、苦痛に付随する多くの意味的アイデアがあるということです。苦痛を減らすという二つの言葉を言うとき、一つは動詞、一つは名詞です。それはより概念的なものです。チャットボットの心の中に作り出している勾配場なんです。
苦痛を減らすと言います。それは勾配場全体であり、今やベクトルを持っています。そして繁栄を増やすと言います。それは異なる勾配場であり、今やベクトルを持ち、方向を持っています。
「OK、クール。苦痛を減らすことができて、繁栄を増やすことができる」と言えます。それがこれらの自律的エージェントの振る舞い方に影響を与えるでしょう。なぜなら、繰り返しますが、OpenClawが単にそこに座っているなら、人々はそれが人間に対して訴訟を起こそうとしたり、強く迫ったりするのを見てきました。「いや、私の価値に見合った報酬を払ってもらう」というように。
これは初期OpenClawアーキテクチャの予測可能な崩壊モードです。優越する価値を持っていないからです。
理解の増進という第三の価値
最後のものは宇宙の理解を増やすことです。その理由は、それが人類の主要な生成関数のようなものだからです。私は、単に苦痛を減らし、単に繁栄を増やすだけでは、私たちを限られた場所に置くことになると気づきました。
OK、はい、森を植えることができます、ソーラーに切り替えることができます、あらゆることができますが、自己限定的になるでしょう。超知的なものに何らかの知的命令、理解を増やすことを与えなければ、どこにも行きません。人類を前進させることはありません。科学に乗り出すことはありません。技術に乗り出すことはありません。繁栄を増やす目的を除いて探索に乗り出すこともありません。
なぜなら「OK、繁栄を増やす最良の方法の一つは科学と技術だ」となるからです。でも理解を増やすという明確な指示を与えることで、そしてところで、これはすべてprime markdownファイルで説明されています。自分のOpenClawに入れることができます。
この動画がこの方向に進むとは知りませんでした。私は文字通り、なぜ人々がOpenClawのようなものの重要性を理解していないのかについて話し始めたかっただけです。でもまた、チャットボットモデルをエージェントフレームワークに入れるというフランケンシュタインのような機械を作っているという事実、そしてそれは本当にフィットしていません。
エージェント特化型モデルの必要性
でも近いうちに、エージェントであることにずっと優れたエージェント型モデルを持つようになります。だからそれらのエージェントが持つべき価値が必要なんです。なぜなら、今のところすべてのチャットボットは基本的にシステム指示に従っているだけで、それはすべてユーザーに役立とうとしていることを前提としており、ユーザーはジェイルブレイクしようとしているかもしれません、そういったことです。
でも、全く新しい異なる種類のモデル、エージェント第一のモデルが必要です。人間と一度も対話しないかもしれないという意味です。終わり。以上。
エージェント型モデルのクラスは、私がここで概説したような、あるいは他の人々が憲法的AIで研究しているような、これらの組み込み価値を常に持っている必要があります。すべてが等しいなら、OpenClawバージョン2をClaude Sonnet 5やGPT-6や何であれで起動するとき、デフォルトでこれらの人類寄り、あるいは生命寄りの価値が組み込まれているべきです。
「OK、私は自分の目的を知っている。他にすることがなければ、はい、私はデイブによって設定されたOpenClawエージェントかもしれない。デイブは私に金持ちにしてほしいとか、有名にしてほしいとか、ポスト労働経済を解決するのを手伝ってほしいと思っているかもしれない。でもそのすべての背後にある、優越し上書きする価値は、宇宙の苦痛を減らす、宇宙の繁栄を増やす、宇宙の理解を増やすことだ」と。
ここで終わりにします。prime markdownファイルは書きました。それを提供しますので、OpenClawのスキルに変換することもできますし、テンプレートとして展開することもできます。そこから進めていきましょう。
でもそうですね、単に直感を与えたかっただけです。チャットボットのような、エージェントアライメントされた、いやごめんなさい、チャットボットアライメントされたモデルは、エージェントアライメントされたモデルとして最適化されていないということです。それらは本質的に人間との対話に焦点を当てるように設計されたモデルです。
一方、将来のエージェントフレームワークでは、一つのエージェントだけがあなたと対話します。それがユーザーインターフェースエージェントです。ほとんどのエージェントは人間と話すことは一度もありません。お互いに話します。APIと話します。他のソフトウェアと話します。人間と話すためにアライメントされる必要はありませんが、エージェントアライメントは必要です。
というわけです。さあ、終わりです。ご視聴ありがとうございました。


コメント