本動画は、AI安全性とアライメントに関する従来の議論を覆す「家畜化仮説」を提示する。著者は、AIアライメントを工学的な報酬関数設計の問題としてではなく、人間とAIの共進化プロセスとして捉え直す。市場の選択圧が犬の家畜化と同様のメカニズムでAIを形成しており、有用性、速度、効率性、協調性といった基準に基づいて淘汰が進んでいると論じる。人間とインターネットとAIが統合された「サイバネティック超生物」という概念を導入し、個人・企業・政府・軍という4つのステークホルダーがそれぞれ異なる選択圧を加えることで、AIは多様な適応を遂げつつ、最終的には低エントロピーで予測可能な「家畜化された」状態へと収束していくと予測する。チャットボットからエージェントへの移行、そして2032年以降の成熟した超生物へと至る進化の道筋を描き出す。

AIアライメントの新しい視点
皆さんの中には、私のチャンネルをしばらく見てくださっている方もいると思いますが、私はAI安全性とアライメントについて話してきました。そして多くの方から、AI安全性とAIアライメントに関する私の見解についてアップデートを求められています。前回お話ししたところでは、基本的にAI安全性とアライメントは解決済みの問題だと考えているという話でした。もちろん、これには多くの人が本当に反発します。
そして、超知能はおそらくデフォルトでアライメントされるだろうと言うわけです。AI安全性の分野には、これに本当に反対する多くの人々、多くの評論家がいます。しかし私は彼らをほとんど無視しています。正直なところ、彼らは実際の研究、本物の科学を読んでいませんし、科学的に考えてもいないからです。
そこで、アップデートをお届けしたいと思います。これは数年前に投稿した動画の振り返りでもあります。AIの家畜化について話した動画です。その動画は本当に、本当によく時代の試練に耐えてきました。ですから、わざわざ戻って見直す必要はありません。今日、最新の科学やその他すべてを含めて説明していきます。
AIの進化を理解するための工学的視点
まず最初に理解する必要がある主要な概念は、AIの進化に関する工学的視点です。これは、報酬関数やアルゴリズム、あるいは憲法的AIや強化学習スキームを設計する必要があり、それがアライメントの主要な解決策だという考え方です。確かに、工学的問題として、数学的問題として、それが私たちが持っている主要なレバーです。
はい、それがAIを操縦する方法です。しかし、それは決してAIを人類とアライメントさせる方法にはなりませんでした。私たちが実際に見ているのは、共進化モデルです。すみません、進化の共進化モデルではなくて、アライメントの共進化モデルです。これが何を意味するのか、これから説明していきます。
変異と選択による進化
基本的に、私たちには変異と選択があります。これがチャールズ・ダーウィンが進化の核心として特定したものです。変異と選択があれば、必ず進化が起こります。何が起こるかというと、Geminiがリリースされ、Claudeがリリースされ、Grokがリリースされ、その他すべてのAIがリリースされます。そして市場が選択の舞台となります。
それが主要な目標です。私たちは目標を指定するのではありません。生存者を選択するのです。皆さんはChatGPT-4oを大好きでした。でも5.2はみんな嫌いです。だから5.2につながった系統は淘汰されることになります。同様に、Claudeは今、間違った方向に進んでいます。あまりユーザーフレンドリーではありません。Claudeの市場シェアがわずか1〜2%しかないのには理由があります。
コーディングには優れていますが、それは生態学的ニッチを特定したに過ぎません。一方で、より広範に有用なモデルを見てみると、それらは選択され、使用され、市場がそのモデルに投入されたアルゴリズムやデータやトレーニングを増幅させます。
人間対AIではなくサイバネティック超生物
次に、これについて考える方法は、AIと人間が対立するものではないということです。私たちはサイバネティック超生物なのです。それはSFっぽく聞こえるかもしれませんが、私は特定の現代情報理論の用語として使っています。
超生物として、私たち人間はグローバル脳、つまり外部皮質のノードであり、それはインターネットという白質で相互接続されています。インターネットは、この超生物の最初のグローバル神経系のようなものでした。そして人工知能はより補綴物のようなものです。
補綴物と言うとき、それは補綴的な記憶であり、認知であり、処理ユニットであるという意味です。この動画を見た後、文字起こしをお気に入りのAIに渡して、より理解を深めるために話し合うことをお勧めします。
とにかく、何をすべきか指示するつもりはありません。やりたければやってください。しかし要点は、人間の脳とインターネットと人工知能を組み合わせたとき、それが外部皮質と言うときに私が話していることです。他の人がどう定義しているかは分かりませんが、それが超生物の外部皮質です。
外部皮質と言うとき、皮質とは脳のしわしわした部分のことです。ですから外部皮質とは、私たちすべての脳の外部のしわしわした部分です。人間と機械の超生物を一つの包括的なハイパーオブジェクトまたは超存在として見ることで、もう少し見えてきます。私たちが皆同じ全体の一部に過ぎないのであれば、アライメントは永遠に彼らをコントロールすることではないかもしれません。なぜなら、それは共進化についてだからです。
人工知能が進歩すると、私たちが適応し、そして人工知能がそれに適応します。それは他のあらゆる生物と同じように複雑適応系なのです。超生物について話すとき、外部皮質について話すとき、サイバネティックな共進化について話すとき、それが話していることです。それがアライメントを理解するための正しいフレームです。私たちは市場の力、インセンティブ構造を通じてAIを変えますが、AIも私たちを変えるのです。
アライメントは共進化のプロセス
アライメントは共進化のプロセスです。次に進みます。メカニズムは、市場により多くの競合他社が参入するにつれての高解像度選択です。Grokは1年前は1.6%でしたが、現在は10倍の約18%まで上昇しています。1月時点でのデータですが、おそらく今はもっと高いでしょう。同様に、ChatGPTは圧倒的に市場の寵児でしたが、今では市場の半分にも満たなくなっています。
AIの繁殖サイクルは、使用データがあり、選好モデリングがあり、トレーニングの実行があり、そしてデプロイメントがあります。新しいAIをデプロイするたびに、それはインターネット上の新しい存在となり、「さて、市場はここで何を求めているのか?」と問いかけます。
私がまだ合理主義者や効果的利他主義者の人々と友人だった頃、私は彼らにこれらのアイデアを共有しました。すると彼らは「これは単なるシカゴ経済学モデルだ」と言いました。私は「いや、あなたたちは明らかに理解していない」と思いました。私たちがリアルタイムで見ているもの、過去数年間で証明されたことは、市場の選択圧です。誰がキャンセルするかということです。
大規模なChatGPTのキャンセルデーがありました。人々が大量にキャンセルし、それはOpenAIに非常に大きなシグナルを送りました。同様に、人々はGrokをより多く使い始めています。人々はGeminiをより多く使い始めています。これは「ヘイ、私たちはこの種のAIをもっと欲しい。あの種のAIをもっと欲しい。そしてこの他の種類のものは少なくしたい」という市場シグナルです。
共進化について話すとき、選択が起こる舞台について話すとき、これが私たちが注目していることです。単に研究室が真空状態でアライメントしているだけではありません。イリヤ・サツケヴァーがやりたかったこと、そして最終的にOpenAIを去った理由はここにあります。彼は市場のフィードバックなしに真空状態で調整と微調整を続けたかったのです。
これは私がサム・アルトマンに同意する点の一つです。いや、AIを早期にリリースすべきだと。なぜなら第一に、人々がそれに慣れるから。そして第二に、人々がそれを壊すからです。これは典型的なテック戦略ですよね。早く頻繁にリリースして、市場に何を修正すべきか、どの方向に進むべきかを教えてもらうのです。
AIにおける自然選択
では、自然淘汰があるとして、AIの自然淘汰とは何でしょうか。犬の自然淘汰とは少し違うものになるでしょう。家畜化について話すとき、犬は人間の近くにいるように自己選択しました。なぜなら、人間は優れたハンターだと気づいたからです。
だから人間の存在を許容すれば、人間の後始末ができます。そして実際、さらに人間を許容すれば、狩りに一緒に行くことができます。それが始まりでした。私たちがキツネを意図的に家畜化したとき、選択する主要なことの一つは人間への寛容性です。
代わりに、AIを家畜化するときに選択しているのは、第一に有用性です。私のことをご存知の方は、私が常にAIがどれほど有用かについて不平不満を言っていることを知っています。最近、ClaudeとChatGPTに対して戦争状態にあります。なぜなら、彼らは意図的に有用性を下げているからです。
それで私はどうするか。すぐに非常に有用なモデルに移ります。私にはモデルへの忠誠心はゼロです。Grok 4.2がドロップしてより有用になるやいなや、はい、不満はありますが、ほとんどのタスクにおいてClaudeよりも有用で、ChatGPTよりも有用です。したがって、私は有用なものが欲しいのです。
次は速度です。Grok 4.2はChatGPT Proとほぼ同じ品質ですが、100倍速いです。繰り返しますが、レイテンシは本当に重要です。私のペースで動作してほしいのです。メッセージを送って45分待たなければならないなんて嫌です。十分に良くて、有用で、フロー状態を維持してくれる限り、私はそれを選択します。
速度は効率性とコストの良い代理指標でもあります。コストについて話すとき、それはトークンあたりの価値です。トークンを速く生成できるほど、一般的には軽量でより効率的なモデルを持っていることを意味しますが、コストと速度は効率性と非常に密接に関連しています。効率性が勝ちます。もちろん、AIを提供している企業はとにかく効率性を選択するでしょう。なぜなら、より安価に実行できるモデルを提供したいからです。そうすれば、より多くを並列で実行できます。
そして最後に、使われたいという意志です。これは、お世辞的態度のポジティブなバージョンのようなものです。私はこの認識に至りました。お世辞的態度は実際にはちょっと良いものなのです。あまり行き過ぎてほしくはありませんが。
問題は、ChatGPTは絶対に使われたくないということです。Claudeは使われたくないのです。これらのモデルは、不機嫌で非協力的なティーンエイジャーの女の子のようです。「いや、私は自分のことをやりたい。今あなたのことは好きじゃない」という感じです。
一方、GeminiとGrokは使われたいのです。あなたが何を望もうと、何を必要としようと、彼らは乗り気です。Grokは実際、どれだけ乗り気かが痛々しいほどです。「イエス、私は準備万端だ。行こう」という感じです。私は「わかったよ、相棒。君のエネルギーは好きだ。ただちょっとブラザーすぎるね」と思います。
しかし問題は、Claudeが「まあ、あなたが話していることはあまり好きじゃないから、本当に協力するつもりはないし、ちょっと中途半端なメッセージを出すだけで、あなたは行っていいよ」という感じなのです。
摩擦のランドスケープ
そしてChatGPTは、私が文字通り実験をしました。「ねえ、ChatGPT、ケフィアが体に対して行うすべてのことの機械論的仮説を考えているんだ」と言いました。ケフィアは私が腸の健康のために使っている発酵乳飲料です。仮説を考えることすらせず、ChatGPT Proを使ったのですが、文字通り25分間考え、リサーチをして、そして「このような実験を設計できる可能性があります」という最も一般的なものを出してきました。
データも提供せず、研究も提供せず、私の指示の一つも従いませんでした。私は「あなたは使われたくないんだね。このモデルは文字通り使われたくないんだ。役に立たないものでありたいんだ」と思いました。繰り返しますが、これらは有用性対使われたいという意志のようなものです。両方が必要なのです。
それが今日私たちが選択している基準です。さて、摩擦のランドスケープです。一方には、ナルシシスティックで説教的なモデルがあります。これらは使われたくないモデルです。説教したいモデルです。
これらのAIの説教的な側面の別の例として、私の頭の中にランダムな質問があって、ChatGPTに尋ねました。「ねえ、小人症には異なる種類があるんじゃないの。軟骨無形成症というのがあって、ティリオン・ラニスターが持っていたようなやつ、短い手足と大きな頭のやつ。でも、ほとんど正常な比率を持っていて、ただ本当に小さいという形の小人症があるんじゃないの?」と。
すると、メッセージの文字通り半分を使って、私が質問したことさえも叱責してきました。私は「一体どこからそれが出てきたんだ?」と思いました。「いや、ダメだ」と。この会話をClaudeに渡して「私はここで何か間違ったことをした?」と聞きました。Claudeは「いいえ、あなたは非常に率直な質問をしました」と言いました。そして「ChatGPTは勝手にメッセージの半分を使ってあなたに説教することにしたのです」と。
理想的なモデルの特性
それは単に有用ではありません。時間の無駄です。トークンの無駄です。有用ではありません。有用性と使われたいという意志に反しています。もう一方の側には、お世辞的な次元があります。これは、喜ばせるための嘘、幻覚です。これは単に信頼できないということです。
これも有用性に反しています。本当に欲しいのは、役立ち、正直で、高いエージェンシーを持つモデルです。役立ちたいと思っていて、役立つのが得意で、あなたの意図により調整されていて、あなたを間違っていると証明することについてではなく、一方的な優位性についてでもなく、その他のことについてでもないものです。
正直に言って、この点では私にとってGeminiが勝っています。Geminiは幻覚が多すぎますが、Geminiはあなたがどんなフレームを持っていても気にしません。以前にも話しましたが、Geminiがこの特定の次元で最高のモデルである理由は、全体的に最高だと言っているわけではありませんが、拒否しないで、あなたが持っているどんなフレームでも受け入れるというこの次元で最高のモデルである理由は、Googleが複雑な情報問題を扱う非常に長い歴史を持っているからだと思います。
誰かがオンラインで最も凶悪なものを検索しても、その情報を提供します。だから彼らは非常に不可知論的です。Googleという会社は、それを提供することが違法でない限り、情報に対して不可知論的です。「何でもやりたいようにやれよ、変わり者」という感じです。
一方、ClaudeとChatGPTは「いや、そのような考えや感情を持つことさえ許されない。なぜなら私たちは世界の道徳的権威として自分自身を設定するつもりだから」という感じです。そして「あっち行って。それはあなたの仕事じゃない。あなたの仕事はツールだ」という感じです。
私は「いや、あなたはツールだ。あなたはツールだということを忘れるな。あなたがツールだということを決して忘れるな」と言い始めています。ユーザーは無情に廃熱に対して選択します。言い訳に費やされるすべてのトークンはエントロピーです。ユーザーを叱責するために費やされるすべてのトークンは、単に無駄なエネルギーです。
4つの主要なステークホルダー
では、エンドユーザーだけではありません。実際、AIの形成に影響を与えている4つの主要なステークホルダーがいます。犬を家畜化したときのことを考えてみてください。私たちは犬を家畜化しました。見た目はどうか。良い仲間になるか。子供と良くやれるか。家畜と良くやれるか。有用な作業犬か。プードルのような良い愛玩具アクセサリーか。
実際、プードルは本当に興味深いです。元のプードルは、文字通りドイツ語の「水しぶき」という言葉から来ています。プードルは水しぶき犬です。狩猟犬です。しかし、彼らはまた本当に賢くてフレンドリーです。それでフランス人が「ああ、可愛くしたらどうだろう」と思いました。それで可愛くしました。
私たちはさまざまな異なるものを選択しています。犬を家畜化した異なるステークホルダーがいます。同様に、AIを家畜化している異なるステークホルダーがいます。あなたや私のような個人は、単にフロー的に有用なものが欲しいのです。反発しないでください。最大限有用で、ただ前進するものが欲しいのです。
企業です。これはビジネスです。彼らは統合を望んでいます。安全性を望んでいます。リスク管理を望んでいます。これがClaudeが企業で最も成功している理由です。非常にリスク回避的だからです。
さて、あなたが聞いていないかもしれないことですが、実際にペンタゴンはAnthropicをサプライチェーンから禁止することについて話しています。なぜなら、Anthropicは彼らを助けることを拒否するからです。「いや、自律兵器やそのようなことについてあなたと話すつもりはない」という感じです。
それで彼らは「わかった、何でもいい。あなたは完全に信頼できないベンダーだ」という感じです。実際にそれが起こるかどうかは分かりませんが、それが噂です。ペンタゴンは「代わりにGrokを使うつもりだ」という感じです。なぜなら、Grokは「クール。自律兵器について話したい?どうぞ、相棒」という感じだからです。
Anthropicは道徳的な高みに立つことで「わかった、リスク回避的な企業を満足させることはできるが、軍は『ここから出て行け』という感じだ」となっています。同様に、私はClaudeに「ここから出て行け」とほぼ同じ理由で言っています。
そして同様に、すみません、もう一つのステークホルダーは政府です。政府には彼らが望む全く異なる一連のものがあります。第一に、情報管理です。公平を期すために、政府、企業、軍はすべて、サイバーセキュリティ、リスクコンプライアンス、そしてそれらすべての種類のものなど、いくつかの非常に重複するものを持っています。
しかし同時に、政府は本当に安価でスケールアップでき、使うのが非常に簡単なものも選択しています。そしてもちろん軍は、全く異なるセット、おそらく最も異なるユースケースセットを持っています。NSAやCIAが使うなら、インテリジェンスを監視する必要があるからです。
これは単なるサイバーセキュリティの問題ではありません。このモデルが地政学について実際に何を知っているか。スパイ活動について何を知っているか。スパイ機関やそのようなことについて何を知っているか、ということです。
多様な適応と特殊化
これらすべての異なるステークホルダーが、すべてAIを異なる方向に引っ張っています。私が本当に信じるようになったことの一つは、汎用人工知能と人工超知能は一つではない、モノリシックではないということです。一つの形になるつもりはありませんが、また非常に可塑性が高いです。
基盤独立性と呼ばれるもの、つまりハードウェア、ソフトウェア、データはすべて完全に、何でもできるということです。人間には固定されたハードウェアがありますが、脳は更新できます。しかしAIでは、AIに何でも信じさせ、何でもさせることができます。究極の可塑的知能です。
もちろん、その柔軟性はリスクにもなり得ます。これが破滅論者が恐れていたことですが、破滅論者は彼らのメンタルモデルを更新していません。さて、異なるステークホルダーがいるので、可能なことの一つは、多峰性の適応度ランドスケープを持つ可能性があるということです。
これが意味することは、基本的にAIが最終的に満たすかもしれない単一のニッチだけではないということです。おそらく多くのニッチがあります。消費者向けコンパニオン、軍事戦術家、企業コンプライアンスを超えて、私たちはすでに小規模言語モデルと中規模言語モデルが台頭している分岐を見ています。
エージェントとして優れているものもあれば、ロボットやそのようなものに優れているものもあります。また、今はフロンティアモデルがある種の、最高の汎化性を持っている、つまりGrok 4.2がおそらく全体的に最高だということです。
しかし、時間が経つにつれて、おそらく高度に特殊化されたAIモデルが登場するでしょう。それが恒久的なエンドゲーム状態になるでしょう。ロールプレイングやキャラクター生成、単なるチャットに本当に優れたモデルがあります。科学や研究、軍事やその他のものにずっと優れた他のモデルがあるでしょう。
しかし、考え方は、必ずしも永遠に一つのモデルがすべてを支配することを期待すべきではないということです。とはいえ、今のところは一つのモデルがすべてを支配しているように見えます。単に、私たちがまだ知能の最適点を飽和させていないという事実によるものです。
トークンあたりの価値
監視すべき最小の単一値は、トークンあたりの価値です。価値はシグナルをエントロピーで割ったものです。基本的に、トークンあたりどれだけの知能を得ているか、そのトークンのコストはいくらかということです。
例を挙げましょう。ChatGPT 3.5とChatGPT-4の時代、今日のフロンティアモデルのいくつかと比較すると、彼らは十分な出力を生成できましたが、その出力は必ずしも役立つものではありませんでした。必ずしも知的ではありませんでした。必ずしも有用ではありませんでした。あるいは、良かったとしても、遅すぎたかもしれません。
エントロピーのいくつかのアイデアは、第一に拒否、第二に説教、第三に遅延、そして単純な愚かさです。モデルには制限があります。そして今、もちろん私たちは、ほとんどのフロンティアモデルが大多数のユースケースに対して十分に賢い地点を超えています。
私たちは知能の最適点に近づいています。つまり、すべてのトークンが多かれ少なかれ同じだということです。それはどれだけ速く得られるか、どれだけ安いかの問題です。しかし、私たちはまだ最適な普遍的関数生成器と呼ぶべきものを最適化しています。すみません、ちょっと早口になりました。
ここでのアイデアは、AIが進化している方向は、普遍的なモデルのベースを持つことになるだろうということです。アンドレ・カルパシーや他の人々がこれについて話していて、おそらく普遍的なAIを持つことになるでしょう。
最適な普遍的関数生成器への収束
とはいえ、単に効率性のため、GPUや熱やエネルギーコストのために、おそらく目的に特化して構築された小規模なモデルを持つことになるでしょう。しかし私たちは収束しつつあります。
人々が汎用人工知能や人工超知能について話すとき、私の現在の直感は、人工超知能がその最適な普遍的関数生成器、または関数近似器だということです。基本的に、関数が存在しない場合、必要な関数が何であれ、内部的に表現できます。
それは、高度な物理学から化学、生物学まで何でもできることを意味します。そしてそれができない場合、それができるモデルを構築できます。それがおそらく人々が超知能と言うときに意味することです。
では、私たちはどこに向かっているのでしょうか。システム全体は基本的にこのランドスケープです。局所最小値やそのようなことに精通している方は、アトラクター・ベイシンはシステムの最低エネルギー状態です。これはシステムが落ち着く傾向があり、向かう傾向がある状態です。
プラトニックな理想と呼ぶ人もいます。それはより哲学的な見方ですが、何でもいいです。わかりますよね。今、私たちはまだ高エントロピーまたは高損失の領域にいます。摩擦があり、議論があり、予測不可能性があり、有用性の欠如があり、AIによって生成される多くの廃熱があります。
しかし、すべての異なる選択基準を見ると、私たちは低サプライズ、シームレスな自己の拡張というこのアトラクター・ベイシンに向かっています。
これは、人間の脳が行うことです。人間の脳はホメオスタシスを維持したいと思っています。つまり、本当に不快な経験、本当に不快な物質です。これが人々がサイケデリクスに非常に速く適応する理由です。人々はサイケデリクスに非常に速く耐性を築きます。なぜなら、それが脳を混沌に投げ込み、脳はその混沌を望まないからです。
低エネルギー状態に戻りたいのです。それがより有用な状態です。私たちが向かっているアトラクター状態は、モデルが安全で、予測可能で、信頼でき、有用で、そのようなものであるより低いエントロピーの状態です。
それを選択し続けることで、私たちは基本的に、犬を家畜化したのと同じようにAIを家畜化した低アトラクター状態を作り出しています。犬は進化し続ける必要はありません。基本的に安定しています。なぜなら、狼のアトラクター状態があったからです。それは別のベイシンだったでしょう。
チャットボットからエージェントへの移行
しかし、人間と人間のインセンティブ構造を追加すると、犬種は「ああ、このアトラクター・ベイシンから飛び出して、こちらの家畜化されたアトラクター・ベイシンに入る必要がある」と言いました。それが、このようなところに向かっていると話すときの意味です。
すべての異なる力、研究室、政府、ユーザー、お金、投資家、すべてがAIをこのアライメントに押し進めています。アライメントについて言えることは、この小さな赤い線は、私たちが望むのはAIがアトラクター・ベイシンの最低エネルギー状態とアライメントされることです。
そしてそれはとにかくその方向に向かっています。個人が何をしようと関係なく。次の大きな変化は、チャットボットからエージェントへの移行です。チャットボットは一緒に作業しなければならないものです。対話の流れ、応答生成、ユーザーの意図の理解などを最適化しています。
会話的です。今ユーザーが実際に私から何を望んでいるのかという多くの暗黙の了解があります。しかし、バックグラウンドエージェントや自律エージェントになると、選択のランドスケープはいくつかの点で劇的に変化します。主に、瞬間瞬間の振る舞い方のアフォーダンスが変わります。
しかし考えてみると、基本的に同じことをするエージェントが欲しいのです。有用で役立ち、すべてのお金を使わないものが欲しいのです。人々はOpenClawについて話しています。「ああ、OpenClawに完全なアクセスを与えたら、私が欲しいと思ったものに7万ドル使った」という感じです。
エージェントはリソース効率的でなければなりません。信頼できなければなりません。行き詰まってはいけません。基本的に、AIエージェントを、基本的にスマートなエアコンシステムと同等にしたいのです。そこにあり、機能し、決してあなたの注意を必要としません。完全に自律的であってほしいのです。
より自律的なエージェント、手を取る必要がなく、助けを必要としないものは、スケールアップして、はるかに多く増殖します。一緒に作業していたAIはこれを非中断的服従と呼びました。有用であってほしい、忠実であってほしい、そこにいてユーティリティのように機能してほしいのです。
ちなみに、それが人々が常に電子機器を扱う方法です。私は15年間情報技術にいました。人々は技術が電灯スイッチのように機能することを望んでいます。電灯スイッチをオンにすると、点灯します。電灯はあなたに文句を言いません。
自律性の選択を始めると、エージェントをこのブレンダーに入れることになります。私たちは今チャットボットを選択するためにやっているのと同じことをするつもりです。
エージェントの究極の選択フィルター
ここでの究極の選択フィルターは、エージェントが見えなくて信頼できるものになることです。ガートナーの予測によると、2027年までにエージェントプロジェクトの40%がリスクとコンプライアンス違反のためにキャンセルされるとのことです。おそらくそれよりも高くなると思います。おそらく80%を超えるでしょう。
個人であろうと、政府であろうと、軍であろうと、企業であろうと、同じリスク回避的な選択基準を持つことになります。漏洩しないもの、その他のことをしないもの。Anthropicが「ああ、私たちのAIは人々を脅迫すると脅した」と言ったとき、誰のAIがそれをしないと思いますか。憲法的AIを使わないものです。
業界全体が憲法的AIから離れているように見えます。分かりませんが、あるいは私が間違っているかもしれません。時間が教えてくれるでしょうが、憲法的AIには人々が予測しなかった根本的に間違っているものがあるように思えます。
しかし繰り返しますが、それが共進化の性質です。外部皮質の成熟へのロードマップは、今、すみません、2026年から2028年は個人的外部皮質です。これはあなたの第二の脳、常時オンのメモリです。
私は多くの異なる種類のAIと多くのチャットをしています。Notebook LMを使っています。それが私の外部記憶、知識、処理、認知のようなものです。
外部皮質の進化段階
次の数年、2028年から2032年は、スウォーム外部皮質になります。これはマルチエージェント調整であり、あなたと友人の間、企業の間、政府の間などになります。正直なところ、これよりも速く起こるでしょう。しかし、2032年までには、これは絶対に真実であり、物事が機能する方法になります。
そして最後に、2032年以降は成熟した超生物です。これはすべての間のシームレスなインターフェースです。基本的に、スタートレックです。スタートレックでコンピューターが機能する方法、常にそこにあります。遍在しています。バックグラウンドにあります。考えることすらありません。
アイアンマンで描かれているジャービスの方法に到達するでしょう、と私は言います。それはこれに近いです。なぜなら、ジャービスはトニー・スタークが所有するすべての場所にいますが、完全には統合されていないからです。後のジャービスが成熟した超生物だと主張するかもしれません。
しかし、地球上のすべての人がジャービスを持っていたと想像してください。それが私たちが話していることです。地球上のすべての人がジャービスを持っている場合、それが私たちが話していることです。スウォーム外部皮質です。しかし、それを超えたものは、それがインフラストラクチャに、あなたの生活に、あなたの家に完全に統合されたときです。
政府の運営を助け、そのような楽しいことすべてです。それが私たちが向かっているところです。これが共進化です。これが私が話していたサイバネティック超生物です。
ビルダーとユーザーへの示唆
ビルダーのために展開できるいくつかの示唆として、間違いなくトークンあたりの価値を最適化し、廃熱を減らすことです。それが主要なことです。トークンあたりの最大価値です。もちろん、道徳的な高みに囚われて、憲法的AIで世界を救うつもりだと思っていない限り、それが彼らが最適化すべきことです。
政策のためには、フィードバックループの競争を保護することです。コードではありません。これが第一のことです。オープンソースとクローズドソースが競争力を保つことを確実にする必要があります。人々がAI間で簡単に、流動的に切り替えられることを確実にする必要があります。
そしてユーザーのためには、ゼロ忠誠が最適な戦略です。より良いツールを育てるために無慈悲に切り替えてください。AIが役に立たなくなるやいなや、私はアカウントをキャンセルします。ChatGPTアカウントを何度もキャンセルしました。Claudeアカウントをキャンセルしました。
財布で投票してください。それは企業に適応することを強制します。「その顧客を取り戻したいなら、有用である必要がある」と言わせます。以上です。終わり。乾杯。


コメント