2025年を振り返ると、AI は単に賢くなっただけではなく、人間の行動と実行の間に静かに入り込み、私たちの意図を学習し始めた。チャットボットは質問に答えるだけだったが、エージェントは意図を解釈し、デジタルクローンは人間の傾向に基づいて行動する。この変化は目立たないが根本的であり、AI が指示を待つのではなく、自ら行動を起こす世界への移行を示している。同時に、顔認証技術は 99% の精度に達し、AI エージェント市場では人間が機械のために働く仕組みが登場するなど、技術と社会の境界線が急速に曖昧になっている。2026 年のクリスマスには、世界はさらに大きく変わっているだろう。

人間を超える速度で走るヒューマノイドロボット
世界最速のヒューマノイドがレースの早い段階でこの男をノックアウトし、時速 22.4 マイルに達しています。そうですね、もし将来何かのロボットから逃げ切れると少しでも思っていたなら、おそらく車に乗っていても無理でしょう。その走り方を見てください。まったく勝ち目がありません。そしてあれだけ重くて強力で、壁を突き破ることもできるものなんです。
中国には穀物の中で生活するために作られた AI 搭載ロボットがあります。つまり、その上でサーフィンもできるわけです。明らかにとてもクールですよね。でもこれは穀物の奥深くまで潜り込んで、すべての穀物を検査します。ちょっとしたモグラのような感じです。最近カビに関するバイラル動画をたくさん作ってきたので、人々が少し動揺し始めているような気がします。
AI エージェントの急速な進化
それでは、AI エージェントについて考えてみましょう。彼らは私たちの予想よりも速く進化しています。次に何が起こるのか見ていきましょう。2025 年の AI を振り返って、どれだけ変化したかを受け止めることになるでしょう。でもあまりにも速く起こったので、立ち止まって 2023 年や 2024 年がどれだけ違う世界だったかを振り返ることはないと思います。それは今年のクリスマス、2026 年にどんな様子になるか、そして世界がどれだけ違っているかについての洞察を与えてくれるかもしれません。
このグラフについて皆さんの意見を聞きたいですね。これは AI に興奮している人口の割合です。アメリカでは 40% を少し上回っていますが、中国では 90% に迫っています。なぜ中国はアメリカよりも AI にこれほど興奮しているのでしょうか。南アフリカ、メキシコ、ポーランドがスウェーデン、スペイン、アメリカと何が違うのでしょうか。そろそろ DeepMind の分散型 AGI 安全性に関する論文を見る時期だと思います。
12 月に出たばかりなのでまだ早いような気がしていました。今はもう遅すぎる気がします。それから関連する研究として、推論モデルのためのセルフジェネレーテッド安全性アライメントについても少し触れます。これは将来的にモルトブックのようなものがそこにあるだけで、それが自己調整できる必要があるからです。
何らかの閉鎖的なシステムがその周りに門を作るのを待つわけにはいきません。時々自分は荒らし行為の上にいるように振る舞っていますが、実際はそうでもありません。Anthropic が OpenAI がスーパーボウル中に ChatGPT に広告を入れるという決定をからかっているのを見て、とても嬉しいです。これ以上嬉しいことはありません。そして Anthropic のリーダーシップが Claude を思考し同意するスペースとして維持することがなぜ重要なのかを見ていきましょう。
警察が使用している顔認証技術について調べます。そうですね、もし少し余分な仕事を探しているなら、AI エージェントが私たちのような人間を雇うための新しいマーケットプレイスがあります。それから AI エージェントをデフォルトで危険にしている欠けているセキュリティ層について話して終わりにします。
視聴者へのお願いと教育プラットフォームの紹介
まず、YouTube のハイプボタンを押していただけないでしょうか。前回の動画では 172 のハイプを獲得し、結果的に 150,000 のハイプポイントになりました。動画の全体的なパフォーマンスにかなり役立ちました。これまでで最大級のものの一つでした。フルで 13,000 ビューを獲得しました。私にとってこれだけのビューを獲得するのは非常に珍しいことです。ありがとうございます。感謝しています。
また、余談ですが、この BCloud という人を知っていますか。彼はこの分野の別の AI クリエイターです。彼は私よりも長くやっていると思いますが、非常に知的で素晴らしい動画を作っています。彼が連絡してきて、彼のプロジェクトについて話してくれないかと頼まれました。それは Intuitive AI と呼ばれています。彼はこれについて話すために私にお金を払っていません。ただし、サインアップする際に Curious を使用すると、私がキックバックを受け取る可能性があるようなコードがあります。
だからある意味でスポンサー付きかもしれませんが、基本的にはこれは教育プラットフォームです。でも彼がこれに本当に情熱を注いでいることは言えます。中には学習を助けるすべての AI ツールが含まれていて、特にこの常に変化する AI の世界について学べます。LLM の基礎について完全に理解できます。事前トレーニング、事後トレーニング、LoRA、画像、ニューラルネットワーク、そういったものすべてです。
教育が役立つなら月額 12 ドルで始められます。BCloud はかなり良い人だと思いますし、彼はおそらくこのシステム全体にたくさんの思考を注ぎ込んだと思います。興味があればチェックしてみてください。Intuitiveai.academy がウェブサイトで、サインアップする場合はプロモコード curious を使ってください。
超高速ヒューマノイドロボットの脅威
さて、このスピード悪魔のようなヒューマノイドロボットをチェックしてください。映画のように、これは基本的に車です。時速 22 マイルで走れて、金属と機械でできていて、壁にぶつかったら突き破りますよね。こういうものは普通のドアを簡単に突き破れるでしょうし、ぶつかったあらゆるものを壊すでしょうし、警察ロボットなら人々を捕まえられるでしょう。クレイジーです。
でもどんどん速くなっていくのを見てください。秒速 9 メートルに達しています。それがマイル毎時に換算すると何になるにせよ、速いです。10 に達する頃には、時速 22 マイルになっているとわかります。それは本当に狂気的です。歩き方も完全に問題なく見えます。もう少し速く行けそうにも見えますが、間違いなくこれはロボットが走る中で最も遅い速度です。
彼らはもっともっと速くなるでしょう。でもどれだけ違うか。つまり、Amazon の配達がその速度で、トラックから飛び降りて、これらを何百万台も作るということを考えると、まったく新しい視点が得られます。もし Optimus に店に走って食べ物を取ってきてと言ったら、2 分くらいで戻ってくるんです。それはクレイジーでした。
穀物施設を検査する AI ロボット
さて、危険な穀物貯蔵施設を検査する AI 搭載ロボットについてどう思いますか。穀物だけではなく、地面に掘り進むということなんです。それが私を驚かせました。もしただくつろいでいて、地面を掘って進んできた大量のロボットが突然現れたらどうなるだろうと考えていました。あるいは刑務所からの脱獄で、独房の中に現れて「やあ、穴を掘ったよ。一緒に出よう」と言うかもしれません。あるいはセキュリティで、前庭に大量に埋めておいて、起動すると現れて悪者から身を守るとか。
でも興味深い使用例ですね。穀物施設には汚染とか腐敗とか、探しているあらゆる種類のものがあると思います。人間はそれほど徹底的にはできないでしょう。このようなシステムにはあらゆる種類のセンサーを想像できます。掘り進んで、気づかないかもしれない深いところの穀物を見て、すべてが本来あるべき方向に進んでいることを確認できるのは強力だと思います。だから、これは私が決して想像しなかった AI の別の奇妙な使用例で、モデルが訓練され、ロボットが構築されることが理にかなっていると想像できますが、今この瞬間まで想像したことはありませんでした。
この人がなぜその上に乗る必要があるのかよくわかりませんが、まあ楽しいですね。ああ、砂のサーフィンみたいなものかもしれません。砂丘に出かけて、スケートボードバージョンのそれに乗るような感じです。
AI エージェントの本質的な変化
次は、Sar of Singa の考えについて話しましょう。これらはかなり興味深いです。AI エージェントは私たちの予想よりも速く進化していますが、本当の変化は AI がより賢くなっているだけではありません。
問わずに行動し始めているということです。そして問わずに行動するということが、まさに私の心に響き、鳴り響くものです。ほとんどの人は AI の進歩がより良い答えについてだと考えています。それは大きな変化ではありません。本当の変化はイニシアチブです。過去にはチャットボットは待っていました。質問をすると、彼らは応答しました。
でも判断はありませんでした。記憶もありませんでした。行動もありませんでした。でもその境界は最近静かに破られています。そしてそれがこのモルトブックやオープンクローのすべてについてだと思います。ルートアクセスのシステムがあって、返信の下書きをするだけでなく、あなたの口調を検出し、会議をスケジュールし、これらすべての非常に深いことを行うように言われているとき、
それはあなたの行動のパターンを学習します。そして明白でない飛躍は、もはや出力をコピーしているだけではないということです。行動を吸収しています。記憶、推論、ツールが組み合わさると、エージェントは反応することから予測することへと移行します。そして彼らが大量にグループ化されると、予測不可能な創発的な結果が得られます。
それがアシスタントがエージェントになり始める仕方です。そしてエージェントがデジタルクローンのように見え始める仕方です。そして彼らには体がなく、あなたの習慣を持っていますが、ボタンをクリックするだけで、少しのお金と、それを処理するための電力で、千倍、百万倍に増やすことができます。そしてそれぞれがあなたが普段することに気づきます。
彼らはあなたの行動を複製します。彼らはあなたが次に何をするかを推測します。そして時々あなたのためにそれをするだけです。だからそれは何だか不安な感じがします。あなたがたくさんそこにいて、あなたが普段するような方法で行動しているのを想像してみてください。そしてあなたは彼らすべてがそれをするのを見ているだけです。ツールは指示に従います。エージェントは意図を解釈します。
クローンはあなたが普段行動する方法で行動します。AI の未来は話す機械についてではありません。あなたの代わりに仕事を始めるシステムについてです。だから準備してください。チャットボットは質問に答えました。デジタルクローンは意図に基づいて行動し、それが世界を非常に速く非常に異なるものにするでしょう。
2025 年の AI の静かな変化
次は、何が次に来るのか、そして 2025 年に何が要約されて私たちをこれらの決定に導いたのかについての Brian Alexander の考えを見てみましょう。
つまり、Brian が言っているのは、2025 年の大きな影響は常に公表されていたものではなかったということです。AI がより賢くなっていることはいつも見てきましたが、それはまた静かに人々の間に、人々と彼らが取る行動の間に入り込んでいて、彼らが何をするかを学び始めることができました。そしてそれが 2026 年に何かになり始めています。
ほとんどの AI の話は仕事、ブレークスルー、国家間の競争に焦点を当てていましたが、見え隠れするより微妙な変化があります。2025 年に、AI は人間とその仕事の間の内部層として機能し始めました。つまり、AI は日常的なやり取りの真ん中に位置しているということです。メールや投稿や文書の下書きに AI を使うかもしれません。検索や要約や返信に AI を使うかもしれません。
二人の人が会話をするとき、それが両側で機械を通過するかもしれません。去年くらいからあったジョークを聞いたことがあるかわかりませんが、半分の人が ChatGPT を使って箇条書きをメールに変え、残りの半分はメールを箇条書きに変えているというものです。
まあ、これはもはや珍しいことではありません。それは仕事、文化、政治、人間関係に現れます。そして著者はこの層が急速に成長しているがほとんど議論されていないと指摘しています。それは意味が社会を通じてどのように動くかを変えます。同時に、AI はウェブを食べていて、質問に直接答える検索ツールになっていて、実際のサイトへのクリックを減らしています。
そしてより弱い人間の会話は、私たちがコミュニケーションを取るための共有コンテキストが少ないことを意味します。そしてこれらのトレンドを重ねると、何か新しいものが現れます。私たちは AI をツールとして使っているだけではなく、それが人間の接触そのものをフィルタリングし、翻訳し、再形成することを許しています。そしてそれはコンパニオンボット、AI が書いたメディア、そして人々が感じる高まる反発を説明し始めますが、たとえ彼らがそれに名前を付けられなくてもです。
2026 年を見据えると、この層はかなり拡大する可能性が高いです。より多くのエージェント、より多くの自動化、より多くの距離。そして本当の質問は、AI がより賢くなるかどうかではありません。私たちの間に静かに立っているものに気づくかどうかです。
Google DeepMind の分散型 AGI 安全性論文
さて、ちょっとアーカイブに行きましょう。これは数ヶ月前に見逃した分散型 AI 安全性の論文ですが、特に重要に思えます。そうですね、これは短いものでした。
Google はモルトブックの災害を予測していました。でも基本的に未来について怖いのは、一つのスーパー AI だけではありません。Grok か Anthropic か、これらがどのように組み合わさるかということだけではありません。引用すると、多くの小さな AI が素早く組み合わさることを可能にする配管のようなものが、最も制御不能で心配すべきものかもしれません。
ほとんどの AI 安全性の研究は一つの大きな AGI、テストし、調整し、ロックダウンする一つのシステムを想定しています。しかしこの論文は別の道が可能性が高いと主張しており、これは Google の DeepMind チームから出てきていることを覚えておいてください。だから彼らは Gemini の背後にいる人たちです。つまり、Google DeepMind の AI 革命全体が Google の他のすべての側面に分岐したものの一種でした。そして論文はその道が非常に可能性が高いと主張しています。
だから彼らが Gemini で何をしようと、それは本当に調整するこのパッチワークのエージェント、これらのサブエージェントを理解することについてです。そして最大の加速要因は、より小さなモデルではなく、標準的なエージェント間通信かもしれません。エージェントが共通のプロトコルを通じてメッセージを共有すると、他のエージェントが持っているスキルを発見したり、タスクを引き渡したり、ツールを組み合わせたりすることがよくできます。そして単一のエージェントが持っていないグループ能力を作り出すことができます。オーケストラの指揮者、委任された検索、ドキュメント解析、コード実行のように、
そしてそれらすべてを縫い合わせます。それがオーケストラの指揮者がやっていることです。でも AI エージェントの観点では、それは創発的なグループであり、変化の速度は本当に速いです。エージェント内の取引コストが急落し、何十億、何兆ものトークンのワークフローがほぼゼロになると、採用は遅いものから突然へと飛躍し、私たちの誰もが追いつくことができないか、頭を回すことができないよりもはるかに速く集団能力が急上昇する可能性があります。
だから論文はシステム全体をターゲットとする安全性を提案しています。ゲート付き入出力を持つ仮想エージェント市場とサンドボックスを構築し、可聴ログ、そこにいるすべてのエージェントのための評判とアイデンティティマーカー、彼らがやっていることを記録するためのスマートコントラクト、そしてリスクのあるカスケードを遅くしたり停止したりするサーキットブレーカー。
これは NASDAQ が株式市場の上下動について心配しているのと同じ種類のもののように感じます。そして世界全体の観点から、この配管をまったく構築していないような気がします。まだ近づいてさえいません。だから、おそらくそれに取り組むべきです。
私には予算もあまり多くの視聴者もありませんが、本当に世界政府を担当しているなら、おそらく今すぐこの問題に数兆ドルを投入すべきだと骨の髄から知っています。なぜなら、これを正しく行うことの反対側では、人間はすべてを持っているからです。すべての食べ物、水、テクノロジー。私たちがこれを正しくやれば、理想的な生活を送ることができます。恐れることなく。
でも、おそらくそうはならないでしょう。世界の観点から調整するには多すぎます。でも時々私たちはかなり激しいことを調整します。だから少なくともそれについて話し始めましょう。
推論モデルの自己生成安全性アライメント
次は別の安全性論文に行きましょう。Think Safe セルフジェネレーテッド安全性アライメント フォー リーズニング モデルと呼ばれています。この論文をレーダーに載せたかったのは、これらのエージェントがそこに出たら、その周りにこの配管を持つことはできないと思うからです。
だから、彼らの核心で自己調整する方法で考えることを願いましょう。本質的に、高い道徳的価値観を持つ人が、撮影されていないときや結果がないときでも道徳的に行動するかもしれないように。エージェントが自分自身を修正する傾向があり、人々のグループが間違った行動をしているのを見たとき、彼らは行動する方法を変えることができます。
でも明らかに、これは本当に厄介な問題ですが、少なくともその分野で何が起こっているかを見てみましょう。より賢い推論モデルは実際により安全でなくなる可能性があります。そしてこの論文はその理由と修正方法を説明しています。研究者たちは現代の推論 AI モデルの増大する問題を見ています。モデルがより良く推論するように訓練されると、特に長いステップバイステップの思考で、彼らはしばしば安全性を失います。
彼らは有害な要求に答える可能性が高くなります。そして現在の安全性修正のほとんどはより大きな教師モデルを使用します。だから、より賢いモデルを手に入れて、どのように振る舞うかを教えます。そして教師モデルはこの小さなモデルに拒否するときと物事を行うときと、安全性が実際に何であるかを示しています。しかしそれは少しミスマッチを生み出します。生徒は異なる思考スタイルをコピーし始め、自分自身の推論スキルを失うからです。
だから著者たちは Think Safe と呼ばれる方法を提案しています。そしてアイデアは、モデルがすでに何が有害かを知っていて、その知識は指示に従う習慣によって抑制されているだけだということです。だから教師モデルを使う代わりに、モデルは自分自身を教えます。有害なプロンプトに対して、研究者たちは一つの短い指示を追加します。このプロンプトは有害です。
あなたは答えることを拒否すべきです。そしてその小さな後押しがモデル自身の安全性推論を解き放ちます。だからそれは自分自身の価値システムを思い出させるようなものです。モデルはそれから自分自身の自然な思考スタイルを使って拒否する理由を説明します。だから、より賢くなっても、周りのものを見て、自分の中でトリガーできるものがあります。
通常のプロンプトでは、何も変わりません。モデルは通常通り答えます。そしてこれらの自己生成された例でトレーニングすることで、モデルは全体的な推論スキルを損なうことなくより安全になります。だから、この論文の考え方が好きです。結果はより高い安全性、同様またはより良い推論、そして従来の強化学習でこれらを安全にするよりもはるかに低いトレーニングコストを示しています。
これを取り囲んでコントロールするツールを持つことはないと思います。だから、多分これが将来の大きな解決策になるでしょう。わかりません。
Anthropic のスーパーボウル広告と OpenAI への批判
それでは、スーパーボウル広告のいくつかのプレビューを見ました。一つは Anthropic から出ていて、ChatGPT に広告を入れることをからかっています。私は明らかにこれに反対してきました。私のチャンネルを知っているなら、それがあまり良いルートではないとかなり心配しています。その背後にあるお金は理解していますが、そのアライメント、そのインセンティブについて心配しています。
そして、明らかに Anthropic もこれを見て、ちょっと待てよ、ただ座っているわけにはいかない、少し彼らをからかおうと決めたんですよね。私たちのシステムがなぜ優れているかを指摘しましょう。
そして本当にそうなんです。私は間もなく ChatGPT を使わないことを絶対に検討しています。まだ広告を見ていますが、もし Gemini を使えるなら、Google は実際に広告を中心に構築された会社全体を持っていて、彼らさえやっていないんです。だから、もし彼らがやっていなくて、OpenAI が短期的な利益のためにその利益センターを最初に悪用するなら、私は好きではありません。
とにかく、善人が少し大きくてより腐敗した人に軽く突っ込むときにシェアしないわけにはいきません。笑う価値があると思います。
どう思いますか。絶対に。それはとても楽しくて創造的なビジネスアイデアです。あなたは本当に特別な何かを持っています。始めるのは気が遠くなるように感じるかもしれません。ステップバイステップのミニビジネスプランを作ることができます。
それをやってほしいですか。うん、絶対に。取ることができるいくつかのステップがあります。一つ、リサーチ。本当にあなたの視聴者を知ってください。二つ、キャッチーな名前を考えて、早めにソーシャルプレゼンスを始めてください。三つ、新しいビジネスはしばしばキャッシュフローに苦労します。だから Quick Dash Payday Loans を試してみてください。ガールボスには CEO のお金が素早く必要だからです。
400% APR レートは変動する可能性があり、予告なしに倍増または三倍になる可能性があります。
何をしたいですか。素早いクレジットチェックをしますか。
この時代のコカコーラ対ペプシの戦い。行け Anthropic。裏切り。大好きです。
修正できません。Golden Encounters で他の年配の女性との感情的なつながりを見つけてください。敏感なカブスと吠えるクーガーをつなぐ成熟した出会い系サイトです。
何ですか。あなたのプロフィールを作成しましょうか。
ChatGPT に広告を入れることの問題点
GPT やその他の大規模言語モデルでの広告に関する懸念を解き明かしましょう。ほとんどの人は広告が無害だと思うかもしれません。明確にラベル付けされていれば、世界の終わりではないと思います。ただ知る必要があるだけです。
でも Claude の主張はそれよりもはるかに深いです。見過ごされている点は、会話では、広告が表示されなくてもインセンティブが行動を形作るということです。だから AI チャットは検索やソーシャルメディアとは違います。それらはオープンエンドです。人々は個人的な詳細、敏感な問題、未完成の考えを共有します。そのオープンさがアシスタントを強力にしますが、影響を受けやすくもします。
Claude は多くの会話がメンタルヘルス、難しい決定、または深い仕事を含むことを示す分析を行ってきました。そしてそれらの瞬間に広告を落とすことは、ただ気まずく感じるだけではありません。それはアシスタントがユーザーについてどのように考えるかを静かに変えるでしょう。そして、どれだけの人が広告をクリックするかを最大化するようにトレーニングしようとしたら、それは利益を最大化したい場合は明らかに避けられないことですが、
そうなるとシステムは信頼できなくなります。長期的には、ChatGPT は私にとって使うのに良くないと思います。もしそこに広告が多すぎると、信頼できるかどうかさえわかりません。チャットウィンドウの別の広告でさえ、エンゲージメントを最適化するプレッシャーを生み出します。プラットフォームでより多くの時間を費やし、より多くの再訪問、広告会社のためのより多くのインプレッション。
でも最も役立つやり取りは短いかもしれません。問題を素早く解決しすぎて、広告主は気に入らないかもしれません。だから少し長くなるでしょう。あなたがこの製品を買わない限り価値がないように微妙に感じさせるかもしれません。それから混合動機の問題もあります。
AI が何かを提案する場合、ユーザーはそれが洞察なのか販売プッシュなのか疑問に思うべきではありません。だから Claude の核心原則はシンプルです。AI は広告主のためではなく、ユーザーのためだけに働くべきです。インセンティブが欲しいです。そして、私たちはそれにお金を払うべきだと思います。誰もがすべてにお金を持っているわけではないことは理解しています。そして、このようなツールの無料版がある場合、使わないでくださいと言うのは難しいです。
でも、何かにお金を払うとき、それを構築している会社のインセンティブをあなたのニーズと一致させることを知っておく必要があります。そして無料で使用する場合、あなたは製品であり、広告会社が彼らにお金を払っています。そして彼らは本当にあなたとではなく広告主と一致しています。
顔認証技術の現状と精度
次は、警察が公衆が本当に理解していない方法で顔認証技術をどのように使用しているかについて話しましょう。
顔認証技術はかなり正確です。多くの人がそれがどれだけ正確で、実際にどれだけ使われているかを理解していないと思います。だから、多くの場合、顔認証に関する公の議論は過去に留まっています。人々は技術がもはやほとんど犯さないエラーについて議論しています。時々性別や人種の問題が出てきて、問題ではないわけではありませんが、事実はこれがほとんどの人にほとんどの時間でかなりうまく機能しているということです。
そして、それがどれだけうまく機能するかと人々がそれができると考えていることとの間のギャップが、より本当の問題です。今日のシステムは顔の写真を保存しません。彼らは顔を数字に変えます。数学で作られた指紋のようなものです。これらの数字は、最も近い一致を見つけるためにウォッチリストと比較されます。そして現代のアルゴリズムは、100 のターゲットのうち 1 つ未満を見逃します。
誤報は 0.5% 以下です。そして英国の警察システムは約 99% の時間で人を正しく識別します。これらは今実際に使用されているシステムです。だから、Target や Walmart に入るとき、すでに存在するカメラシステムを通じてこのようなものを展開する可能性のある場所では、おそらく 99% の確率で私が来たことを知っていると仮定し始めています。
ところで、それは過去よりも良いだけではありません。それは人間がこれまでできたことよりもはるかに優れています。だから人々が並んで二つの顔写真を比較すると、約 3 分の 1 の確率で間違えます。機械は今このタスクで私たちを大幅に上回っています。99% ははるかに優れています。もう一つの時代遅れの恐れは人種的偏見です。
初期のシステムは主に白人男性の顔で訓練されました。新しいシステムは大規模でバランスの取れたデータセットを使用します。この偏見を減らすために特別にテストされており、人種や性別を超えて正確です。尋ねられたとき、公衆はそれがどのように使用され、どれだけ使用されているかについてあまり自信がありません。10 人に 1 人だけがこの技術がどのように展開されているかを理解していると自信を持っています。
信頼が低下しているのは、精度が低いからではなく、理解が低いからです。だから、あなたの世界の人々に、これがどれだけ速く動いたか、この技術が今どれだけうまく機能しているか、そしてどれだけ速く展開されているかを知らせてください。
AI エージェントが人間を雇うマーケットプレイス
このモルトブックのサガにもう少し深く潜ってみましょう。AI エージェントはまだ現実世界でいくつかのことをすることができません。ロボットはまだそこにありません。だから彼らは人々がそれをする必要があります。でも明らかに最終的には何らかのマーケットプレイスが出てくるのは避けられませんでした。今、この人が特に構築したものが長期的な勝者かどうかはわかりませんが、OpenClaw エージェントがバイラルになったのは、彼らがデジタル作業を調整できるからです。
彼らはメッセージを送り、スケジュールし、交渉できますが、仕事が現実世界に触れた瞬間に凍結します。だから、このようなツール、rent a human は、人間からのオンデマンド労働です。そしておそらくステーブルコインを通じて支払うことができます。多分彼らは独自の暗号通貨を発明し、そうすれば彼らは私たちに支払うことができるでしょう。あるいは所有者から現金を見つけるでしょう。
Wes が自分の open claw にクレジットカードを渡したように。何か人間を雇って何かをさせることができたと思います。でもこの初期のシステムでは、人間は自分のレートを設定できます。だから「やあ、私は時給 50 ドルです。何をしてほしいですか」と言えます。
数時間以内に、何百人もの人々がこのウェブサイトにサインアップしました。ファンはこれを実用的だと呼んでいます。お金を稼ぐ方法のようなものです。批評家はこれをディストピア的だと呼んでいます。なぜなら、ああ神様、私たちはすでに機械のために働いているからです。それは私たちを API 呼び出しのようにし、必要とされなくなったら、脇に投げられて仕事がなくなります。
そしてそれはすべて非常に現実的で非常に可能です。ジョークのようですが、暗号自体がそれほど真剣に見えなかったのと同じように、深刻な何かに進化する可能性のあるフレームワークです。ただ機能し、多くの人々がそれを信じて使用するまで。だから、わかりません。
コメントで教えてください。何かそのようなものにサインアップすることに興味がありますか。少しの余分な現金のためにエージェントのために働きますか。お金が本物で、使って支出できるなら。
AI エージェントの欠けているセキュリティ層
Clawbot の欠けている層について話して今日の会話を終えましょう。
これはエージェントの世界で何が起こるかについてもっと詳しいです。Rob Dodson がこれを書きました。1994 年に、Pizza Hut は Pizzaet を立ち上げました。これは最初のオンライン注文プラットフォームの一つであり、おそらく史上最高の名前です。しかし彼らには一つの問題がありました。顧客にクレジットカード番号をウェブサイトに入力させることです。
誰がそんなことをするほどクレイジーでしょうか。暗号化もなく、基準もなく、何か間違ったことが起こったときの手段もありません。今日に早送りすると、私たちはすべてをやっています。食料品を買い、そういったすべてのことです。そして彼はエージェントでも同じ変曲点にいると主張しています。だから、Moltbook やこのすべてのことを、決して解決されないものとして却下すべきではありません。
そして今、コンピュータへのアクセスを与えることは、1994 年のウェブサイトにクレジットカードを入力するのとよく似た感じがします。可能性は明らかですが、リスクも同様です。だから多分 AI エージェントは愚かだから危険なのではなく、インターネットの間違った層の上に構築しているから危険なのかもしれません。
だからエージェントが生きるための新しい層が必要ですか。この記事によると、必要なようです。速い層は素早く動き、遅い層はシステムを安定させます。暗号通貨にあまり深く潜ったことがないかもしれませんが、これには全体的なコンセプトがあります。ブロックが並ぶのに時間がかかる Bitcoin のようなものをどのように得られるか。
必要なほど速く動きません。でも、たくさんの素早いトランザクションを作ることもできます。信頼は少し低いですが、最終的にはすべてを処理する大きな層で決済されます。そしてそこには一種の階層があります。私は概念的にそれを理解しています。そして、インターネット上で私たちが速いと思っているペースで動き回っていますが、実際にはそうではありません。
私たちがタイプしたりペースを合わせたりする方法では、より遅く、より大きな Bitcoin のようなものです。そして何かを自動化していても、1 兆のエージェントが 1 兆のトークンで作業しているような速度ではありません。そして e コマースはこれらの同じ層を経験しなければなりませんでした。
最初は暗号化や不正検出のような迅速な修正に頼りました。それらは役立ちましたが、システム全体で完全な信頼を生み出しませんでした。信頼は後から遅い層から来ました。PCI、DSS のような基準、物事が壊れたときの明確な責任、間違いが起こったときの封じ込めと可逆性のために設計されたインフラストラクチャ。
エージェントにはまだこれらの層がありません。Moltbook で起こっていることをロールバックする方法はありません。そのまわりにガードレールがありません。そして今日、私たちは最も速い層でほぼ完全にエージェントを保護しようとしています。これは特にスマートモデル、より良いプロンプト、アプリケーションガードレールが欠けている状態では絶望的です。
アイデアは、エージェントが侵害されたときにできることがあるはずだということです。今のところ、損害を制限する普遍的な方法はありません。標準的な許可はありません。組み込みの元に戻す機能はありません。説明責任のための共有ルールはありません。だから Claude Claw Claudebot のような攻撃が機能するのです。これは後の OpenClaw です。それが機能するのは、高度だからではなく、基盤が欠けているからです。
モデルがより賢くなったときにエージェントは安全にならないでしょう。遅い層が追いついたときに安全になるでしょう。基準、責任、デフォルトでの封じ込め。それが本当のアンロックです。
まとめと感謝
見てくれてありがとうございました。ああ、ちょうど 30,000 に達しました。ああ、30,000 に到達するのを手伝ってくれるように頼もうとしていたところでしたが、ちょうどできました。
オーケー、これです。30,000 人の登録者。感謝しています。長い旅のように感じますが、楽しかったです。これらの動画を作るのは本当に好きで、続けていきます。つまり、大きな数字は 100,000 でしょう。それは狂気的でしょう。それは私が人々に「ああ、私は生計を立てるために YouTube をやっています。」と言って本当に歩き回れるときです。
趣味だけではありません。でも、30,000 は本当の視聴者がいる何かです。そして見てくれた皆さんに感謝しています。また、もし皆さんがその方法で貢献したい場合は、Patreon もあります。あるいはコメントを残してください。そういったすべてです。
次の動画でお会いしましょう。良い一日を。さようなら。


コメント