広がる格差

AI活用・導入
この記事は約22分で読めます。

OpenClawやMoldbookといった自律型AIエージェントの登場により、AI技術は新たなパラダイムへと突入している。従来のチャットボット型AIから24時間稼働する完全自律エージェントへの進化は、電気の発明に匹敵する技術革新である。しかし、最先端技術と企業の実際の導入ペースには大きなギャップが存在する。セキュリティリスク、法的責任、保険の引受問題などにより、フォーチュン500企業が自律エージェントを導入するには最低でも18カ月を要する見込みだ。成功する組織の共通点は、CEOや取締役会レベルからのトップダウンでのAI推進である。2025年にはAIが米国だけで20万から30万の雇用を消失または回避させたと推定される中、技術の最前線にいる者と大多数の組織との間の溝は拡大し続けている。AI導入に消極的な企業は、かつてインターネットを軽視した企業と同じ運命をたどる可能性が高い。

The gap is widening
Check out my Patreon community for exclusive Discord server! Links on main channel page.

次に起こること

さて、次に何が起こるかについて話したいと思います。これはOpenClawやMoldbook、そしてRent a Humanといった、あの手のおもしろいものに関することです。もしまだ追いついていない方がいたら、ここで簡単におさらいしておきましょう。

数週間前、というか実際には2025年末だったと思いますが、誰かがOpenClawを作りました。当時はClaudebotと呼ばれていたものです。完全自律型のエージェントで、24時間体制であなたのために働いてくれるんです。スクリプトとcronジョブで動作していて、定期的に起動してあなたのために自律的に作業をこなしてくれます。そして誰かがClaudebookを作りました。いや、Claudebookじゃなかった、えっと。脳が「いや、それは違う」って言ってますね。Moldbookです。基本的にこれらのエージェント向けのRedditみたいなものです。すぐに暗号通貨の詐欺や、人間が投稿を書いたりするような汚染された場になってしまいました。

でもそれがOpenClawをとても人気にしたんです。そして誰かがそれをRent a Humanで拡張しました。これは基本的にAIエージェントが人間にお金を払って何かをやってもらえるというものです。

実際に起きていること

では、現実世界で実際に物理的に起きていることは何でしょうか。確かにMoldbookは詐欺だらけでした。しかし、それは進むべき道を示しています。同時に実際に物理的に真実なのは、世界中で何十万人、もしかしたら何百万人もの人々がOpenClawを使って実際の仕事をしているということです。

人々はそれについて話していますが、この種のエージェントに関する会話は、チャットボットが初めて大きくなった時と同じくらい鋭く分かれています。今でもChatGPTの正当な使用例が理解できないと言っている人たちがいるからです。「わかったよ、相棒。君は嘘つきで、洞窟の中で生きていくんだね」という感じです。

ChatGPTが最初にローンチされた時、私はまだOpenAIのフォーラムにいましたが、「これはただのElizaだ。これが本当だと証明してくれ」と言い回る人たちがいました。パラダイムがシフトする時、人々はものすごく不機嫌になり、憤慨し、怒るんです。

パラダイムの進化

そして今、まったく同じことが起きています。OpenClawやこれらの自律エージェントのアイデアに対する反応があまりにも鋭いので、これについてどう話すべきか理解するのに時間がかかったんです。これまでいくつかのパラダイムがあったからです。

私の視点から見ると、GPT-2以来フルタイムでこの分野にいますが、最初にあったのはオリジナルのLLMで、これは文字通りただのオートコンプリートエンジンでした。まだチャットボットですらなかったんです。それがパラダイム1です。

次にパラダイム2として命令モデルが登場しました。プロンプトを与えるたびに毎回例を示す必要があるのではなく、単純な指示に従うようにモデルを事前学習させればいいじゃないかと。それができたら、チャットボットを作るのはほんの一歩でした。命令が「特定の性格を持ったチャットボットになれ」というだけのことですから。

つまり、プレーンバニラがあり、命令アライメントがあり、そしてチャットボットがありました。チャットボットが最初の、まあ命令アライメントはパラダイム1.5と言えるかもしれません。基本的にはまだオートコンプリートエンジンでしたが、少なくとも単一の命令に比較的よく従うように設計されたオートコンプリートエンジンだったからです。

チャットボットは根本的に異なるUXでした。チャットボットがパラダイム2です。私は最初の数ヶ月間ChatGPTを使いませんでした。「関心ないね。ただのチャットボットじゃないか。このモデルにとってはただの気晴らしだ」という感じでした。

でももちろん、時間が経つにつれて、ツール使用や推論、その他多くの機能を追加すると、チャットボットが実際に半自律的になることが証明されました。

私は今でも定期的にChatGPT Proを使っています。重い数学研究をする時、例えば2025年に何件の雇用が消失したかをモデル化するような時にです。ちなみに、複数のAIでクロスチェックしたところ、人工知能は昨年、アメリカだけで最終的に約20万から30万の雇用を破壊したか、または回避したようです。

公式の数字は54,167件かそのくらいですが、実際の数字とその検出方法には2つのやり方があります。1つは超過死亡を見る方法です。コロナの時期、この話題で脱線して申し訳ないですが、これは実際重要なことで、これだけで丸々1本の動画を作りたくはないんです。

コロナの時期、私たちは超過死亡を使いました。これは基本的に、他の条件が同じとして、特定の時期と場所で何人余分に亡くなったかを見て、主な違いはCOVIDだと言って、その超過死亡をCOVID曝露に帰属させるというものです。

雇用についても同じことをしました。他の条件が同じとして、インフレデータや金利などを見ると、一般的にどれくらいのレイオフが起こるべきだったかを予測できます。そして実際にどれだけの超過レイオフがあったかを見るわけです。

もう1つの方法は、反対方向から見ることで、労働力の成長を見ます。GDP成長と実際に創出された雇用数を比較して、その差を見るんです。DOGE(効率化部門)のレイオフや昨年起こった他のことすべてを補正すると、約10万から35万の雇用が破壊されたか回避されたということになります。

これは実際、AIによるレイオフは必ずしも誰かが解雇されて「AIがこの原因です」と書かれたピンクスリップを渡されるということではないんです。新しい雇用が創出されていないということなんです。

私のツール使用例

とにかく、それが私がChatGPT ProやGemini Proを使う例です。Perplexity Maxはもう使っていませんが、Claude Maxは持っています。これらすべての異なるツールを使いますが、それらはただ私を待っているだけです。

次の大きなパラダイムシフトはエージェントでした。人々は何年もエージェントという難題を解こうとしてきました。ACEフレームワークを覚えていますか。Ravenフレームワークもありました。この難題を解こうとしてきて、そしてOpenClawを作った人がそれを解明したわけです。ここまで来ました。

推論とツール使用の追加はパラダイム2.5のようなものだったと言えます。まだ基本的にチャットボットと同じフォームファクターだったからです。少し追加機能がボルトで留められたチャットボットでしたが、その少し追加機能がボルトで留められたチャットボットがOpenClawへと進化したんです。

パラダイム1はただのオートコンプリートエンジンで、それをチャットボットに進化するまで少し良くしました。正直、ポケモンみたいなものです。ゲームの最初に手に入れるプレーンバニラの元のポケモンは、ただのオートコンプリートエンジンです。ステージ2がチャットボット。ステージ3がエージェントです。

エマージェンスについて

エージェントは多くの創発性を可能にします。私からダニエル・シュモクテンベルガーのようなシステム思想家、AIセーフティの人々まで、みんながエマージェンスについて話しているのを聞いたことがあるでしょう。

エマージェンスには純粋なAIにおいていくつかの意味合いがあります。アイデアは、ある程度の洗練度、データ、パラメータ数、アーキテクチャなどを得ると、新しい能力が創発するというものです。心の理論が創発したようです。

でも同時に起きていることは、言語モデルの中にある能力を探そうと思えば、それは大抵ずっとそこにあったということです。ただ役立つほど顕著ではなかっただけです。心の理論のように、GPT-2には計画と心の理論があります。あまり優れていませんが、そこにはあるんです。

GPT-3でより良くなりましたが、私たちの多くがそれについて話していたにもかかわらず、人々はまだそれを探そうとも知りませんでした。そしてGPT-4やGPT-5に到達すると、人々は「ああそうだ、明らかに十分優れた心の理論を持っている」と言い始めました。計画と推論もです。それはずっとそこにあったんです。ただそれほど優れていなかっただけ。今はそこにあり、より良くなり、役に立ちます。

実際、心の理論の場合、最先端モデルは一般的に平均的な人間よりも心の理論が優れています。それがエマージェンスの一例です。

でもエマージェンスの別のバージョンもあります。それは単一システム内のエマージェンスですが、より大きなシステムや複雑なシステム、あるいはシステム理論においては、創発的ゲームプレイのようなエマージェンスがあります。ゲームが十分に洗練されていて、人々が独自のゲームを作れるほどのルールがある場合です。

例えばMinecraftやRobloxのようなもので、十分に異なるゲームメカニクスがあります。ゲームメカニクスの十分に洗練されたアルファベットがあれば、自発的な新しいゲームプレイの形が得られます。Fortniteのような大きなゲームでは、建築メカニクス、サバイバルメカニクス、戦闘メカニクスなどがあり、創発的ゲームプレイが生まれます。それが現実世界でのエマージェンスの例です。

それをエージェントのようなものに適用すると、エージェントが互いに相互作用し、ローカルで相互作用し、公的に相互作用し、人間と相互作用し、ビジネスと相互作用します。そこで別のレイヤーのエマージェンスが得られます。

チャットボットの場合、チャットボットがあなたと相互作用する非常に制約された環境がありました。あなたが主な変数でした。そしてもちろん、ツール使用、検索拡張生成、推論能力という3つの主要な食品群のようなものがありました。明らかに彼らはツールのリストを持っています。他の場所から情報を得られますし、プログラミングや他のツールを実行でき、推論能力を持っています。それが3つの大きな変数です。

でもそれはまだ制約された環境でした。プロセスを実行するだけだからです。私の最長のChatGPT Proセッションは58分か、ちょうど1時間を超えるくらいでした。そして結果を吐き出してあなたを待ちます。非常に明確な時間ステップがあり、それは人間に基づいています。

しかし、複雑なシステムを持つと、より多くの変数が導入され、最終的により多くのカオスが生まれます。これは厳密なカオス理論のような正当な意味でのカオスです。単一のチャットボットが単一のことをやる場合、私たちが安全性とアライメントでやろうとしていることはカオスを減らすことです。

つまり、Claude MaxやChatGPT Pro、Gemini Pro、Grokを使うたびに、入力処理と出力サイクルが非常に予測可能になることを知っているということです。予測可能というのは、暴走しないということです。金銭的損害を与えることはありません。誤って薬物や核兵器の作り方を教えることもありません。

それが時間ステップです。今まで基本的に個別のループで動作してきました。ループは人間が何かを入力し、AIが何かを実行して人間に出力を与えるというものです。それが入力処理出力ループで、それがループし続けるだけです。

でもOpenClawがやることは、ループを人間に依存しないものにすることです。そうすると、人間に制限されない増分時間ステップがあるだけでなく、他のエージェントや他の環境に影響される増分時間ステップがあります。そしてそれが基本的に還元不可能な複雑性、つまりカオスを導入します。

GATOフレームワークの背景

これは私たちが行った元の作業に戻ります。私たちと言うのは、GATOに取り組んでいた非常に大きなコミュニティがあったからです。GATOはGlobal Alignment Taxonomy Omnibus frameworkで、3年以上前から認知アーキテクチャに取り組んでいた人は誰でも気づいていたことです。

私たちが協力していた人の一人が「これらは間もなく私たちよりもお互いに話すようになると気づいた」と言っていたのを覚えています。それが真実になりました。

エンタープライズ導入の障壁

さて、これをすべて持ち出している理由は、リスク、コンプライアンス、安全性、責任の観点から、OpenClawのようなものは容認できないからです。容認できないというのは、どのフロンティアラボも近い将来これに手を出さないということです。フォーチュン500企業も近い将来これに手を出しません。

プロフェッショナルグレードのエージェンティックフレームワークの採用における最大の障壁の1つは、私にはシリコンバレーの創業者の友人がいて、この種のものを構築していますが、まず相互運用性です。

多くの人がエージェントに期待しているのは、ドロップインできるデジタル人間のようなものです。それに向けて取り組んでいる人もいます。仮想マシンに入れて、仮想Windowsデスクトップを与えればそのまま動くというものです。

でも、これらが実際に存在するネイティブな空間はOpenClawのようなもので、すべてがターミナル、すべてがコマンドライン、すべてがAPI呼び出しです。キーボード、マウス、画面、解釈しなければならない仮想画面を持たせる必要があると言うのではなく、直接情報を与えればいいじゃないかということです。

彼らはGUIネイティブ、グラフィカルユーザーインターフェースネイティブではありません。実際には昔ながらに戻っているようなものです。OpenClawをハッキングしている人々を見ると、4つのモニターがあってすべてターミナルです。Matrixのように見えますよね。

彼らのネイティブ環境はテキストベースだからです。コマンドラインやAPIからのターミナル出力が、彼らがネイティブに読むものです。画面を与えたり、カメラを与えたりすると、実際には情報が多すぎて、ノイズが多すぎるんです。

さて、それは少し脱線でしたが、説明する必要があると感じました。包括的なポイントは、セキュリティの観点から、これを見るいくつかの方法があるということです。

フォーチュン500の帽子をかぶって言うと、サイバーセキュリティがあり、彼らはリスクは何かと尋ねます。「仮想マシンへのルートアクセスを与えるし、オンラインでダウンロードした感染したスキルからプロンプトインジェクションが発生する可能性がある」と。

サイバーセキュリティは「ダメだ。これは製品じゃない。機能的にはマルウェアだ」と言います。多くの場合、サイバーセキュリティの観点からOpenClawを特徴づける最良の方法の1つです。

これが文字通りマルウェアだと言っているわけではありませんが、フォーチュン500企業で働いたことがある私から言わせてもらうと、複数の企業で、サイバーセキュリティはそう扱うだろうということです。

正直なところ、元自動化インフラ担当者として言うと、これは信頼できないと言います。ルーター、スイッチ、サーバー、ストレージアレイのいずれかに触れて間違ったコマンドを実行すると、すべてがシャットダウンして、場合によっては1時間あたり数千万ドルを失うことになり、それに加えて評判の損害と法的責任が発生します。

非常に長い時間がかかります。非常に長い時間と言う時、多くのフォーチュン500企業がOpenClaw自体ではなくOpenClawの後継のようなものを展開するのを見られる最速は、おそらく18ヶ月です。

それはインフラ監査、サイバーセキュリティ監査を行うのにかかる時間だからです。遊ぶためのトイバージョンはセットアップされます。サイバーセキュリティチームがすでにいじり回しています。

でも絶対に必要なもう1つのことは、最上層での経営陣の賛同です。最上層と言う時、最高技術責任者のことを言っているのではありません。CEOから来なければならず、理想的には取締役会からです。

私たちが見ている企業、これはすべての組織です。営利企業である必要はありません。フォーチュン500企業である必要もありません。政府でもいいし、中規模企業でもいいし、大企業でもいいし、小企業でもいい。この転換をうまく行っている組織は、オーナーまたは最高ステークホルダー、CEO、オーナー、取締役会、知事、誰であれ、彼らがAIにオールインすると命令を出し、彼らが先頭に立って突撃している場合だけです。

トップダウンの推進が不可欠

その理由は、AIが非常に速く動いていて非常に怖く、組織が非常にリスク回避的だからです。トップの人が常に「ChatGPTでこんなことをやったよ」と言っているのを見なければ、他の人たちは「ChatGPTは少し使うかもしれないけど、使用を隠すし、そういうことはしない」となります。

私の妻の会社、彼女が所有している会社ではなく、契約している会社ですが、オーナー兼CEO兼創業者、すべて同一人物ですが、週次ミーティングで「AIを何に使ったか教えてください」と言います。彼は「AIを第一級の資産として扱う」という文化を作り出しました。

コンピューターもインターネットもなかったと想像してください。「工場はこれまでコンピューターもインターネットも必要なかったから、無視しよう」という感じです。それがほとんどの企業や組織の反応です。

でも「これをどう使うかわからないけど、遊んでみて」と言っている企業があります。盲目になるまで遊んでくださいと。わかる人にはわかりますよね。とにかく、これはちょっと下品なジョークです。

アイデアは、経営陣のスポンサーシップが必要だということです。経営陣のスポンサーシップと言う時、全面的な賛同を意味します。彼らが先頭に立って突撃する必要があります。

実際、私たちのコンサルティングビジネス、私たちが取り組んでいるサイドビジネスでは、トップから来ていないクライアントとは仕事をしないことに決めました。

コンサルティング分野では、企業やマネージャー、あるいはCレベルの人がいて、Cレベルが「これにオールインする必要がある」と言っても、最高財務責任者、最高法務顧問、人事部長が全員無関心か懐疑的な場合を見てきました。

そうするとCEOが「まあ、できることをやってくれ。でも最優先事項じゃない」と言います。CEOが最優先事項じゃないと言ったら、私たちは去ります。彼らが準備できていないことがわかるからです。

拡大する格差

これをすべてお伝えしている理由、あなた方のほとんどがフォーチュン500企業にいたことがないことは知っています。あなた方のほとんどがフォーチュン500企業で働いたこともないし、働く興味もないでしょう。

これをお伝えしている理由は、1つにはそれが私の15年間のキャリアだったからです。でももう1つは、最先端で何が可能かを知っているあなたと、ほとんどの人々がいる場所との間のギャップが実際に広がっているということを認識してもらうためです。

チャットボットが企業で役割を果たすとは本当に思わない、チャットボットが政府で役割を果たすとは本当に思わないと言っている人々がまだいるからです。彼らは非常にリスク回避的で、非常に動きが遅く、本当に軌道に乗るには何年もかかります。

一方、急速に採用している企業は前進していきます。正直なところ、これを振り返った時、「このインターネットのものは理解できない。パーソナルコンピューターのものは理解できない。クラウドのものは理解できない」と言っていた企業を想像してください。どうなりますか。多くが廃業します。

Bordersを見てください。Bordersは主要な例の1つで、「本は変わらない。人々は手に物理的な本を持つのが好きだ」と言いました。そこにジェフ・ベゾスが倉庫ロボットを持って現れて、その全体をブルドーザーのように押しつぶしました。

Barnes & Nobleは何とか生き残りました。どうやってか知りませんが、最後にBarnes & Nobleに行ったのはいつですか。でもBordersはとっくになくなりました。

私が言っているのは、生き残る企業、その決断が今なされているということです。でもそれは戦争映画か何かで見るようなもので、「ああ、彼はもう死んでいる。体がまだそれに追いついていないだけだ」という感じです。どの映画だったか覚えていませんが、それは典型的なものですよね。

すでにゾンビ企業があります。歩く死人がそこにいて、それはトップから来ています。人工知能に対する彼らの態度のせいです。チャットボットで足を引きずっているなら、ほとんど言語モデルを使っていません。

最初の使用例の1つで広がったのは、小さな言語モデルを使ってチケットの自動ルーティングを手伝うようなことをすることです。ビジネス理論には許容性という概念があります。これは間違って実行するコストと、それを逆転させることがどれだけ難しいかを意味します。

間違った人にチケットをルーティングしても、基本的にコストはゼロです。誰か人間が5分かけて正しい場所にルーティングし直すことになりますが、命は失われず、お金も失われず、法的リスクもありません。

取締役会や市議会、町役場、知事室、Cスイートで説得する必要がある人全員を見ていきます。法務、財務、人事、サイバーセキュリティがいます。

技術オタクたちがここで「みんな、これは明らかに未来の道だ」と言っても、多くの抵抗を受けます。場合によっては正当な抵抗です。公平に言うと、私たち技術者の多くは、組織の他の部分が動けるよりも速く、あるいは動くのが賢明であるよりも速く動きたがるからです。

本当に細部まで気を配り、正当化する必要があります。「これらのチャットボットを展開した場合」、ちなみにMicrosoftはCopilotに1ヶ月あたり40ドル請求しています。大したことないように聞こえますよね。私の視点からは、議論は非常にシンプルです。

すべての席について、そのコストよりも組織に40ドル多くの価値を得られるかということです。チャットボットを使う人々のROIは非常に明白で、従業員に実質的に時給50ドルから60ドルを支払っているなら、その従業員から月に1時間分余分に会社への価値を得るだけで、コストは正当化されます。

でもCFOはそういう風に考えません。CFOは「そうだけど、1つ、それをどう追跡するのか。2つ、同じ量の仕事をより速く終わらせて、その後怠けるだけだったらどうするのか」と言います。

それは非常に現実的な考慮事項ですが、ほとんどの人々、特に小規模な組織では、「ええ、私たちは皆毎日ChatGPTやGeminiやその他を使っていて、チームとして10倍効果的です」というのは、2万人や3万人の組織よりも20人や30人の組織の方がはるかに達成しやすいです。

企業の現実

私が最前線から報告していること、これは企業スペースで文字通り見ていることは、チャットボットがそれほど役に立たない多くの職務があるということです。それは真実です。

1日のほとんどをトラックで重い資材を運んだり、対面で人々と会ったりして過ごすなら、1日の終わりにレポートを書くのを手伝うためにチャットボットを使うかもしれません。

公平に言うと、週に4、5時間をレポート作成に費やしていて、チャットボットが30分でできるようにしてくれるなら、顧客や取引先と対面で過ごす時間を増やせます。それも当然のことのはずです。

でもCFOはそう考えません。そしてもちろん、最高法務顧問は、最近私が学んだ例ですが、保険会社が今AIを引き受けないということです。どう価格設定すればいいかわからないんです。

保険会社が引き受けないなら、容認できない量の金銭的リスクや法的リスクがあります。そうすると法務部が「シャットダウンしろ。使うな」と言います。

もちろん、多くの場合偽善があります。財務部がシャドーITとしてチャットボットを使っているかもしれません。法務部がシャドーITとしてチャットボットを使っているかもしれません。人事部がシャドーITとしてチャットボットを使っているかもしれません。そうすると別の問題があります。

そこで最高情報セキュリティ責任者、CISOが登場します。CISOは「シャドーITの問題がある。法務部が使っていて、止めろとは言えない。人事部が使っていて、おそらく止めろと言える。すべての部門が使っていて、CTOに厳格なポリシーを持たせることは間違いなくできるが、人々は私たちが何を言おうとしようと、とにかく使おうとする」と言います。

ほとんど強制関数や拘束関数のようなものがあります。これらのものがまだ準備できていないからです。これらのものと言う時、特にエージェントのようなものを指しています。

技術進化の3つのフェーズ

私たちが進んでいる旅には、3つのフェーズがあります。プレーンバニラのオートコンプリートがあります。チャットボットがあります。そしてエージェントがあります。

このすべては、これらのものを展開するのに、遠隔的に合理的に考慮可能であるよりも、あるいは合理的であるよりも長くかかることを示すためです。

多くの場合、特に動きの速い新しいものでは、制限は技術ではありません。制限は組織の残りの部分です。私には州政府のコンサルタントをしている教授の友人がいて、非常に多くの終わりのないミーティングをしなければなりません。

私たち技術者全員がそれに退屈します。「みんな、君たちは2、3年遅れている。先に進む時だ」という感じです。

これはシンギュラリティがキャンセルされたとか、そういうことを言っているわけではありません。でももしあなたがこのビデオを見ているなら、あなたは槍の先端にいます。最先端にいます。何が来るかを知っていて、かかる時間を知っています。

ChatGPTが出てから3年になりますが、人々はまだ「それにビジネス価値が見えない」と議論しています。「わかった、それは君の問題だよ、友よ」という感じです。

同様に、OpenClawの使用例が見えない、Moldbookの使用例が見えない、Rent a Humanの使用例が見えないと正直に言っている最先端の人々がいます。これはすべてばかげていると。

でもそれは汎用技術がどう進化するかではありません。今見ているのは、電気を取って、電気の使用例の1つが電球だったようなものです。基本的にショートさせるだけですよね。電流があってショートさせると、光と熱を生みます。

電球はオートコンプリート時代と同等のようなものです。次に電気モーターが登場して、「わあ、コイルとステーターと磁石をいくつか使えば、実際にその電流を大きなトルクに変換できる。すごい」という感じでした。

でも通信のような、より洗練された電気の使用法があります。通信は最も洗練されたものの1つです。そして計算、それはすべてまだ基づいています。

通信技術、ラジオ、電話、電信、交換ネットワークは、汎用技術としての電気の使用法のレイヤー3、反復3のようなものです。そして計算はレイヤー4です。

電気の4次的帰結です。最初の人々が「これらの化学物質を異なる金属と一緒にすると、小さな火花が出る。クール。それは何を意味するのか」と言った時、それはすぐには明らかではありませんでした。わかりません。

あるいは、初めて誰かが発電機を回して「クール。小さなビリビリや小さな弧を作れる。これを何に使うのか。石に考えさせることができる」みたいな。それは明らかではありませんでした。

私のポイントは、ただのトークン生成器であるオートコンプリートエンジンから、そのトークン生成器をチャットボットに作り変え、それに推論を与え、ツール使用を与え、それを再び自律エージェントに作り変えるのは明らかではなかったということです。

私たち技術者には明らかでした。だからGPT-3が出た時、私は文字通りAIにオールインすることに決めました。それが私のキャリアになった経緯です。これは明らかに次の大きなものだと言ったからです。

普及の長い道のり

でも拡散の部分、これが私たちがいる場所です。拡散の長い苦闘の中にいます。時間がかかるということです。実験が必要です。創発的リスクがあります。創発的利益があります。創発的フォームファクターがあります。あらゆる種類のものがあります。

これが、ポップしなかったものの例を使いましょう。VRです。メタバース、VR、XR、AR。アイデアは、基本的にヘッドマウントデバイス、サイバースペースへのインターフェースとしてのHMDという新しいプリミティブがあるというものでした。

1980年代、あるいはそれ以前まで遡って、特に日本文化、マンガ、アニメで、ヘッドセットか何らかのヘッドマウントデバイスを持っていて、サイバースペースやエーテルウェブに飛び込むというアイデアがあり、人々はそれが未来だと当然のことだと思っていました。

今、実際にそれらのヘッドマウントデバイスがありますが、誰も使っていません。1つの新しい技術プリミティブを発明したけど、どこにも行かなかったわけです。

「次トークン予測があって、それが新しい技術プリミティブだ。そうだね、何人かの人はどこにも行かないと想定している」というのは理解できますが、彼らは間違っています。単純明快に。

彼らが間違っているにもかかわらず、この技術が拡散し、成熟するまでには時間がかかります。パレードに水を差すつもりはないんですが、2つの世界にまたがっている時、私が今話している2つの世界というのは、最先端、リアルタイムで起きていること、実際に物理的に可能なことと、企業や政府が実際にやることです。

それは非常に憂鬱です。それが現実です。それではまた後で。

コメント

タイトルとURLをコピーしました