AGIは死んだ。これからはスキルが私たちに役立つだろう。

AI研究
この記事は約21分で読めます。

本動画は、最新のAI論文を基に、自律的に進化するAIエージェントのスキル最適化手法について解説したものである。学生AI、教師AI、そして外部環境という3つの要素を用いた共進化ループによって、人間の介入なしにより高度なスキルファイルが生成されるプロセスを紐解いている。さらに、なぜ現在のAI開発がニューラルネットワークそのものの学習から、決定論的なマークダウンファイルを用いた外部ツールの構築へと移行しているのかについて深く考察している。企業は確率的な大規模言語モデルの不確実性を嫌い、監査可能で確実な結果を保証するルールベースのシステムを求めている。そのため、AI開発の究極の目的はAGIの実現ではなく、完璧な決定論的ソフトウェアスキルを大量生産することにあるという結論を提示している。

AGI is Dead. SKILLS will serve us better.
Everyone is waiting for AGI: a magical, fluid super-brain that can do everything. But the enterprise AI industry just re...

最新AI研究と自律的スキル最適化の証明

こんにちは、コミュニティの皆さん。また戻ってきてくれて本当に嬉しいです。今日は最新のAI研究についてお話ししましょう。そして、今日私の中で個人的なAIの神話が一つ解けたこともお伝えしなければなりません。今日の最先端のエンタープライズAI戦略についてお話ししていきましょう。

2026年4月2日に発表された、イリノイ大学シカゴ校、コロンビア大学、全南大学校、ブリティッシュコロンビア大学による全く新しい研究があります。タイトルはエボスキル、共進化的検証を介した自己進化型エージェントスキルというものです。これを見て皆さんは、ついに私たちが求めていた自己学習型のマルチエージェントスキル最適化を証明するものが業界から出てきたと思うかもしれませんね。少なくとも、この図を見ればそう思うはずです。

ここにシステムの知能が示されています。赤色で示されているのが、スキルを持たないシンプルなAIエージェントです。そして緑色が、人間が厳選したスキルを持つエージェントです。彼らはさらに、Anthropic自身の単純なスキルクリエイターもテストしたと報告していますが、それは人間のレベルを大きく下回るものでした。

しかし、彼らが発見した素晴らしい手法を見てください。著者らが考案した方法で作成されたスキルを持つエージェントは、2、3回の進化的反復ステップを経るだけで、人間の能力さえも上回ってすべてを凌駕しているのです。これこそが答えです。マルチエージェントAIシステムのための完璧なスキルマークダウンファイルや、完璧なPythonスクリプトの書き方がついに判明したというわけです。

では、これは本当に真実なのでしょうか。一緒に見ていきましょう。

これまで私たちは、メタハーネスやハーネスシステム、LLMのコアシステム、メモリ最適化、そして巨大な単位と原子単位を持つオムニメモリAIエージェントの最適化についてたくさん話してきました。私たちはすべてをファイルバックシステムに戻し、マークダウンファイルを用意しました。そして、Anthropicのマークダウンファイルよりもスキルマークダウンファイルを向上させる素晴らしい手法をQwenがどのように見つけ出したかをお見せしましたね。トレース・トゥ・スキル・パラメータを用いてそれをどのように凌駕できるのかを示し、ついに私たちは一つの到達点に至りました。これが私の白昼夢だったわけです。

中央に私たちのAI、つまりニューラルネットワークがあります。そして周辺には、標準的なRAGパイプラインやグラフRAGパイプライン、ベクトルデータベース、リレーショナルSQLデータベースなどに向けたスキルMDファイルが無数に配置されています。スーパーコンピューターがあり、すべてがLean 4で構築されています。素晴らしいですね。

しかし、私はここでまだ一つの疑問にとらわれています。なぜ周辺にこれらすべてを配置する必要があるのでしょうか。なぜAI自体に物事を学習させないのでしょうか。特に、先ほどお話ししたAlibabaのトレース・トゥ・スキル・パラメータを見るとそう思います。なぜ今、すべてをMD、つまりマークダウンファイルに落とし込んでいるのでしょうか。なぜAIをもうトレーニングしないのでしょうか。Google DeepMindのGamma 4という一つの例外を除いて、なぜAIシステムの開発が完全に停滞してしまっているのでしょうか。なぜ今、すべてが決定論的なマークダウンファイルとして外部化されているのでしょうか。

その理由は驚くほど単純なものでした。それにすぐに気づかなかった自分が本当に馬鹿らしく思えます。しかし、まずは今日の論文を見て、彼らが生み出した手法と洞察を理解しましょう。それが、今何が起きているのかを理解する大きな助けになったからです。

3つのAIエンティティによる共進化アルゴリズム

これは擬似コードとしてのアルゴリズムで、この手法の完璧なフローと要素を示しています。概要にあるアルゴリズム1の擬似コードを別の角度から見ていきましょう。これを少し詳しく説明してほしいというリクエストもあったので、今日やってみましょう。

この新しいプレプリントを深く理解するためには、アルゴリズム1を理解するだけで十分です。これは3つのエンティティ間の高度に構造化されたダンスであり、これこそがほぼ現在のリアルなAIシステムそのものだと言えます。

まず、学生AIと呼べるものが存在します。公式にはスキルジェネレーター(pi theta)と呼ばれています。これはコードと指示を書くAIシステムであり、最も多くを学習するシステムです。

次に、教師AIシステムがあります。公式にはサロゲートベリファイアと呼ばれています。これは学生をテストするための模擬試験を作成します。試験が複雑になればなるほど、学生は失敗を重ね、自分に不足している知識を理解します。そして、その特定の知識を学習して戻ってきて、おそらくその試験で素晴らしい成績を収めるようになるのです。

そして最後に、外部環境があります。これを国家試験とでも呼びましょうか。グラウンドトゥルース、つまりオラクルと呼ばれるもので、合格の1か不合格の0というバイナリの答えだけを返すブラックボックスの審査員です。説明は一切ありません。これらがこの研究の3つの主要なエンティティになります。

では、最初から見ていきましょう。最初の数行は簡単です。スキルジェネレーターと呼ばれる学生AIがいます。私たちはこのAIにより高い知能を生み出してほしいと考えています。このAIは、私の人間としてのタスク指示と、メタスキルを読み込みます。メタスキルとは、スキルのフォーマットや処理方法を定めた決定論的なベーステンプレートであり、基本的な指示のことです。

ゼロの状態から最初の推測を行い、バージョンゼロのスキルを生成します。この時点ではほぼ何もありません。3行目では、教師AIのテストスイートが完全に空の状態で始まります。しかし、ここから動き出します。

4行目と5行目で、システムは予算を設定します。無限にループし続けないように、国家試験は最大5回、模擬試験は最大15回までという制限を設けます。そして、最初の状態をこれまでの最高のスキルとして保存します。

ここから学習プロセスの始まりです。学生がテストを受けます。まだほとんど何も学んでいませんが、とにかく開始します。8行目にあるように、ジェネレーターは現在のスキルパッケージを安全なサンドボックス環境内で実行し、出力ファイルを生成します。これがフィルタリングされたCSVファイルか何かだとしましょう。これで最初の結果が得られました。

次に何が起こるかはお分かりですね。安全確認です。LLMがコンテキストウィンドウの70%以上を使用した場合、ループを中断してAIのメモリがオーバーフローして幻覚を起こすのを防ぎます。すべてが境界内に収まっていることを確認するわけです。

そしてフェーズ2に入ります。教師AIであるサロゲートベリファイアが、学生AIの出力を受け取り、模擬テストスイートを実行します。これは公式の国家試験ではなく、現在用意されているシンプルな小テストの集まりです。ここでプロキシ報酬、つまりフィードバックを計算します。残念ながらここでも0から1の間のブール値によるフィードバックになりますが、これについては後ほど詳しく話します。

もし結果が1未満、つまり学生がこの模擬テストスイートで100%を取れなかった場合、あるプロセスが起動します。15行目と16行目を見てください。1未満の場合、教師AIは非常に詳細な失敗の診断結果を生成します。教師自身がテストを作成したため、テストの内容や解き方、何が間違っていたのかを正確に把握しています。

そのため、学生AIの最初の挑戦を見て、なぜ失敗したのかを正確に分析できるのです。例えば、42行目が整数ではなく文字列を返した、といった具合に答えるかもしれません。このように、密度の濃いフィードバックが学生のコンテキストに追加され、新たなコンテキストとして学生に提供されます。

ここからスキルの改良が始まります。学生AIは、16行目から送られてきた新しいコンテキストを入力として受け取りますが、同時にすでに学習したスキルも持っています。ゼロからのスタートかもしれないし、少し知識があるかもしれません。これらを入力パラメータとして、新しいスキルを生み出す必要があります。

テストの複雑さが徐々に増していく中で、自己進化するスキルセットが求められているわけです。シンプルに聞こえますね。そしてループに入ります。

待ってください、18行目は非常に重要なステップです。システムはここでトップに戻ります。教師の模擬試験はロックされたままで、学生は100%のスコアを獲得するまで自身のスキルを改訂し続けなければなりません。18行目では、学生がこのテストスイート全体を本当に完全に解けることを確実にしたいのです。これをクリアして初めて次に進みます。学生がこのテストスイートから学ぶべきことをすべて学んだかを確認するためです。

これでアルゴリズムの半分が終わりました。次に進みましょう。ここから目の前に2つのブロックが現れます。完全に新しい環境での独立した再試験であるグラウンドトゥルースのオラクルテストと、この手法の真の魔法とも言える共進化のプロセスです。

28行目でテストのエスカレーションが行われます。理論物理学で例えるなら、システムが局所的最小値に陥って抜け出せなくなった場合、システムをそこから押し出すための推進力と衝撃を与え、バックプロパゲーションを行って大局的最小値を見つけ出せるようにするのです。

オラクルテストとテストの難易度エスカレーション

グラウンドトゥルースのオラクルテスト、つまり国家試験は20行目から27行目で行われます。システムは、100%のスコアを出した学生のスキルを取り出し、完全に汚染されていない新鮮な環境、つまりサンドボックス内で実行します。何も暗記していないことを確認するためです。本当にまっさらな状態からのスタートです。

素晴らしいですね。これを実行し、結果を得ます。すると、隠れていたグラウンドトゥルースのオラクルである第三の目が、このCSVファイルなどの結果を確認し、真の報酬として自動スコアリングを返します。ここでも残念ながらブール値の報酬システムなので、合格の1か不合格の0だけを伝えてきます。

これにより、システムが成功したかどうかの直接的なフィードバックが得られます。オラクルが合格と言えば、完璧な状態に到達したということで早期終了となります。もし不合格でも、以前の試みより良くなっていれば、バックアップのスナップショットを取っておきます。ここまでは簡単ですね。

そしてここからが最も面白い部分、エスカレーションです。これがこのプレプリントの真の革新的な部分です。タイピングが下手で申し訳ありません。

もし、教師は学生に100%を与えたのに、国家試験では0%で不合格になってしまったらどうなるでしょうか。これは明らかに、教師が学生に与えたテストが簡単すぎたことを意味します。教師はここで、未知の国家試験が本当に難しいテストであることを理解します。そこで教師は、自身のテストスイートの作成を、はるかに複雑なタスクへとレベルアップさせるのです。

そして今度は、学生AIがそのより難しいタスクを解こうと挑戦します。いわばガイド付きの学習原則ですね。30行目がこの魔法、つまり私が今説明したベリファイアのエスカレーションです。教師AIは、自分の模擬テストが学生にとって簡単すぎたことに気づきます。自分は学生を合格させたのに、現実は学生を不合格にしたわけですから。

そこで教師AIはタスクの指示を再度分析し、より厳格で複雑で難しい、まったく新しいテストスイートを生成します。難易度や複雑さをエスカレーションさせ、エッジケースを追加したり、数学的な複雑さを増したりするのです。

ここで、Opus 4.6が懸命に働いていることがわかります。最も高価なコード生成LLMを使わなければならないということは、ローカルの小さなオープンソースLLMでできるような単純なものではないとすぐに理解できるでしょう。かなり複雑な思考が要求されるのです。

そしてループが繰り返されます。次のラウンドでは、学生の現在のスキルが、この新しくて過酷な模擬テストで再び試されます。テストが難しくなったため、学生のプロキシスコアは再びゼロ未満に落ち込み、再び学習フェーズが引き起こされます。これが共進化です。

このテストエスカレーションを行う主な理由は、システムが局所的最小値に閉じ込められたときに、そこから押し出すためです。もっと一生懸命学ばなければならない、あと50万個のGitHubリポジトリを学習してから戻ってきて、このタスクを解いてみろ、とシステムに促すのです。素晴らしい仕組みです。

もちろん、Opus 4.6がこの新しい難しいテストを生成する際に、おそらく数百万もの思考トークンを消費する可能性があります。Proやその他のサブスクリプションを利用している場合、APIコストとしてその思考トークンの分も支払わなければなりません。ですから、API経由でOpus 4.6を使ってこれを実行する場合は注意が必要です。

ここで本当に興味深いのは、現実世界を模したオラクルによる厳しい現実チェック、つまり外部環境との接触です。これこそが魔法なのです。この環境のグラウンドトゥルースが、教師AIにテストをどんどん難しくするように強制し、それが学生ジェネレーターにより良いコードを書くように強制します。スキルが完璧に堅牢になるまで、AIを局所的最小値から引き上げ続けるのです。

長く訓練すればするほど、知能は高まり、人間である私がシステムに指示したタスクを解決するのに十分に適切なスキルへと成長していきます。おそらく2つ、3つ、あるいは5つのスキルが必要になるかもしれません。こうして、人間の介入なしにAIスキルの自己進化が実現するのです。

もちろん、Opus 4.6自体は人間が書いた何百万ものGitHubリポジトリで訓練されているので、人間の知識が全く介入していないとは言えません。しかし、年月が経つにつれて、GitHubのコードは純粋なAIコードの割合がどんどん増えていくでしょう。

なぜAI自体を学習させずマークダウンファイルに依存するのか

ここで小さな詳細に気づきましたか。この仕組みが機能するのは、ある特定の条件下だけです。これが私たちのAIスペクトル全体ですが、これはコーディングが可能で、コード構造を使って実行できる検証可能な報酬関数がある場合にのみ機能するのです。純粋に定性的でオープンエンドなものに対してアルゴリズム1をそのまま適用しようとすると、数学的なループは崩壊してしまいます。

しかし、話を最初の方で触れた神話に戻しましょう。私は常に自分自身に問いかけてきました。なぜ頭脳である純粋なLLMにこれらのことを学習させないのでしょうか。なぜこれをスキルマークダウンファイルなどで包み込むのでしょうか。なぜ単一の解決策から出発して、それを決定論的な構造に書き下ろすのでしょうか。AIがこれを学習できるように、学習のための入力として提供しないのはなぜでしょうか。

別の視点からこの論文を読むと、そこには3つの要素があると考えられます。なぜAIのテンソルの重みを更新しないのか。なぜ、検証可能なフィードバックを用いた強化学習でLLMをファインチューニングしないのでしょうか。そうすれば、AIはこの手法で作られたテンプレートを読まなくても、自然にタスクの実行方法を知り、10万回の実行をこなせるようになるはずです。

私たちのスキルMDファイルは、多かれ少かれ、単なるワークフローのテンプレートであり、最初にこれをして、次にこれをして、という決定論的なルールに過ぎません。退屈なものです。ルールに従うだけのテンプレート構造を採用するなら、なぜAIが存在するのでしょうか。私たちはおそらく世界で最も複雑なニューラルネットワークアーキテクチャをスーパーコンピューター内に構築しておきながら、今日やっていることと言えば、テンプレート作りなのです。狂気じみていますよね。

しかし、視点を変えて、なぜそうするのかという賛成意見を考えてみましょう。そうするのには、非常に実用的な理由があるのです。

まず第一に、ポータビリティという大きなブレイクスルーがあります。Opus 4が作成したスキルMDファイルをそのまま持っていき、GPT-5.2でも実行できることが期待できます。

重みを訓練して更新する場合、特に教師ありファインチューニングでは、破滅的忘却に陥らないように細心の注意を払う必要があります。もちろんそれを回避する手法はありますが、AnthropicやOpenAIのようなAI企業にとって、モデルを更新することはより多くの時間とコストを意味します。しかし、それを決定論的なテンプレートに落とし込むだけであれば、コストは一切かかりません。

そして当然のことながら、検査可能性とデバッグの容易さです。目の前にマークダウンファイルがあれば、人間はすぐにその手法を理解できます。この数学的手法はこの特定のタスクの複雑さには適していない、といった感覚を直感的に掴むことができ、すぐにデバッグが可能です。もしブラックボックスであるニューラルネットワークに何十億もの自由に訓練可能なパラメータがあったとしても、人間にはそのシステムを読み解くことはできません。これが、このような手法をとる理由です。

確率的システムと企業が求める決定論的システム

私は、なぜAGIやASI、あるいは人工超知能と呼ばれるものが必要なのかというこの特定の神話に対する解決策をすでに見つけていました。AIにおける絶対的な真実は、神経記号AIの中にあるのです。私はただ次のレベルでそれを本当に理解できていないだけでした。

なぜでしょうか。何が起きているのでしょうか。考えてみてください、私たちには2種類のAI学習があります。パラメトリックな学習、つまり先ほどお話しした教師ありファインチューニングや、検証可能な報酬構造を伴う強化学習によるテンソルの最適化です。素晴らしいことです。私たちはすべての知識をテンソル行列自体の数学の中に焼き付けています。

そして今私たちがやっていることは、LLMの外部環境を変えることだけです。LLMのモデルの重みは凍結されたままですが、私たちは今、完璧な外部ツールを構築しています。誤解しないでください、Lean 4のような数値ソルバーのような素晴らしいツールに向かっているのです。AIが何をすべきかを正確に定義する新しい決定論的スクリプトを開発し、後で人間が読んで実行できる、完全に決定論的なワークフローやスキルへと移行しています。ニューラルネットワークの複雑さと知能による恩恵はすべて失われてしまいます。なぜなら、私たちは今ワークフローやスキルMDファイルをハードコーディングしているからです。

「なぜそれが理にかなっているのか」と皆さんは言うでしょう。私たちには競合する2つのシステムがあります。左側には、美しい確率分布を持つニューラルネットワークがあります。これはもう統計学の極みのようなもので、これらのシステムを使って理論的に導き出せるものは驚くべきものです。

そして反対側には産業界があります。顧客がいて、AIにお金を支払うはずの企業や会社が存在します。もしあなたがAnthropicやOpenAIで、これらのシステムを構築しているとしたら、何が起きているか分かっているはずです。週末に、特にOracleで働いていたものの解雇されてしまった同僚たちと話しました。

そこには単純な真実がありました。どの企業も、純粋な確率的AIシステムにはお金を払わないということです。考えてみてください。なぜその決定が下されたのか理解できない確率分布を持つシステムにお金を払うでしょうか。純粋に決定論的なワークフロー、つまりスキルMDマークダウンファイルは決定論的なファイルであり、ルールベースのスケジュールであり、従うべきテンプレートです。そこには自由はありません。機械が何をすべきか正確に把握できるのです。

これがAIの発展の形です。AI企業に対する経済的なプレッシャー、特に彼らが新規株式公開(IPO)に向けて準備を進めている現状を考えると、私たちがこの方向に向かっているのは明らかなようです。

AGIではなく完璧なスキルファイルの大量生産こそがAIの未来

これが私の洞察です。シンプルですね。実を言うと、私は自分のAIマシンたちと対話しているんです。ええ、これで皆さんにバレてしまいましたね。これが私が投げかけたプロンプトです。これはGemini 3.1 Pro Maxでした。

私はこう結論づけました。「LLMの知能とLLMの学習から、LLMの外部にある愚かなハーネスの知能への移行、つまりスキルのためのマークダウンファイルやベリファイア付きの短いPythonコードへの移行は、AI企業が純粋な統計的LLMを産業界に販売できないから起きているのだ。したがって、Anthropicなどの企業がAIシステムを販売するために必要なのは、決定論的でルールベースであることだ。確実に仕事ができることだ」と。

LLMは指示に従うかもしれないし、そうでなければ人間との言語的インターフェースに還元されてしまうということを私たちは知っているので、検証可能で信頼できるシステムが必要です。しかし、これは私を悲しい気持ちにさせます。LLMの知能を、コールセンターの人間への代替としての会話における言語UIだけに還元してしまうのは、あまりにも悲しいことではないでしょうか。純粋なタスクの複雑さは今や、スキルMDファイルに包まれたルールやテンプレートに決定論的にエンコードされているのです。

したがって、定義されたルールと手順がテンプレートとスキルマークダウンファイルに指定されているため、LLMはこれ以上訓練される必要も、より知能を高める必要もありません。AIにお金を払う顧客にとって、高い知能は必要ないのです。月に20ドルや200ドルを払う個人の話をしているのではありません。月に1000万ドルや1億ドル規模の産業展開の話です。

私は自分のAIに「私の考えを追いかけ、私の議論を理解できるか」と尋ねました。その回答のスクリーンショットが2つありますが、本当に面白いものです。Geminiはこう返してきました。「エンタープライズの現実について、あなたの言う通りです。産業界は、金融、医療、航空などのミッションクリティカルなタスクに、純粋な統計的LLMをスケーリングさせることはできないし、そうしないでしょう」と。

統計的モデルは本質的にゼロではない幻覚(ハルシネーション)率を持っています。たとえモデルの精度が99%であっても、何百万ものエンタープライズデータベース操作を実行する場合、その1%の失敗率は壊滅的な結果を招きます。

AIの持つほぼ無限の能力を、確率分布の観点から決定論的なマークダウンのスキルMDファイルとシンプルなPythonスクリプトへとエンコードすることを強制することで、エンタープライズが抱える信頼の問題を解決できると、このAIは私に語りました。理由は3つあります。

一つ目は監査可能性です。社内のコンプライアンス担当者はPythonスクリプトを読むことができます。Oracleでは、機械が何をしているかを正確に確認できます。しかし、何十億ものパラメータを持つニューラル行列を読むことはできません。

二つ目は決定論です。AIがデータをソートするスキルを実行する場合、Pythonインタープリタは数学的に毎回正しく実行されることを保証します。したがって、LLMは単なるルーターへと還元されるのです。

「あなたの言う通りだ」とAIは私に告げました。私はそれが好きではありませんが、仕方のないことです。LLMは今や、多かれ少なかれ言語インターフェースに還元されています。データセンターが必要だと言いながら、技術の進化は決定論的なマークダウンファイルへと向かっているのは、考えてみればおかしな話です。

実行時におけるAIの唯一の仕事は、ユーザーのプロンプトを理解し、ライブラリから正しいスキルMDファイルを選択し、データをPython関数に渡すことだけだとAIは言います。これがAIの仕事のすべてです。あとは少し人間と言語的な会話をすることくらいでしょう。

そしてさらに面白いことに、AIはこう言ってきました。「でも待って。じゃあなぜ私たちにはまだ超知能のLLMが必要なんだろう?」と。その理由は明確です。誰かがそのスキルMDファイルを書かなければならないからです。

例えばOpus 4がスキルファイルを書くとしましょう。そして、Opus 4のスキルファイルをHaiku 4.5に移植したとします。見てください、特定のタスクに対するスキルファイルによるパフォーマンスの向上は驚異的です。Opus 4.6のスキルファイルをDeepSeek version 3に適用することさえできます。そうすれば、DeepSeek version 3はその特定のワークフローをはるかに高いパフォーマンスで実行できるようになるのです。

もちろんそうでしょう。しかし、これは何を意味するのでしょうか。産業統合において、スキルファイルが書き出されるまさにその一瞬、コーディングの目的を除いては、Opus 4.6のようなモデルが必要だということです。

今日の研究の著者は、人間の作成するスキルファイルよりも優れたものを作成できるため、エージェントが必要であり、この超知能が必要であると主張しています。私は確信が持てませんが、まあいいでしょう。AIシステムを数日、数週間、数ヶ月と稼働させ、考えられるあらゆるスキルの組み合わせを順列で試していけば、おそらくサブスキルの全く新しい構成を見つけることができるかもしれません。

金融、自然科学、ヘルスケア、ソフトウェアエンジニアリング、研究、エネルギー、ロボティクスといった一般的なタスクの結果が示されています。彼らはこう言いたいのです。「見てください、人間が作成したスキルファイル(白とピンクで示されているもの)はあまり良くありません。青色で示された、私たちの新しい手法によってAIが生成し、自己進化させたスキルのほうが優れているのです」と。

自己回帰的な次のトークン予測を行うトランスフォーマーアーキテクチャや、拡散モデル、あるいはMambaモデルから、AIの知能をLLMの外部、エージェントを取り巻くハーネスへと移行させようと彼らが主張していることがわかるでしょう。

そして外部環境に、産業界が信頼する決定論的システムを構築するのです。なぜなら、ワークフローがステップ1から7までであることを正確に決定でき、常に1から7まで実行されることが保証されるからです。超知能AIの唯一の役割は、新しい会社に初めてスキルMDファイルを導入する際に、その会社の新しいタスクに合わせて適応させることだけになります。

それ以外は、スキルMDファイルのための自己進化システムが存在するため、LLM内に運用上の知能は必要ありません。決定論的な運用知能のパフォーマンスをスキルファイルに移植したからです。理解はできますが、これがAIの未来だとは思えません。

その後、私は自分のAIシステムとさらに議論を交わしました。皆さんも私と一緒に笑っていただいて構いません。私自身もこれを笑い飛ばしているくらいですから。AIは最後にこう言いました。「つまり、あなたは応用AIの最終目標が、リアルタイムで動的にすべてを処理するAGIやASI、ハイパーインテリジェンスのような神のような頭脳を構築することではないと認識しているようですね」と。

だからこそスーパーコンピューターセンターが必要なのです。しかし、もし私たちが何十億ドルもの収益を生み出し、利益を出せるAI企業を望むのであれば、それが私たちが目指している方向ではありません。なぜなら、誰もそんなものにお金を払わないからです。軍事部門くらいなものでしょう。

したがって、私のAIはこう言いました。「最終目標は、高度な知能を持つニューラルネットワークを使用して、完璧な、そしてここからが驚きですが、決定論的なソフトウェアスキルを自動的に大量生産することです」。AIがこの特定のトピックについて本当に私に同意したことに、私はただただ圧倒されました。

皆さんはいかがお考えですか。どう思いますか。ぜひコメントを残してください。楽しんでいただけたなら、そして何か新しい発見や、批判的な視点を得ていただけたなら幸いです。それでは、次回の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました