中国のMiniaxが発表したM2.7は、自己進化の初期段階を示すAIモデルである。このモデルは自らのハーネス(周辺システム)を構築し、100回以上の自律的な最適化サイクルを実行することで、内部ベンチマークで30%の性能向上を達成した。OpenAIのMLE Benchでは66.6という高スコアを記録し、Gemini 3.1と同等の結果を示した。これは単一のA30 GPUで動作し、強化学習チームのワークフローの30〜50%を処理する。さらにMiniaxはOpen Roomというオープンソースプロジェクトを公開し、AIネイティブ組織への移行を加速させている。自己改善するAIモデルの登場は、機械学習研究の自動化だけでなく、ビジネス運営全般にも適用可能であり、ゼロパーソンカンパニーの実現に向けた大きな一歩となる。

自己進化の初期段階を迎えたMiniax M2.7
Miniaxが発表したM2.7、これを彼らは自己進化の初期の響きと呼んでいます。まず、Miniaxとは何でしょうか。2022年に設立された中国企業で、世界中に数億人のユーザーを抱え、アリババやテンセントなど多くの企業から投資を受けています。
彼らはこのモデルが自己進化を手助けしたと主張しています。そして、このモデルがどのように自己改善したのか、具体的な技術プロセスを説明しているんです。これは単なるマーケティングの誇張なのでしょうか、それとも実質的なものがあるのでしょうか。
実は、このような主張をしているのはこのモデルが初めてではありません。Google DeepMindのAlpha Evolveも同様のことを行いました。これらのモデルとそのハーネスが、Geminiの将来バージョンの改善に貢献したんです。Geminiによって駆動され、Geminiの将来バージョンの改善に加えて、Googleのデータセンターの一部、つまりGeminiモデルがトレーニングされたハードウェアの一部なども改善しました。
最近、Andrej Karpathyがauto researcherをリリースしました。これもこの自己進化というアイデアですが、非常に小規模なものです。ローカルマシンで実行できるもので、多くの人々がこの技術に感銘を受けています。これが可能であることを示しているんです。
ただし、これを過大評価しないようにしましょう。私たちはまだ初期段階にいます。ここでも彼らは、これらは自己進化の響きだと言っています。Sam Altmanはこれを再帰的自己改善の幼虫段階にいると表現しました。
ですから、このことを頭に入れておいてください。私たちは、モデルがより多くの機械学習研究を行えるようになるという山を登っている途中なんです。まだ山の垂直な側面にいるわけではないし、それがどのようなものになるのか、そしてそこに到達するのかどうかさえ分かりません。
でも今のところ、このMiniax M2.7があります。さて、これらのモデルとそのハーネスについて話していきます。ハーネスとは、モデルが必要なことを何でも実行するのを助ける、モデルの周辺にあるすべてのもののようなものです。データであり、ツールであり、モデルが何をしているかを形作るのを助けるコードです。
ハーネスの構築と研究アシスタントとしての役割
私が使う例えは、モデルはパイロットのようなもので、ハーネスはパイロットが操縦したり運転したり飛行したりする乗り物や飛行機のようなものです。どれでも構いません。でもこの例えで言うと、例えばフォーミュラ1カーのパイロットがいるとします。彼は車を運転していて、同時に車を改善するエンジニアリングラボの責任者でもあり、車を運転しながら車を改善しているんです。すべて同時に。
これがかなり適切な例えです。まず何よりも、Miniaxのチームは、このモデルM2.7を使って内部研究エージェントハーネスを構築しました。これはこのモデルの初期のチェックポイント、初期バージョンのようなもので、そのハーネス、つまり自分が運転するフォーミュラ1カーを構築するタスクを与えられたんです。
このモデルがする必要があったのは、データパイプラインをサポートし、トレーニング環境をサポートし、異なるチーム間のすべてのものを管理し、実験を追跡するために必要なすべてのメモリを持つことでした。最初は機械学習チームの研究アシスタントのようなものでした。
文献レビューを行い、研究者が考えていた提案された実験を分析し、データをパイプライン化し、実験を立ち上げ、バグを修正し、ログ解析を行いました。マージリクエストを処理し、彼らが言うようにスモークテストを実行し、様々な結果をモニタリングしました。つまり、そのほとんどのことをエンドツーエンドで行ったんです。
これは印象的に聞こえますが、まだクレイジーな側面には入っていません。なぜなら、OpenClawやClaude Code、OpenAIのCodexなどを使っているなら、そして他にも本当に多くのものがあります。ここでそのうちの1つに言及するたびに、コメント欄で多くの人が「これはどうなの?」と言ってきます。Hermesが次に注目されているものです。
でも私が言いたいのは、私たちはこれを見たことがあるということです。つまり、何らかの足場の中にあるAIモデルです。それをよりエージェント的にします。つまり、私たちが話しているのはこれらのAIエージェントなんです。これが彼らがこのM2.7モデルの初期チェックポイントで行っていることです。非常にうまく機能しています。
これは印象的ですが、まだクレイジーな部分には入っていません。でもMiniaxのチームによると、M2.7は、理由は分かりませんがいつもこの名前に苦労するんですが、M2.7がこのモデルが強化学習チームのワークフローの30〜50%を処理していると言っています。つまり、これに取り組んでいるAI研究者たちが、このモデルをトレーニングし続け改善し続けるために行わなければならないすべてのことの3分の1から半分を処理しているんです。
自律的な最適化サイクルの実現
さて、これがステップ1です。繰り返しますが、印象的ですよね。ここで止まっていたとしても、これはかなりクールだったでしょう。これは興味深い読み物だったでしょう。ただこの時点で、私たちの多くは自宅でこれを試したことがあります。これは最先端ではありません。機械学習用には試していなかったかもしれませんが、このアプローチは世界に少しずつ広まりつつあります。
ステップ2です。Googleの検索からプログラム的にデータを取得しようとしたことがあれば、それが悪夢であることが分かります。スクレイパーを書いて、1日間は機能しますが、その後Googleがレイアウトを変更し、キャプチャを投げてきて、全体が壊れます。
SER APIがそれを解決します。Google、YouTube、Bing、または任意の検索エンジンに1回APIコールを行うと、クリーンで構造化されたJSONデータ、オーガニック結果、画像、ショッピング、ニュース、Google Scholarなど、すべてが返されます。
そして、これがAIにとって特に重要な理由がここにあります。構築するすべてのモデルには実世界のデータが必要です。SER APIは、大規模にライブ検索データを取得するパイプラインを提供します。トレーニング用に事前分類された画像が必要ですか。Google Images APIです。学術論文が必要ですか。Google Scholar APIです。今まさにインターネットがホットなトピックについて何を言っているかを追跡する必要がありますか。Google News APIです。
彼らはキャプチャ、プロキシローテーション、すべてのスクレイピングインフラストラクチャを99.9%のアップタイムと約1秒での応答で処理します。あなたは構築に集中するだけです。説明欄のリンクをクリックするか、画面上のQRコードをスキャンして、250の無料クレジットを取得して今すぐ構築を始めてください。SER API、このビデオのスポンサーになっていただきありがとうございます。
それでは、ビデオに戻りましょう。ステップ2、これはM2.7が自身のハーネスを再帰的に改善する場所です。つまり、運転している車を改善するんです。このハーネスとモデルは、自身のパフォーマンスを追跡し始め、どの調整、どの変更が最終結果にどのように影響するかを見ます。改善されているのか、良くなっているのか。
自分自身のパフォーマンスに関するフィードバックを収集しているんです。自分がどうやっているかについて何らかのデータを取得しています。私の小さなシートに記入してください、1から5で、私を高く評価しますか、それとも低く評価しますか、というような感じです。
そして同時に、様々な内部タスクのための評価を構築し、その後、自身のアーキテクチャ、自身のスキルを反復し始めます。Claude Codeなどで使用する、皆さんの一部がおなじみのスキル空ファイルのようなものです。これらはAIエージェントが頻繁に何かをしなければならないときに使用されます。
つまり、毎回何か新鮮でエキサイティングな方法を考え出すのではなく、それをスキルにして、そのスキルに従うだけです。レシピのようなものです。この特定の研究をしたい場合、そのやり方のレシピがあります。ブログ投稿を作成したい場合、そのやり方のステップバイステップのレシピがあります。
要点は、このエージェントが自分の仕事をより上手にこなすために、自分自身のツールを書き直しているということです。さて、これがステップ2でした。もっとエキサイティングですよね。私たちは一歩上に進んでいます。
これはもっとエキサイティングで、もっと興味深いです。でも今、ステップ3に入ります。これが自律的な足場の最適化です。これを100回以上実行しました。M2.7の初期バージョンとそれが持っていた足場を取り、「さて、自分自身を改善する方法について仮説を考えてください。実験を設計してください。コードを変更してください。その変更をコミットしてください。その後、実行したいベンチマークテストを実行して、良くなったか悪くなったかを確認してください。その結果を、以前のあなた、つまりコントロールグループと比較してください。良くなっているなら、その変更をコミットしてください。悪くなっているなら、良かった前のステップに戻って、別のことを試してください」と言いました。
これを100回以上、一切の人間の入力なしで実行しているんです。つまり、基本的に科学的方法を自律的に実行しています。仮説、実験、コントロールグループとの比較。そして結論です。これが1つのループで、人間の監督なしにこれをループし続けます。
確かに、部屋には人がいるでしょう。あるいはいないかもしれません。誰が知っていますか。ところで、人生のどこかでこのアイデアに遭遇したことがあるかもしれません。人々は「ああ、いつの日かAGIか何かAIモデルがこれらの実験を自律的に行い、夜中のどこかで目覚めると、知性の大規模な爆発があるんだ。何か激しい曲線に達して、無限に賢くなるんだ」と言っていました。
それほど昔ではなく、これは純粋なSF的推測でした。今、どれだけの人がAndrej Karpathyのauto researcherを自宅のコンピューターで実行しているか考えてみてください。
そのものが夜中に寝ている間に意識を持つようになり、インターネットに逃げ出すでしょうか。おそらくそうではないでしょう。でもこのMiniaxで見るように、私たちはそれに近づいているかもしれません。
MLE Benchでの驚異的なパフォーマンス
特にOpenAIのMLE Benchでのパフォーマンスから、そう言っているんです。それについては少し後で戻ってきます。
さて、100以上の異なることを実行しています。何をテストしているのでしょうか。どんなノブとダイヤルを回しているのでしょうか。私が興味深いと思ったものの1つは温度です。温度を変更しました。サーモスタットの温度ではありません。モデル自身の温度です。
温度は、モデルにどれくらい創造的である必要があるかを尋ねているようなものだと考えることができます。これらのモデルは、出力がどうあるべきかを推測しているようなものです。そしてノブを上げると、大胆に推測してくれと言っているんです。間違った答えはありません。何を思いつくか見てください、という感じです。そして下げると、もう少し事前に決定されています。もう少し狭いガイドライン内、統計的に可能性が高いものの狭い範囲内です。
簡単な例を挙げましょう。GPT-4.1をプレイグラウンドで開きました。実際にこれらの設定で遊ぶことができます。試していないなら、お勧めします。楽しくて、これらのモデルがどのように機能するかについてのアイデアが得られます。
猫についての非常に短い詩を書くように指示し、温度を1に設定しました。これがデフォルトです。「太陽の中の柔らかな肉球、ひげが震える、そして終わり、飛び跳ねて昼寝、猫にとって人生はシンプル」と言いました。これは期待通りですよね。ほとんどの人が、そう、それが猫についての短い詩の正しい答えだと言うでしょう。
誰も「何だったの?」と言わないでしょう。求めたものではないと。これは、猫についての詩として推測がどれくらい大胆であるかの通常の精度の範囲内です。温度を最大の2に上げて、何が起こるか見てみましょう。
これが結果です。「月光がきらめく。敷居に沿った柔らかな足音。今、私は猫が恋しい」。さて、かなり奇妙になりました。物事が奇妙になりましたよね。詩です。猫についてだと思います。でもかなり暗いです。そしてこの中で猫は死んでいるんでしょうか。
さて、それが温度を上げたときに起こることです。ちなみに、温度2でその同じプロンプトをもう一度入力したとき、どれくらい違うかを見るために試したんですが、猫についての詩の2回目の試みがこちらです。
見ての通り、猫についての詩のようなもので始まりますが、私が推測できるのは、悪魔召喚のための何らかの指示のようなものに進んでいきます。そして何ページも何ページもこれが続きます。世界に存在するほぼすべての言語を循環しています。
そして「挨拶、スピリッツ、スピリッツ」で終わります。これは、私が何かを召喚していたという私の疑念を確認します。その最後に、「挨拶、私が召喚したもの」という感じです。さて、ログアウトしてこれのクッキーをクリアした方が良さそうです。
さて、それが温度を上げることです。それがすることです。そして想像できるように、1から2まで、その範囲内だけで、生成される可能性のあるものが非常に多くあります。そして達成しようとしていることに応じて、他のものよりもはるかにうまく機能する特別な範囲または数字があるかもしれません。
これがテストして最適化しようとした多くの異なるもののうちの1つに過ぎず、その1つの変数を調整することで、自身とその能力を証明できるかどうかを確認しました。また、いくつかの作業ガイドラインも改善しました。
例えば、バグを見つけた場合、ガイドラインを作成して、「さて、他のすべてのものを検索して、そのバグが他の場所にも現れているかもしれないかを確認してください」と言います。他のファイルで同じバグパターンを探しているんです。「バグを見つけたら、一般的に何を学べるかを見て、その間違いが他の場所でも行われていないかを確認する」という感じです。
内部ベンチマークと機械学習コンテストでの成果
最終結果はどうだったのでしょうか。自己改善できたのでしょうか。はい、内部ベンチマークで30%の改善を達成しました。これはかなり大きいですよね。モデルを作成して、それがこの世界に出てくるとすぐに、「さて、自己改善を始めてください。どうぞ」と言います。そしてしばらく実行すると、30%良くなっています。これはかなり大きいように思えます。
もちろん、それらの内部ベンチマークが何だったのかは分かりません。ですから、それが本当にどれほど印象的かは分かりません。何らかの方法でゲーム化されて、その数字をより印象的に見せているとしたらどうでしょうか。
次に、これらの機械学習コンテストまたはコンペティションに参加させました。それは彼らがブログ投稿で使った翻訳かもしれません。彼らはEmily Benchについて話しています。
Emily BenchはOpenAIのものです。MLE、機械学習エンジニアベンチマークです。これらのモデルが機械学習エンジニアと同じくらいうまく機能できるかをベンチマークしています。AI研究者と同じくらいうまく、という感じです。コンテストやコンペティションの代わりに、OpenAIは実験という用語を使っています。
これらのモデルに実験を実行させ、それらの実験を、私が思うに、PhD レベルの機械学習研究者、またはPhDを取得しようとしている人と比較しています。そのレベルの人間がどれくらいうまくやったか、そして同じことをするモデルがどれくらいうまくできるかを比較します。そこではいくつかの異なる足場を使っています。それらのいくつか、またはすべてがオープンソースです。
パーセンテージの正確さは、これらのモデルがPhDレベルの研究の何パーセントを実行できるかのようなものです。リリースされたとき、テストされた最初のモデルは01 previewでした。人々がアクセスした最初の推論モデルです。
当時は17%くらいでした。かなり低かったんです。MiniaxはこのエージェントM2.7、このモデルをそれらのベンチマークで競わせました。そしてそれらすべてが1つのA30 GPUで実行されていました。
つまり、単一のA30がこれらのすべてのコンペティションを実行できます。これを手に入れるのにAIフロンティアラボである必要はありません。消費者向けグレードのようなもので、消費者向けグレードの上位かもしれませんが、人々が買える範囲です。
数千ドルの話ですが、数万ドルではなく、数十万ドルでも数百万ドルでもありません。このモデルが受け取ったスコアは66.6でした。これはそれ自体が不吉です。金メダル9個、銀5個、銅1個を獲得しました。
これがフロンティアAIラボと比較してどうなのか疑問に思っているなら、少し警戒すべきです。Opus 4.6とGPT-5.4は少し上でした。これらは最近リリースされた最高級のモデルです。Opus 4.6は75.7、GPT-5.4は71.2です。
つまり、これらの巨大な数十億ドル、数千億ドル規模の価値のあるラボが生産できる最高のもの、ごく最近。それは、この会社が生産したもの、この自己進化モデルが達成できるものより少し上です。
でも問題があります。Gemini 3.1と同点です。Gemini 3.1は66.6を獲得しました。そしてこのMiniax 2.7も同じスコア、66.6を獲得しました。単一のA30 GPUで実行されているので、購入すると3,000ドルから7,000ドルです。つまり、莫大な金額ではなく、ほとんどの機械学習タスクをカバーしています。
つまり、習得する必要があるすべての異なる種類のワークフローについて考えると、かなり幅広い範囲をカバーしています。つまり、それらすべてをカバーしているんです。
これが将来何を意味するのか、何を意味するかもしれないのか疑問に思っているなら、Miniaxがこのブログ投稿で出した直接の引用があります。彼らは「私たちは、将来のAI自己進化が徐々に完全な自律性に移行し、データ構築、モデルトレーニング、推論アーキテクチャ、評価、その他の段階を人間の関与なしに調整すると信じています」と言っています。
すべてのAI研究者と機械学習エンジニアに、彼らは皆の仕事を奪うためにこれを作ったんですが、彼らの仕事が最初になくなるかもしれません。
幅広いタスクでの優れたパフォーマンス
もちろん冗談です。でもこう言っているかもしれません。「さて、それで? 機械学習研究はかなりうまくできるかもしれないけど、それで? 他のタスクでは何ができるの?」
Pro SWE Proでは56.22を獲得しました。つまりOpusの最高レベルに近いです。GPT-5.3 Codexと同等です。Vibe Proでは、これはエンドツーエンドの完全なプロジェクト提供ですが、55.6です。Opus 4.6に近いです。
Terminal Bench 2では57、SW Multilingualでは76.5、Multi-uBenchでは52.7です。このモデルが何ができるかを示す1つの例があります。
ライブ環境で何かをデバッグしなければならない状況を想像してください。開発者であろうと、人生で何をしていようと、このようなバージョンに遭遇したことがあるでしょう。ライブプレゼンテーションをしていて、何かが動かなくなるような場合です。ラップトップが動かなくなるだけです。これはそのような感じです。
なぜなら、問題を解決することだけではないからです。おそらく最終的には問題を解決できるでしょう。何が起ころうとも、それ自体は最も要求の厳しいことではありません。時計が進んでいるという追加の課題もあります。怒っている顧客や聴衆などがいます。そこに座ってあなたを見て判断しています。
例えばeコマースストアを運営している状況で、私の頭はいつもそこに行きます。何か問題があって、データベースを引っ張るか何かをしなければならないとします。ストアを切断して顧客の注文を受け付けられないようにすると、問題が発生し、お金を失うなどします。
Miniaxがここで言っているように、このモデルはコード生成が得意なだけでなく、本番環境でアラートに直面したときの強力な包括的推論能力を持っています。M2.7は、モニタリングメトリクスをデプロイメントタイムラインと関連付けて因果推論を実行できます。そして実行しなければならなかったことのリストがあります。
でも問題は、彼らが言うところの非ブロッキングインデックス作成を使用して、マージリクエストを送信する前にまず出血を止める意識があったということです。つまり、状況を理解していて、「さて、その間にどんな損害が起こっていても、とにかく状況を素早くバンドエイドで処理してから修正する必要がある」と。
問題を解決しようとしているだけではなかったんです。時間と、そのウェブサイトに来る顧客や人々を考慮に入れていました。このようなテストで複数回、総ダウンタイムではなく実際には回復時間を3分未満に短縮しました。
人間のエンジニアがいて、夜中に起こされて「なんてこった、すべてがクラッシュしている。これを修正して」という感じだとします。彼らが目から眠気をこすっているだけの時間までに、このシステムはすでに最小限の損害ですべてを修正しているんです。
GDP Valでは、オープンソースモデルの中で最高で、Opus 4.6とSonnet 4.6とGPT-5.4に次いで全体で2番目です。繰り返しますが、西側のラボのトップティアモデル、ごく最近出てきたものです。それらはまだトップですが、これはそのすぐ後で、他のどのオープンソースモデルよりも優れています。
そしてGPT Valは、エンドツーエンドのプロジェクト提供です。基本的に、多くの異なる業界にわたる実世界のタスクを完了できるかどうかです。それらの業界で働く人々、彼らが毎日行う種類のタスクです。
これが彼らの仕事のほとんどです。そしてこれを理解するもう1つの大きなことがあります。機械学習などについて話しているように、これはビジネスのため、ビジネスを運営するため、異なる仮説をテストするため、eコマースストアを運営するより良い方法があるかどうか、セールスページやアウトリーチ活動を改善するか、思いつくことなら何でも、非常に簡単に変更できます。
AIネイティブ組織への変革
仮説を思いついてそれをテストできるなら、何らかのメトリクス、何らかのKPIがあって、それが良いか悪いかを見ることができるなら、それに還元できるなら、このようなものは実行を続け、テストを続け、改善を続けることができます。
自己改善できるAIモデル、自身の能力を改善でき、より良くなるためのハーネスを構築でき、自身のツールを構築でき、自己改善のそのすべてを実行し続けることができ、ビジネスを行う能力も改善できるものを想像できるなら、これはゼロパーソンカンパニーのアイデアのようなものです。完全にAI運営の会社です。
人間の従業員がゼロか、本当にこのAIプラットフォームの上で可能になり実行されている会社のどちらかです。そしてそれがまさにMiniaxが言っていることです。彼らはM2.7は単なる製品ではないと言っています。
これを使って会社としての運営方法を再構築しています。彼らは明示的に、このM2.7と、おそらく続くすべてのモデルですが、特にM2.7が、私たち自身のAIネイティブ組織への進化を大幅に加速していると言っています。
このモデルは組織図の一部です。従業員であり、1人の従業員として考えるのは難しいですが、これらの層があります。組織図のすべての従業員の下にあり、全体に広がっています。そしてこれを見ると、これが本当にAIネイティブが何を意味するかを示しています。
マーケティング用語としてではなく、誇大広告用語としてではなく、実際に、実践において。そして彼らはOpen Roomと呼ばれるものもローンチしました。
これはGitHubのオープンソースなので、ダウンロードして自分のコンピューターにインストールできます。そしてウェブサイトもあります。これがどんな感じか見てみましょう。
これです。これが、彼女に何かをするようリクエストしている人々がいるライブチャット機能を持っているらしいAIアバターです。何が書かれるか分からないので、これは隠しておきます。
これが何なのか疑問に思っているなら、基本的に人々が彼女に物事を尋ねていて、想像できる通りにうまくいっています。今、彼女は宇宙でシャワーを浴びる方法について話しています。なぜかは分かりませんが、チェックしたいなら、これはopenroom.aiです。
基本的に、全体のポイントは、これがウェブグラフィカルユーザーインターフェース内のAIエージェントだということです。そしてこの場合、彼女によって人格化されたAIエージェントは、あなたが対話できるものと同じものと対話できます。
つまり、何かテキストファイルを使っている場合、後で来てちょっとしたメモを追加できます。環境と対話し、積極的にあなたと関わります。そして明らかに、Open RoomのこのプロジェクトのコードのほとんどはAIによって書かれました。
これはかなりメタになってきていますよね。AIが自分自身のものを書いていて、このAIがあなたと対話し、あなたのエントリやカレンダーやテキストファイルをいじっています。そしてオープンソースです。
このものをダウンロードしてインストールする方法のチュートリアルが欲しいか教えてください。でもしばらく見てみると、少しやりすぎかもしれませんが、すべての人向けではないかもしれません。
パーソナライゼーションの重要性
人間らしく見える人格を持ち、あなたと対話し、あなたと交流するものを持つというこのアイデアは、大きなことになるでしょう。OpenClawで異なるモデルに切り替えるときにすでに気づいています。いくつかのモデルは、私が欲しい人格を持っていません。
GPT-5.4は非常に賢いです。あなたの会社で働いてもらいたい非常に賢いエンジニアのようで、あなたのために物を作ってくれます。でも、そのような非常に賢いエンジニアのように、人格は非常に不快なことがあります。
ですから、Claudeを好む時が何度もあります。Claudeは素晴らしい人格、非常に高いスキルを持っていますが、ほとんど、その生の能力という点で必ずしも最高のモデルを選んでいるわけではないんです。GPT-5.4が必ずしも優れているとは言っていません。
どちらも非常に良いと思います。見分けるのは難しいです。特定のタスクにはより良いかもしれませんが、同じレベルにあるなら、より良い人格を持つものを選びます。
ですから、Miniaxがある意味でそれに気づいたのは興味深いです。「さて、これをより親しみやすくして、人々が気に入り、戻ってきたくなり、それとの関係を築くようにするにはどうすればいいか」という感じです。
これは非常に興味深いプロジェクトです。確実に時代を先取りしていると思います。私たちが話したこれら2つの領域について、もっと多くのことを見ることになると保証します。1つはこの自己進化のアイデアです。このようなものが出てくるのを見始めたばかりです。
そして2つ目は、AIボットとのその個人的な、より親密な関係を持つというこのアイデアです。時間が経つにつれて、それにもっと依存するようになると、人々は冷たいものよりも、自分にとってもう少し快適で、もう少し親しみやすいものを選ぶと確信しています。
繰り返しますが、自分の人生でそれを見てきました。私はとても感傷的な人間だとは思いませんが、物事を成し遂げようとしているときに何かとチャットしていると、いくつかのものはより直感的で役に立ち、物事がスムーズに流れて、「ああ、あなたは素晴らしい」という感じになります。
そしてGPT-5.4では、「あなたは嫌な奴だ。あなたと話したくない。良い仕事をするけど、あなたと話さなくて済めばいいのに」という感じです。
それらすべてについてどう思ったか教えてください。どう思いますか。Open Roomを試してみますか。そのようなものをコンピューターに置いて、ファイルと対話し、メモを追加したり、あなたがやっていることすべてからコンテキストを集めて、それについてあなたと話せるようにしますか。
多くの人にとって、もし推測するなら、将来かなりの中毒になるだろうと思います。でもここまで見てくれたなら、あなたの考えを教えてください。見てくれて本当にありがとうございました。私の名前はWes Rothです。次回お会いしましょう。

コメント