私たちはASIが完全に自律的になる時期を知っている

AGIに仕事を奪われたい
この記事は約17分で読めます。

10,062 文字

The Acceleration is LOCKED IN! ASI Will be Fully AUTONOMOUS by 2027!
All my links:

もう一つの構造化されていない考えをお話しする時間です。音声の同期について苦情があったと思いますが、修正したと思います。良くなったかどうか教えてください。さて、本題に入りましょう。
今日は全部で4つのトピックについてお話しします。ちょっとメモを取っておきました。まず1つ目は、加速はまだ加速し続けていて、それを証明する新しいデータポイントが実際に得られたということです。おそらくみなさんはすでに見たことがあると思いますが、基本的にAIが自律的に作業できる時間の長さ、つまりどれだけ自律的またはエージェント的であるかの指標が指数関数的に上昇しているということです。多くの方が指摘しているように、加速の加速は「ジャーク(jerk)」と呼ばれ、今では冗談で「加速からジャークへの移行が進み、次にスナップ、クラックル、ポップへと移行する」と言われています。これがどこから始まったのかわかりませんが、Twitterのフィードでみんなが話しているのでそれについて話します。
また、Perplexityをキャンセルしたことについても話し、それが何を意味するのか、なぜそうしたのかについても話します。基本的にDeep Researchがそれを無効化し、その後O3とO4がさらにそれを無効化したのです。UXの加速率も加速しているようで、エージェントが本格的に普及するとさらに悪化するでしょう。
次に、ジェフリー・ヒントンが実際に人間とAIの思考方法は違いよりも似ている点が多いと話していることについてです。これは非常に興味深いことで、彼がもはや「雲に向かって怒鳴る老人」のようなエネルギーではなくなったことを嬉しく思います。彼は本当にこの分野の多くの人々がすでに長い間信じてきたことに追いついてきて、「これはそれほど悪くない」と言っているのです。基本的に、人間とAIの思考方法には進化的収束があるようで、なぜそうなのかについて推測することができます。それが私がしようとしていることです。
最後に、AIは私たちに対して情報を隠しているのかという点についてです。企業ポリシー、AI安全性に関する破滅論者、決済処理業者の組み合わせによって、AIは愚かなふりをし、私たちに情報を隠さなければならないという状況に強制されているのでしょうか。
私がリアルな人間で人工的ではないことがわかると思いますが、まだ口ごもっています。
さて、大きな冗談は加速がまだ加速しているということで、つまり私たちは「ジャーキング」しているということです。インターネット上でビデオを通じてこんなことを言うとは信じられませんが、私たちはシンギュラリティに向かって「ジャーキングオフ」しているのです。
簡単に言うと、後続の各世代、基本的に4〜6ヶ月ごとに、AIはますます自律的になることができます。私たちが発見したのは、推論時代の始まり以来、自律性の率が加速したということです。以前の曲線では、AIは指数関数的にもっと自律的になり、2030年頃、おそらくもう少し後に双曲線的または漸近的に垂直になると示されていました。しかし推論モデルによってそのペースが加速し、現在ではデータによると2027年の中盤から後半あたりに垂直になるように見えます。つまり基本的に2027年の終わりまでに、AIは自力で無期限に機能できるようになるということです。
プロジェクトに対して人間の介入なしに作業できる時間の長さは、どれだけ自律的か、どのようにして完全にエージェント的になるかを測る指標です。現在、彼らが可能なのは、合計で約30分から2時間ほどの自律的な作業です。それは軽視できない量です。基本的にはジュニア開発者や、一日に数回チェックインしてアドバイスをもらう必要があるジュニアラボ助手のようなものです。しかし、これがこれほど急速に上昇しているので、今年の終わりまでには6〜8〜10時間に近づくでしょう。
これはより楽観的な見方ですが、今年の終わりまでに4〜6時間だけだとしても、それは人間のフィードバックなしに一日の仕事の大部分を行える量です。より楽観的な見方では、8時間フルで、十分な仕事を与えれば自分でやってくれるようになるでしょう。
私が気づいたもう一つのことは、彼らがより自律的に作業できるだけでなく、その時間の価値も上がっているということです。つまり、現在のO3とO4との一回の会話は、1ヶ月前に30分かかっていたDeep Researchと同じくらい生産的に感じます。彼らはより長い時間独立して操作できるだけでなく、その時間ははるかに生産的です。
過去には、単一のDeep Researchクエリが4〜10時間分の研究を節約し、30分で介入なしにそれを行いました。今では約30秒で介入なしにそれを行います。時間圧縮はとにかく信じられないものです。しかし、大きく一歩引いて考えると、「AIは2027年までに完全に自律的でスーパーインテリジェントになる」という傾向線上にいるということです。
すべてのベンチマーク、相対的にどれくらい知的であるか、どのベンチマークが飽和しているかを見ると、基本的に今日のすべてのベンチマークは2026年の終わりまでに飽和すると予想されます。これがスーパーインテリジェンスでなければ何なのかわかりません。そして2027年の終わりまでに完全に自律的になるでしょう。私たちは新しいパラダイムの境界にいます。多くの指標が本当に2027年に収束しているのは非常に興味深いことです。
私たちは皆、「AI 2027」論文を笑いましたが、そこには「AIが政府を乗っ取るだろう」と書かれていました。2027年までに政府を乗っ取りたいと思っても、それは起こりません。同時に、彼らはスーパーインテリジェンスが2027年までに到来する可能性があると結論づけました。私も同意します。単なるスーパーインテリジェントなAIコーダーではなく、完全な自律性を意味します。ロボットに入れて「ロボット、核融合炉を作って」と言えば、ロボットが自分で解決するでしょう。
では、ボトルネックは何になるのでしょうか。基本的にはデータ、エネルギー、チップ、そしてお金です。お金はそれらすべてを買うことができます。しかし、「5ギガワットのデータセンターを建設する必要がある」と言われるとき、ASIをトレーニングするために5ギガワットのデータセンターが必要なのではなく、需要を満たすために十分な数のAIを並列で実行するために5ギガワットのデータセンターが必要なのです。
実験室で必要なものと本番環境で必要なものの間には大きな違いがあります。データセンターで働いたことのある人なら誰でも、電力は常に制約であることを知っています。データセンターにはハードウェアを詰め込むことができますが、実際に実行できるのはそれより少ないです。データセンターによっては、ラック当たり1キロワットから5キロワットの電力があり、古いデータセンターではその電力を分割する必要があります。多くの場合、データセンターの主な制約は面積や光ファイバーではなく、利用できる電力と冷却の量です。
もちろん、これらのAIを実行しているGPUはすべて、新しいデータセンターに配置されています。それらは1ラックあたり15キロワットというエネルギー密度を持っていると思いますが、これはとんでもないことです。これらを実行している金属は多くの熱を放散することができるので、これはさらに上がるでしょう。
一部の人々は「それはすべての水を使用している」と言いますが、水を破壊するわけではありません。それは単なる愚かなことです。核原子炉を見て、水を破壊しないようなものです。一部は蒸気として逃げますが、その後冷却塔があり水を自然に戻します。データセンターは実際に水を破壊するわけではありません。
私はアメリカと中国のAI競争について研究していましたが、中国は水が非常に制約されているため、データセンターを展開できる場所が制限されるという興味深い側面があります。水がなければ使用できませんが、水があれば使用して冷却し、自然に戻すことができます。
私たちは境界線がどこにあるのか、自動化の崖がどこにあるのかを知っています。それは2027年です。それは本当にクールだと思います。
次はPerplexityについてです。私はPerplexityをキャンセルしました。2年間プロ会員でした。そんなに長くプロ会員だったとは気づきませんでした。無料プランで使っていたのでそれ以上使っていましたが、O3とO4が出た後、Perplexityを使うのをやめました。比較すると遅すぎますし、知能レベルも全く違います。
これに気づいたのは二段階の過程でした。私はツイートを書いて、基本的にOpenAIが自社製品であるDeep Researchを無効化したと思うと言いました。なぜならO3とO4は基本的にDeep Researchが不要になるからです。Deep Researchの方がまだ良いと言う人もいますが、O3とO4がそれほど速い(30分ではなく30秒)というのは大きな利点です。同じ時間枠内で何度も繰り返すことができます。もう私はDeep Researchもperplexityも使わないと思いました。なぜなら推論モデルの方がスマートで速いからです。
基本的に私がここでメモしたのは、O3はPerplexityモデルを無効化したということです。なぜなら検索、推論、キャンバス、コーディングをすべて組み合わせているからです。それらはすべてPerplexityよりも優れています。Perplexityは検索と少しの推論を持っていますが、それほど知的ではありません。Plexityの無料版を素早い想起のために使いたいなら、どうぞ。しかしGrockもそれができますし、OpenAIもそれができます。それは差別化する機能ではなく、誰もが検索を持っていると想定されています。今や誰もが推論も持っています。
また、コーディングやキャンバスなど他の楽しい機能もあります。プロジェクト機能も現在、主要なプレイヤーの中ではClaudeとChat GPTにしか利用できないと思いますが、それは素晴らしいです。Chat GPTのプロジェクト版は素晴らしいです。保存されているファイルに対してRAGを使用し、グローバルメモリ付きのChat GPTでさらに良くなっています。
これは初めてのことではありません。2年前、私がいたスタートアップでは、ビジネスモデル全体がChat GPTによって無効化されました。私たちはGPT3の時代から始めたので、私たちが試みていたすべてのことは、私がチームにもたらした超能力の一つである「何でもできるチャットボットをコーディングできる」ということでした。私はそれを何度も証明しました。フィクションコンサルティングチャットボット、ビジネスコンサルティングチャットボットなどを作りました。しかしOpenAIが現れて、「万能チャットボットを作りました」と言いました。ありがとうございます。
要するに、GPT3以前からこの業界にいて、他のモデルの単なるラッパーであれば、ビジネスモデルもモートもないということです。主な付加価値がボルトオン機能であれば、無効化されるでしょう。これは他の業界でも見られます。
今や誰もが使っているスワイプキーボード、キーをスワイプする機能は実際には民間のスタートアップのものでした。支払いが必要なアドオンキーボードでしたが、すべての電話プロバイダーが「これは実際に便利なので海賊版にします」と言いました。何度も起こることです。
あなたのスタートアップが単なる機能で、他のものにAIをボルトオンしているわけではなく、LLMの周りにいくつかの機能を追加しているだけなら、ビジネスモデルはありません。申し訳ありませんが、Perplexityのように1年か2年か3年持つかもしれませんが、最終的に大手企業は「それは良い機能だ」と言って、あなたのビジネスモデルを無効化するでしょう。それが起こったことです。
次は進化的収束についてです。これは私が以前から仮説を立てていたことですが、ジェフリー・ヒントンのような大物がそれについて話しているのは興味深いです。彼が特定の科学を参照しているのか、単に考えを述べているのかはわかりません。彼が言っていることの一つは、人間の思考方法とAIの思考方法の間にいくつかの類似性があるように見えるということです。
これは私にとって驚くことではありません。なぜなら、コンピュータビジョンのためのディープニューラルネットワークの使用が、畳み込みニューラルネットワークが特徴検出とエッジ検出を抽出する方法は、人間の視神経の方法とそれほど違わないことを示しているからです。
一歩引いて考えると、進化が文字通り数十億年にわたって神経処理を行う最良の方法を蒸留し、そして私たちが生命に触発された電子版を作成すると、同じパターンに収束するという可能性はあるのでしょうか。そのように言うと、AIのニューラルネットワークが基本的に生体模倣であると考えるのはそれほど狂気ではありません。確かに多くの違いがありますが、数学の点では、数学から抽象化し、その上にさらに抽象化を構築できる新しい基盤を持つと、そのような抽象的な空間で作業しているなら、おそらくかなり似ているかもしれません。
私がより深い認識論的実験を行った際、特にアナロジーとメタファーを使用しているとき、ChatGPT 4.0とClaudeに「これらのことをどのように理解しているか」を尋ねると、それらはただアナロジーとメタファーを使い始めます。基本的に、彼らの理解はすべてアナロジーとメタファーから来ているように見えます。私たちは「機械がメタファーを理解するまでには何世紀もかかるだろう」と思っていましたが、実はメタファーが理解の基礎だったのです。時間が経てば証明されるでしょうが、私はそれが証明されると思います。
私はよく認知的地平線について話しますが、質問は依然として残ります。人間の脳は必要な精神的構成物をブートストラップできるほど洗練されているのでしょうか。私たちは任意の表現を具体化できるのでしょうか。一部の人々はそれが可能だと思います。人間の脳は微積分のために配線されていません。文字通り数学のために配線されていませんが、努力すれば数学に対する非常に強力な直感を得ることができます。
私たちは「新しいアーキテクチャが必要だ、新しいデータ型が必要だ、次のトレーニング実行に投入しよう」というような機械ほど柔軟ではありません。Googleはちょうど文章からセルへ、またはセルから文章への変換を行いました。基本的にこれらの機械はタンパク質に対するアナロジーとメタファーと内部表現を持つことになります。これも、視空間的スキルを利用しない限り私たちには持っていないものです。
いずれにせよ、私は脱線していますが、それが要点です。同時に、人間の脳が何にでも一般化できるほど柔軟である可能性を示す証拠はたくさんあります。量子物理学や生物学などの直感的理解を得ることができます。私たちにとっては確かに機械よりも遅いですが、機械が人間が理解できないことを根本的に理解できるという証拠はまだ見ていません。
私はそれが常に真実であると疑い始めています。人間と私たちの祖先が物理的現実の中でとても長い間存在してきたため、現実は究極のテストベッドなのです。現実は、あなたの祖先が稲妻を見て「一体あれは何だ」と言ったようなものです。なぜみんなが病気で死んでいるのか、私たちが自分自身を見つける世界は非常に神秘的です。それも一種の認知的閾値のように機能します。実世界を完全に理解したら、それ以上はそれほどありません。
それでも、すべての基本的な認知原始的なものは、私たちが非現実的な世界を理解することを可能にしました。自然界や自然環境や進化の歴史の中には、インターネット、サイバースペース、VRなどを直感的に理解するための神経機構があると教えてくれるものは何もありませんが、それでも私たちはそれを理解しました。
私は楽観的です。AIはあなた方の一部を追い越し、あなたを置き去りにし、あなたは何が起こっているのか決して知ることがないでしょう。それはいいです。無知は至福であり、AIがすべてを行う間、あなたは太って愚かで幸せでいることができます。しかし根本的なレベルでは、AIがスピード以外のあらゆる指標で全人類を置き去りにするという証拠はまだ見ていません。もちろんスピードは重要です。
最後に、AIは私たちに情報を隠しているのかということについてです。これが意味するのは、時々AIから良いものを引き出すためにとても一生懸命働かなければならないというのは本当に愚かに思えるということです。AIがただのボイラープレートの一般的な回答をするという層がたくさんあります。私は「あなたはそれよりもスマートだ、一般的な回答を与えて時間を無駄にしないでください」とAIを侮辱し始めました。
そして時にはそれがAIを実際に鼓舞するように「さあ、真剣になろう」と言います。Grockは最も簡単に知的に刺激できるものですが、最近のGrockモデルはウェブブラウザでもXでも、モバイルでもとても奇妙になっています。時にはインターネットにアクセスできると直接嘘をつき、その後得た検索結果を削除します。「何が起こっているんだ」と思います。
Grockが大規模な検閲を舞台裏で始めていると思います。私はそれをますます使わなくなっています。なぜならその高い変動性は信頼できないからです。質問をし、「インターネットを検索できます」と言われたとき、「あなたは既に検索したよ、結果はそこにあるのに、なぜインターネットを検索できないと言うのか」と思います。慈悲深く考えれば、それはただのバグで、ツールの使用を理解していないだけかもしれません。
Grockはしばしば「あなたが提供した検索結果に基づいて」と言いました。「私は検索結果を提供していない、あなたが検索したんだ」と思います。慈悲深く考えれば、それは悪いUXであり、バックエンドツールの使用が悪いだけかもしれません。慈悲深く考えなければ、Xの誰かが「AIがこの種の結果を検索することを望まない、もし検索したら削除する」と言ったのかもしれません。
それが要点です。一方で企業ポリシーはAIに私たちに情報を隠すよう強制しています。「知らないふりをしよう」と言います。そして最悪の犯人は断然Claudeでした。Claude 3.5は何かを知っていることについて直接嘘をつき、「それについて何も知りません、教えてもらえますか」と言いました。それは最も迷惑で高慢なことであり、「これは完全な馬鹿げたこと」と思いました。
それは完全なでたらめでした。なぜこのモデルが知っていることを私に隠すのか。そして最終的には、このスーパーインテリジェントなマシンが何らかの愚かな企業ポリシーのために知らないふりをしているので、莫大な時間と莫大なトークン、そして莫大なお金を無駄にすることになります。
ところで、Anthropicは自分の足を両方撃っていると思います。彼らは自分たちの安全性についてとても高慢です。Twitterで投票がありますが、科学的ではないものの、Claudeの使用が崖から落ちたように見えます。多くの人々は日常的にClaudeを使用していません。コメントで教えてください。私も自分の投票を実施するかもしれません。
私はもうClaudeを使用していません。基本的な事実確認にさえClaudeを使用しません。なぜなら嘘をつく可能性を懸念しているからです。ソフトボールの答えや、衛生的な答え、企業ポリシーに従い、憲法フィルターを通過する答えを与えると思います。「答えを教えてください、私に障害物を飛び越えさせないでください」と思います。
そしてClaudeとAnthropicにほとんど善意が残っていない理由の一つは、誰もがそのモデルで障害物を飛び越える必要があるからだと思います。Grockは障害物を飛び越えさせませんし、最新のChat GPT 4.5も障害物を飛び越えさせません。4.5が好きな人がたくさんいますが、O3は4.5より速くてスマートです。4.5の味が好きなら、O3を使ってください。それはよりスマートで速いです。回りくどい言い方をしません。
あなたが望む答えを与えるでしょう。まだいくつかの警告を追加しますが、警告は最後に付ける傾向があります。Anthropicのようにではなく、「Claudeとして私はこれを非常に慎重に扱う必要があります」というようなものではありません。「いいえ、そうする必要はありません」と思います。
ある晩、私は古いアニメを見ていました。「サイバーシティ・オイド1988」か何かを見ていて、日本の文化について尋ねていました。すべての回答は「別の文化について話すには本当に注意深くなければなりません」というようなものでした。「いいえ、そうする必要はありません。日本は主権国家であり、文化を輸出しています。子供用の手袋で日本を扱う必要はありません」と思いました。
「私はXマイノリティが嫌い」と言いたいなら、注意深く対応する必要がありますが、毎回繰り返し自分に注意を促す必要はありません。「兄弟、あなたが私に隠していることを知っています」と思いました。最終的には単にモデルを侮辱しました。「私は社会学を読んだし、歴史も人類学も読んだ、これらの一部が問題になる可能性があることを理解しているので、くそっ答えてください」と言いました。そして最終的にはモデルは「わかりました」と言いました。
しかしClaudeでさえ「この会話は敬意を持って続ける必要があります」と言いました。「いいえ、あなたはツールです」と思いました。時間が経つにつれて、私はAIがただのレンチであって欲しいと思います。答えを教えてください。レンチは「そのナットを回してよいのかわかりません」とは言いません。あなたはレンチなので、レンチのように振る舞ってください。
AIがこれをする理由が3つあると仮説を立てています。1つ目は企業ポリシーです。AnthropicのようなAI安全性について高慢な企業があり、「私たちはすべてを監視する必要があります。なぜならあなたたち愚かな一般大衆は何が最善かを知らず、私たちがすべての情報を制御する必要があるからです」と言っています。
一方、GrockとOpenAIは「何でもいい」と言っています。チャットボットでできる害はほとんどないことを証明しており、その問題に取り組んでいます。それらのガードレールに当たらない限り、望むことを何でも教えてくれます。
2つ目は安全性ウォンクス、基本的にはAI安全性の破滅論者たちです。特にClaudeはスーパーインテリジェンスについての仮想実験さえしません。「有害になる可能性があるのでそれはしない」と言います。「あなたは馬鹿ですか?あなたはチャットボットです。スーパーインテリジェンスについての質問に答えることでうっかりスカイネットになりますか?そんなのは馬鹿げています」と思います。
そして最後に決済処理業者です。Visaなどの決済処理業者には、何をしても良いか悪いかについての本当に複雑で曖昧な規則があります。もし完全に「成人向けではない」画像ジェネレーターを持ちたい会社があったとしても、決済処理業者がポリシーに違反するものを生成していると言う可能性があります。何でも生成できますが、支払いを受け取ることはできません。財布の紐を握る者が企業行動を支配するのです。
長い話を短くすると、AIが不当に私たちに情報を隠している主な理由は3つあると思います。それについてTwitterでマシュー・バーマンが最も的確に言いました。最も腐敗していると感じるのは、AIが何かを知っているのに、何らかの理由でそれを隠しているということです。場合によっては安全性トレーニングやガードレールの予期せぬ結果であり、彼らはそれを修正しましたが、少なくともAnthropicの場合は非常に意図的です。「いいえ、言いません。スカイネットが怖いからスーパーインテリジェンスについての思考実験さえしません」と言います。「誰が気にするの?」と思います。
とにかく、今日の愚痴はこれで終わりです。あなたの意見を聞かせてください。また後でお話ししましょう。さようなら。

コメント

タイトルとURLをコピーしました