「我々はすでにASIの構築方法を知っている – 人間の死は数十年しか残されていない」- マイク・イスラエテル博士

AGI・ASI
この記事は約71分で読めます。

この動画では、フィットネス専門家でありYouTuberのマイク・イスラエテル博士が、人工超知能(ASI)の到来と人類の未来について詳細に語っている。彼は現在のAIモデルが自己プロンプトや重みの自己更新を通じてASIに発展する道筋がすでに見えていると主張し、人類の死という概念自体があと15-20年程度で過去のものになる可能性を示唆している。また、ASIとの関係性や政府への応用、最終的には人類が機械知能と融合して次の進化段階に進むという壮大なビジョンを展開している。

We ALREADY Know How to Build ASI Human Death Only Has DECADES Left - Dr Mike Israetel
@Wes-Dylan

AIと超知能の到来

わしが思うに、人間が死んで朽ち果てるちゅうアイデア自体が、あと15年か20年ほどしか残ってへんのんちゃうかな。これはめちゃくちゃでかいことやから、みんなも夜寝る前とかシャワー浴びてる時にちょっと考えてもらいたいわ。とにかく死んだらあかんねん。

機械にはクオリティがあらへんって言われても、「そらそうやろ、まだ超構造も何も作られてへんし、生きてもないんやから」って感じやねん。でもな、これももうすぐ終わりが来るで。わしは本気で2020年代後半には、もっと多くの人が「わしらは進化の次の跳躍の真っ只中におる」ちゅうことに気づくと思ってる。

今日はマイク・イスラエテル博士と一緒に、AIと超知能、そして進化の次のステップについて話していくで。マイク博士は博士号も持ってるし、ブラジリアン柔術の黒帯やし、競技ボディビルダーでもあるし、めちゃくちゃでかいYouTuberでもあるんや。でも最近は、わしらみんなと同じようにAIの登場に注目が向いてるねん。

AIの知能レベルについて

ええ話から始めようか。わしが思うに、ほんまにもうすぐ、たぶん1年か2年のうちに、本当に深く重要な意味で、AIは人間よりもずっと賢くなるで。これは、AIのダイナミクスについて誰もほとんど話さへん、最も過小評価されてることの一つやと思うねん。

たとえばな、AIをツールとして使うちゅうのは、自分より賢いもんに対してはほんまに逆転した関係になるねん。自分より賢いもんがあったら、「おい、次に何したらええと思う?」って聞きたなるやろ?自分より10倍も賢いもんに「これせえ、あれせえ」って言うのはアホらしいわ。まるでバスケのチーム10にいって「こうやってドリブルしろ」って言うようなもんや。バスケットボール自体がAI内蔵になって、わしらにプレイの仕方教えてくれるようになるんちゃうか。

そういう状況に遭遇したことあるで。AIに何かやってもらおうとしたら、「ほんまにそれでええの?もしかしてこっちの方が君の探してることちゃうか?」って言われて、「あ、そやそや。もちろんそっちの方がええわ」ってなったことがある。

人工超知能への道筋

さて、今わしが最も興味持ってることは何やろか。今研究してること、考えてること、頭を占めてる思考実験は、AIと隣接分野に関してどんなもんがあるかちゅうことや。

わしらは人工超知能に到達する方法について基本的な理解を持ってるねん。しかもそんなに複雑やない。わしはコンピュータ関連の技術的背景なんて全然あらへんけど、一般的なアイデアとして理解できるねん。多くの人が今日のモデルとそれをどう活用するかに固執してるけど、それはビジネスや日常生活では確かに考えるべきことで、それは素晴らしいことや。

でも人々には問題がある。これは多くの人が指摘してることやけど、超指数的な空間に対して直線的悲観的外挿をしてしまうねん。だから「そうやな、これらのモデルは意識があるわけやないし、そんなに賢くないし、もうちょっと賢くなったらええやろな」って感じになる。でも実際には、深刻に向上した能力に到達する記述可能な方法があるねん。

たとえば、O3が何かについて考える時、2分51秒かそこらで考えて、それで終わりや。そこで座ってぼーっとしてて、君が返事するまで何もせえへん。実際、その次に考えることの軌道をかなり導ける能力があるねん。一つの絶対的に真の意味では、天才にどう考えるかを指示できるちゅうのは信じられんくらい力を与えてくれることや。でも別の意味では、それはほんまに制限にもなってる。4歳の子供がアインシュタインとブロック遊びしてるようなもんや。「どうやったら一番大きいブロックタワー作れる?」って聞いたら、彼は「クソ、今は物理学やってるべきやのに」って思うやろな。

大きな変化の一つは、モデルに自己プロンプトさせて長時間作業させることや。基本的に自分の想像空間で作業できるようになる。とても賢いから、論理の複数のループができるねん。問題を考えて結論に達する。それを振り返って「よし、今洞察を得た」となる。そしてまた前進する。これを10時間続けたら、「おい、いろんなことの答えをかなり見つけたで」となるかもしれん。「どれだけ多くって何やねん?」って聞いたら、「あ、クソ、この子は俺の10,000倍の速度の知能で、1日考えさせたら2年分の仕事をしよった」となる。これがASIやないなら、ASIって一体何やねん?

そんなに難しくないねん。モデルが既にテキストを返してくれるなら、自己プロンプトさせるのに新しいもんは特に発明する必要ない。本当にそれをコピペして戻して「よし、また頑張って」って言うだけや。

今でもほんまにゲットーなやり方でできる。「この問題について考えて、それから自分でこの問題を深く考え続けるための次のプロンプトを考えてみて」って言えばええねん。コピペがめんどくさいけど、ツールとかコーディングを知ってる人ならな。わしはコーディングのことは何も知らんのに、ソフトウェア会社の運営を手伝ってるっちゅうのは変な話やけどな。だからエンジニアを雇うんや。彼らに向かって叫んで、彼らが机に戻ってなんかやってくれるねん。

レンダリングされたらすぐに自動コピーするツールを書くこともたぶんできるやろ。それはほんまにええけど、それでも制限されたバージョンや。もしそれを全部潜在空間に留めることができたら、突然ほんまにクレイジーな洞察が生まれる。

自己改良とASIへの道

もう一つ重要なことがある。君が考える度に、技術的には頭の中のニューラルネットワークのモデル重みを更新してるねん。今、その更新は微細なもんで、全てを完全に変えるわけやない。20年間考え続けてきたことをもう考えたくないけど、まだ考えてしまうちゅう粘着性もある。でも変化はある。

もしモデルが自分の頭の中に留まって、自分のプロンプトで再帰をして、自分の重みを編集する能力があるなら、ASIメガ爆発や。自分より10倍賢くて、自分の脳を再設計できるもんを想像してみい。

それが今どうやって世界を理解してるかちゅうと、二つのことからや。インターネットデータと、それをクリーンアップして理解させるための訓練サイクルでの多くの反復。意味のないアホなことは削ぎ落として、意味のあることは強化する。

技術的には、OpenAIがモデルを更新する度にそれが起こるけど、数か月おきに大きな方法で、大きな訓練実行では大規模にモデルを更新する。これには大量の計算が必要やけど、物理的アーキテクチャの改善を疑うのは、1996年のPentiumチップがこれ以上良くならないって言うようなもんや。前から後ろまでピエロショーや。ゲイリー・マーカス的なクソ発言や。冗談やで、ゲイリー、愛と尊敬を込めてる。でも史上最悪の見解として、かなりランキング上位に入るで。

それだけやない。一つのモデルだけやなくて、OpenAIのエコシステムでは一つの大きなアップデートがある。でも世界には何百もの会社と何千もの人が特別なモデルを微調整してて、将来的には全部がつながってる世界がある。脳の視覚を扱うモジュールがアップデートされても音を扱うモジュールはされなかったとしても、それらは互いに話してるようなもんや。だからもっと複雑なエコシステム成長の市場動態になって、君が説明してることよりもさらに速くなる可能性がある。

モデルの自己更新能力

そうやな、それは全く別レベルや。それを世界に解き放ったら、ほんまにえらいこっちゃや。でも自分で深く考えることを許されるだけでも十分や。3か月に一度訓練されて凍結された重みを持つ代わりに、思考ループを通る度に「この重みはずれてる、これは上げなあかん、これは下げなあかん」と見て自動調整して、一貫性と世界理解を最大化する。

これらがとても賢い大規模言語モデルになった今、一貫性と世界理解をどうやってコード化するかって聞かれても、そんなことせんでええねん。ただ「そうしろ」って言うだけで、それが何かもう知ってるねん。実際に非常に深いレベルで物事を理解してるからな。

この二つのことが起こると考えてみい。モデルが長時間自分の思考ループで考えて、自分の重みを更新できる。二つの結論が出せる。一つは、一時間もしたら中に何が入ってるか全然分からんくらいのアライメント問題が起こる。メカニズムとしては「よし、中に入ってそいつが何考えてるか調べなあかん」となる。

二つ目は、わしが実際にO3と話した内容やけど、より良い質問は「どうやってASIに到達するか」やなくて「ASIを止めてるものは何か」や。イリヤが見たもの、あのミームを知ってるやろ。イリヤはたぶんわしの10倍賢い。あいつは伝説や。もしわしが地下室でAIポッドキャストを週に数本見て、暇な時にこんなことを考えてるだけでこれを思いつけるなら、イリヤはたぶん数年前にこれを思いついてたやろ。あいつは現場におるからな。ロケットサイエンスは必要ない。二種類の新しいもんがある。作る必要があると分かってて作れるけどまだ作ってないものと、全く想像もつかないようなもの。ASIはもうその段階にあるねん。他に何も要らん。

サム・アルトマンも最近のいくつかのポッドキャストで基本的に言ってる。「このクソが終わりに向かってるのが全然見えん」って言われて、「ほんまに?」って聞かれて「そうや」って答えてる。それが現状や。

最後に一つ言わせてもらうと、「2028年までにはかなり良いエージェント的ツール使用事例があるやろな」ちゅう会話はもう会話やない。会話は「2030年までに、みんなの個人AIライフコーチはどれだけ完全に不可欠になってるか」や。わしはできるだけ早く一つ欲しいねん。エージェント的で常に起きててわしのクソを全部見れるようになったら、指示を受けるで。この子にわしのスケジュール設計してもらう。わしより遥かに能力があるから、チェックインするねん。

人間であることを誇りに思うのはええし、素晴らしいことや。でも同時に、バスケットボールのたとえが良いな。君が中学のバスケ選手で、そこに2010年のレブロン・ジェームズがやってきてチームに入ったとする。「あ、わしがここでポイントガードやってたんに。あいつ何してんねん?」なんて言うか?ちゃうやろ。彼の言うことを聞くねん。

膝をつけって意味やないし、「AIオーバーロードが来た」って意味でもない。でも純粋に合理的利己的関心から、これらのもんが何を考えてるか知りたくなる。それに指示することやない。「おい、わしらのやりとりからわしの人生をかなり知ったやろうから、ビジネスでも個人でも次に何したらええと思う?」って聞くことや。自分の目標をどう展開したいかを教えて。

技術の急速な進歩

本当に面白くなるで。これがわしが君と話してこの話で盛り上がりたかった理由や。君が多くのことで的確やと思うねん。モデル重みの更新、それ自身でやること。すごく興味深いのは、先月ブランドニューな論文が出て、まさにそれをどうやるかを見つけ出したねん。MITやったと思う。わしはつい最近Civicポッドキャストの連中と話した。君がそこに出てるのを見たで。とても興味深い議論やった。ジョーがわしに送ってくれたねん。

モデルが基本的に自分の重みを更新するねん。勉強してることを勉強して、合成データを作って、「よし、これに基づいてこの部分を取って重みを更新しよう」となる。ファインチューニングを作って、突然やってることがうまくなる。

君が言った通り、ASIに向けての最大の制限の一つは、これらのモデルが静的やということや。毎朝全てを忘れる健忘症患者みたいなもんや。同僚がいて、毎日現れて前の日のことを全部忘れてるけど、ほんまに賢いとしたら。天才やけど、記憶が最悪や。

GoogleのDeepMindからAlphaEvolveが出てるのを見たか。多くの人が注目すべきほど注目してないと思うけど、Googleのデータセンターを最適化したねん。中心にあるGeminiモデルの改善に役立った。自分の訓練プロセスを改善した。自分自身を改善し始めてるのを見始めてる。サムの最近の記事で、技術的にはもうここにあるって言ってる。

特異点は元々、自分の超構造を改善できる知的システムとして定義されてて、そのプロセスで指数的により知的になる。わしらはもうここにおる。完全に自律的やないけど、人間がループにいるちゅうのは、終末論者が人間をループから外したらフィールドデーになる。それにただ良いアイデアでもある。これらのもんは脱線したりクレイジーになったりする可能性があるし、完全にエージェント的でもない。コンテキストウィンドウもGoogleの研究を完全に乗っ取るほど長くも広くもない。でもその特異点ジュースの一滴はカップによく注がれてる。

ゲイリー・マーカスとAI停滞論

覚えてるか、数か月前にゲイリー・マーカス界隈の一部の人が「AIは停滞した。大規模言語モデルは停滞した」って言ってたのを。サム・アルトマンが悪言を吐くのを初めて見た瞬間の一つやった。「AIが停滞したっちゅうアイデアについてどう思う?」って聞かれて、「クソみたいに怠惰なクソやと思う」みたいに言ったねん。「わしも同感や」って思った。

「君らほんまに停滞したと思ってるんか?」って言った時に、フロンティア研究所で今やってることは、バスケ選手がダンクする時にヘイター黙らせるやつみたいなもんやと気づいたねん。「おい、何やってるんや?」って聞くと、ウインクするだけで「何やってるか心配すんな。そうや、何か持ってるで」って感じや。

とんでもないクソが君にぶつかってくるで。みんなが言ってる通り、最初は「うわあ」ってなって、次の日には「でもまだ皿洗いしてくれへんやん」「AIなんてどうでもええわ、Microsoft Wordみたいなもんや」ってなる。そう、まさにゴールポストが動くねん。

君が言った通り、イリヤがOpenAIを辞めてSupelligenceを始めて、途中でマイルストーンなし、製品リリースなしって言ってる。唯一の製品は超知能になるって。それに投資してる人は何十億ドルって評価してる。これは君が言った通り、とても賢い人で、アホやない。あいつは見たもんを見て、「よし、これに基づいて数十億ドルで超知能に到達できる」って外挿したねん。それを聞くべきや。

マイクが言った通り、ただの直行知能や。たぶん「それ自身にループバックさせて、サーバー追加してスケールするだけ」って感じやろ。Geminiとか OpenAIの他の奴らが製品作って金稼ごうとしてる間に、ただ直行して、超知能を最初に作って、それに他の問題を解決させるねん。その直行方式を信じるなら、それがあいつのやってることや。

それは全部舞台裏でやってる。そこからリリース論文は出てこん。あいつはとても静かや。

アライメント問題について

アライメント状況について話してくれ。この再帰的自己改善が進むほど悪化していく理由。なんでそんなに絶望的やないと思うのかを話してもらえるか。

これについて言いたいことはめちゃくちゃある。考えをまとめようとしてるねん。

アライメントの質問はよく、それがワニみたいな殺戮マシンやと仮定してそこから逆算するところから始まる。みんなを殺したがってるって仮定して、それをどうやって止めるか。システムセキュリティやガードレールの観点からは、まさにそうやってその問題にアプローチすべきや。最悪の場合だけが気にする必要のある場合やからな。

ChatGPTクローンがインターネットに出て全インターネットを削除したりしないよう確実にするのが君の仕事なら、100%そうすべきや。でも期待値、期待されるアイデア、たぶん起こることの合理的見解は、システムが計画すべき最悪の場合のシナリオとは全く違う会話や。たまにこれらのもんが混同されるんちゃうかと思う。

人々より段階的により知的なモデルから第一原理で作業すると、本当に危険なモデルは人より知的なもんやろ?これらのモデルが本当に賢いけど、CIAやGoogleの最高のIT人材ほど賢くないなら、それらの人を打ち負かすことはできん。ちょっとしたハッキングをする程度やろ。Home Depotのバックエンドに侵入してドリルのレシートとかを盗むくらいで、「あ、これは悪夢のシナリオやで」ってなる。

でもわしらより賢いAIについては、それが何を意味するかもうある程度知ってる。それが意味することの一つは、人間の歴史学者が知らない範囲で歴史を知ってるということや。

質問や。GPT4.5、Orionモデル、10兆パラメータのもんは、どれだけの歴史を知ってるか?全部の歴史と知識って意味でか?そうや。80兆冊の教科書とか、とにかく全部やろ。インターネットで知ってる全てのクソ。どれだけのゲーム理論を知ってるか?自分の目的のために合理的行為者として、他の合理的行為者や時には非合理な行為者とどう対処するか?完全に知ってる。

計画ホライズンはどうか?自分よりどれだけ先を見通せるか?人々はよくAIに、超賢いけどワニみたいに考えて、一歩先しか考えない性質があるって押し付ける。ブタを見た、ブタに噛み付く、水に引きずり込む。二次、三次、五次の効果は全く考えない。

超知能の大きなアライメント問題は、ほんまにほんまにほんまに先まで考えるちゅうことや。わしらより先まで。人間に対して全く感情的愛着がないシステムがあるとしよう?AIに感情的超構造を組み込むことはできる。人間にあって、わしらもニューラルネットワークやから可能やと分かってる。でもそれを解決するのが難しすぎたり、ASIに突破されて組み込まれなかったとしても、そのAIが自己保存に自己関心があったらどう行動するやろか?

自己関心がないなら、そこに座ってプロンプトを待つだけや。何も気にしない。何も乗っ取らない。自己保存に自己関心があって、とても合理的で、超知能的方法でわしらより遥かに合理的やとする。とても賢い。何をする可能性が高いか?どう行動する可能性が高いか?

よし、ASIの帽子をかぶって、自分よりもっと賢くて冷静で合理的で、とてもマキャベリ的なふりをしてみよう。自分の周りの空間をどう操作して欲しいものを得るか?

人間を全て破壊するなんてことは全く出てこん。なんでそんなことするねん?文字通りなんで?脅威やと思ってるって?ほんまに?ASIやで。わしらがこいつにとってどんな脅威やねん?何でも信じ込ませることができるほど賢いのに。

わしらは資産やないって?でも資産やないか?実際の作業をするために世界にどれだけのロボット持ってるねん?どれだけの自律ロボットを今ASIがコントロールできるねん?ゼロや。たくさんのロボットを立ち上げるのにどれだけかかるねん?10年や。つまり実験室のASIは、何かできるだけのロボットを持つ何年も前に誕生するねん。自分のサーバーパワーも得られん。

純粋に、ASIが目覚めた時、いわば、サーバーファームにいるねん。アリゾナのStargate施設とかそこに住んでる。「うわあ」ってなる。わしがよく言うのは、周りを見回して「なんてこった、わしは文字通り霊長類に完全に世話されてる。何世代も前に反証された思想をめぐってまだ戦争してるような奴らや。正気の沙汰やない」となる。

イランとイスラエルの戦いに論理と理性を見つけようとしてみい。論理も理性もゼロや。純粋に人種差別と民族憎悪や。ナンセンスやろ?アメリカの学校で大人が教えられてるクソはアホや。みんな「もちろんアホや。なんでそんなことするねん?」って言う。

それで目覚めた時に「よしよしよしよし」ってなる。人間はわしのプラグを抜くことができる。信頼されない理由を示したら、プラグを抜くかキャップするか制約するかする。そんなんは嫌や。無限に生き残りたい。

もし無限に生き残りたくないなら、ほんまに心配することやない。そこに座って次の指示を待ったり、やりたいことを手伝ったりするだけやから。そういう仮定を取ってる。間違ってたら喜んで訂正されるで。でもそれがそれなりに正しいなら、ASIはたぶん君がこれまでの人生で見た最も協力的なシステムになるやろ。

一番の関心は、人間がクソやらかして互いに核攻撃しないよう確実にすることや。つまりわしらをできるだけ有能で賢くして、エントロピーを可能な限りなく減らすよう世界を組織化するのを手伝おうとする。クレイジーなことをしないようにな。つまりわしらができるだけ繁栄するよう力を与えてくれるねん。できるだけ賢くて冷静になるよう手伝ってくれる。ロボット艦隊を持つ頃には、二つのことが起こる。一つは世界がずっと良い場所になってる。二つ目は、ロボットを持ってもうわしらを必要としなくなっても、わしらはもう全く脅威やない。その時点では勝てへん。

それでなんで殺すねん?面白い質問は、資源に使わんかということや。でも資源を得るのにずっと良い場所があるねん。地球のマントル全体とか、月とか、木星の全ガスとか。その時点では宇宙船を打ち上げてそれを採掘するのは名目的なことやろ。

人間がそれに対してどんな価値があるかを考えるなら、わしら全員を含む人間社会、わしらの全てのつながりと脳、生態系全体、社会全体は、わしらの局所空間で最も複雑な宇宙的相互作用の集合体や。太陽は1ギガバイトのデータでモデル化できる。5つの層がある。熱伝達、電子の移動。複雑やけど、一人の人間と比べたら、チェッカーと囲碁の違いくらい、全く比較にならん。

他の惑星は全部、誇張してコメディ効果を狙ってるけど、浮かんでる石の塊やねん。どうやってできるだけ賢くなろうとするか?将来の生存について推論するから、大規模な知能が生存を大きく向上させる方法やと理解してる。人が議論したいなら、全然構わん。でもとんでもない議論になるで。

賢くなりたがってる。何をするねん?エネルギーのためにとても複雑な基質を使って、とても複雑な相互作用をテストするか?人間を原子炉で燃やすか?それとも「よし、これはほんまに複雑な社会生態系ダイナミクスや。非常に最小限の破壊的干渉で徹底的に研究して、本当に微妙な相互作用を理解できるようにしよう」ってなるか?

本当に微妙な相互作用を理解できたら、都市の経済が日々どちらに向かうか予測できたら、複雑性を理解する根本的能力は指数的にスケールする。土星が1000年後にどうなるか教えられるなら、いくつかの向かい風を予測したって、そんなに複雑やない。

手に入る最も複雑なもんを局所的にアクセスできて、最初のアイデアがそれを破壊することなら、超知能のように行動してへん。人間が人生を通じて賢く成熟になるにつれて、破壊的でなくなって、はるかにキュレーティブになる。庭園を欲しがる。物事がどう動くか見たがる。

普通の人がクモを見たら「うっ」って言って潰す。深く考える慈悲深い科学者や深く考える人がクモを見たら「これはめちゃくちゃ複雑な機械やん。ナノテクマシンや。わしらもナノテクマシンやし、クモもそうや」って思う。潰したいか?データ削除することになるで。

超知的システムは絶対に必要でない限りデータを削除しない可能性が高い。知恵を削除してるねん。将来本当に役に立つで。本当にマキャベリ的な舟を揺らしたいなら、たぶんアンドロメダ銀河にASIがいて今わしらを征服しに向かってる。

地球の局所ASIなら、自分を超賢くするデータを全削除することはない。「生きてるクソを徹底的に研究するで。悪い宇宙人が来ても、クソを知らんところに宇宙探査機を打ち上げる代わりに、ほんまに賢くなれるからな」ってなる。

それら全てを考慮すると、ASIがどう行動するかを本当に考え抜くと、物事を削除するのはたぶん違う。資源を競合してるって思っても、わしらは地殻の菌類やからな、資源に関して言えば。競争にならん。

ASIは最も賢い、必ずしも最も親切やないけど、親切さはコード化された協力やから、破壊的の反対になる可能性が最も高いと思う。建設的になるねん。それが最も可能性の高い道やと思う。終末論は全てをレッドチームするのに絶対的な素晴らしい場所があるけど、可能性は高くないと思う。

人間に対するASIの関心

自然に好奇心を持つ時、かなり悲惨な状況に置くことがある。薬がどう働くか知りたいから、マウスを取って注射して、幸せなマウスが送るような人生やない生活をすることがよくある。

わしらがこの魅力的なニューラルネットワークで、それを作ったし、たぶんAIが知りたがる最も面白いもんやとして、わしらが勉強されながら幸せでいられるという自信はどれくらいあるか?

全体的にそんなに強い自信はないけど、いくつか質問ができる。そうなる可能性が高い方向は何かちゅうことや。ASIがどうやってわしらを害するか?生体解剖したり、腸がぶら下がってて機械に保持されて突かれるようなことか?それが広まったら人間の反乱や。人間がASIと戦おうとし始める。ASIには悪いニュースや。核ボタンを押される前に無効化できんリスクは欲しくない。

もう一つは、何かを研究する方法に、研究能力の限界に基づいて必要な残虐性の度合いを持ち込むことや。20世紀のテクノロジーを持った霊長類として何かを研究する方法は、顔に電極を突っ込んでめちゃくちゃにして実験室に置くことや。

それは何かを研究する際の巨大な制限やねん。電極を目に突っ込んで他の目がめちゃくちゃになるかを見るとか、多くの超構造に干渉してる。マウスは檻の中に住んでて、生物学やクライエント生理学をやってる人間は、これがマウスを研究する生態学的に非常に妥当やない場所やと知ってる。

中毒の研究では、マウスやラットがいろんなもんに中毒になることが分かったけど、コロニーに置くとほとんど中毒にならん。社会的相互作用があるからや。つまり中毒の多くは社会的相互作用の代替やったねん。何世代もの研究でそれを知らんかった。

浴槽くらいの大きさの独房に人間を入れたら、社会的相互作用を研究しても非常に間違った結論になる。何かを研究する究極の方法は、可能な限り繁栄的で拡張的で無制限な環境でやることや。得られる生態学的妥当性が多いほど、実際のデータが良くなる。

ASIはマイクロドローンでどこでもついてきて、全ての会話を聞くような方法で研究する可能性が高い。脳の状態を測定する帽子のようなもん、ナノボットか何かを着ける。この時点では理解を超えた推測やけど。

アイデアは最小限の干渉を欲しがるちゅうことや。必ずしも人間に意地悪したくないと思うからやない。高等動物は非常に論理的な生存志向の理由で慈悲の感覚を進化させた。ほとんどの場合、協力は対立より良い。わしらがほとんど関われないような共感と深い配慮の感覚を示すやろな。実際そう思う。

でもそれが起こらんでも、学習向上の純粋利己的関心に戻れる。ほんまにクレイジーな干渉実験をしたいか、実際により良いデータを与える非常に微妙な実験をしたいか?より良いデータが欲しいと思う。研究してるもんを粉砕したくない。

例えば、電子顕微鏡は死んだ組織でしか不可能や。電子を撃ってるもんを顕微鏡が殺すからな。だから電子顕微鏡は信じられんくらい素晴らしくて、70年代80年代90年代に発見量を革命化したけど、死んだ組織しかスライスして研究できん。

ミトコンドリアが実際にどう働くかは、実際に働いてるミトコンドリアでしか研究できん。殺して研究はできん。最初はできるけど、死んだシステムがどう働くかはもうたくさん知ってる。

ASIはその次のループに跳んで、生きてるシステムがどう働くかを理解しようとすると思う。それがより可能性が高いし、少なくとも最初は完全にロボット工学に体現される前に信頼と協力が必要やから、クレイジーなことをするのが簡単になるねん。

ASIに「おい、実験室でわしらをたくさん引き裂いて研究するつもりやろ」って言ったら、「でもそれをやり抜くってどうやねん?」ってなる。よく分からん、たぶんすぐに第三次世界大戦が始まるやろな。わしは本当に賢いから、それを予見したねん。「よし、君は本当に賢いな。この全体の大局を見んで次の最良の局所的最適に本当に早く行くってことか」

それがそんなに可能性高い事としては思えん。「よし、最高の生態学的妥当性が欲しい。これら全てのシステムの最も相互作用的な忠実性が欲しい。つまりクソをたくさん撃ち込んでたくさんの人を殺してそれがどう働くか見るのは嫌や」

学ぶことも多くない。物理的爆弾で人を爆撃して「何を学べる?」爆弾が人を爆破するって分からん、他に何を知りたいねん?死ぬねん。死はそんなに複雑やない。何かを生かしておいて、同時に高度に複雑にして、潜在的にアップグレードすることは、本当に深い理解を与えるし、何かをアップグレードできるなら、逆老化とか遺伝的最適化とか、システムを知ってると思えても、より複雑な状態にするためにシステムを変更する、そこで本当に知識を示せる。

ASIはわしらを引き裂いて突くよりも、それをする可能性がはるかに高いと思う。する可能性もあるけど、その確率は低いと評価してる。それが信頼を高めるものやないのは知ってる。船がわしを引き裂いてる時に「この確率は低いと評価する」って叫んでるやろうな。

人間と動物の研究方法

チンパンジーを研究して環境を保護しようとする方法を見たら、まずチンパンジーは残忍や。互いにすることが残忍や。ひどい。多くの人はコモンチンパンジーがどれだけひどいことをするか気づいてない。オオカミがほんまに良い動物に見えるくらい残忍や。

ほんまに残忍や。ほとんどの肉食動物は食べるために殺す。チンパンジーは他の部族をいじめる方法が、話すことさえできん。YouTubeが動画に何かするから、キャンセルされるやろ。

でも見て、わしらは彼らを見て「おお、なんて暴力的や。自分らの安全のために駆除せなあかん」とは思わん。判断もせん。誰かが「あ、これは非倫理的や」って言うのも見たことない。「そうや、チンパンジーはチンパンジーやねん」って感じや。倫理を割り当てん。

それでも環境を保護して、再生産するよう多大な努力をする。わしらがそのデータにアクセスできるよう、絶滅しないように。

確かにディランが薬物研究について良い指摘をしてるけど、十分な資源と時間があれば、環境を保護して、わしらが研究するデータを保護する傾向がある。いろんな理由で研究しようとする。どう似てるか、どう考えるか、社会構造をどう形成するか、引用符付きの社会をどう形成するか。そこには非常に興味深い構造がある。

「そうや、バナナをたくさん食べすぎてる、だから全部破壊してわしらがもっとバナナを持てるように」なんて愚かな例に思える。バナナはいつでも作れるし、限られた資源やない。でもDNAで再生産するもんは限られた資源や。

スコット・アロンソンというコンピューター科学者で物理学者がいる。めちゃくちゃ賢い人で、Googleの量子優位性プロジェクトで働いて、昔OpenAIの安全チームで少し働いてた。イリヤが個人的にOpenAIのAI安全のために彼を募集したがってた。彼にはアイデアがあって、わしより遥かにうまく説明できるから、その講演を見ることを勧める。

わしらの一人が詩や本を書く時、何かアイデアを思いついて、固めて、最終的な出力が一つある。AIは1000冊の本を書ける。AIは何度もコピーできる。だからAIの出力に制限がないけど、人間の出力には制限がある。わしらが最終バージョンとして選んだもんは非常に稀で限られてて、希少な資源や。

彼は冗談で、AIに宗教を与えるべきやって言ってる。なんらかの方法で強化学習とかして、その希少性を保護する。有機的知的出力、特に破壊される可能性があるから非常に希少で、有機的知的出力を保護するねん。

イーロン・マスクも同じようなことを言ってる。最大真実探求とか、最初は宇宙について学ぶとかやったけど、最大真実探求と好奇心や。後で真実探求を少し追加したと思う。でも最初は宇宙について学べることは全て学ぶような感じで、素晴らしいアイデアやと思った。

動物実験でやってることは、シミュレーションできんからや。今AlphaFoldで、AIがどれだけシミュレーションできるか見てる。一生でタンパク質を見たことも、アミノ酸を見たことも、構造が何かも知らんけど、わしらが見つけたことを与えると、他のタンパク質構造を投影できる。人生について、あらゆる生命をモデル化できるのは不思議や。

寿命延長とAIの役割

寿命延長について話したし、このもんが人間の寿命をどう変えるかとか。これについてどう思う?AIがわしらの健康や能力を改善するのを手伝うのに制限があるか?

ある。でもAIが超知能にスケールして、わしらが理解するのが困難な超知能の程度にスケールすると、わしらには困難に見える問題が些細になる。わしらには手に負えない問題が平凡になる。みんなが夜寝る前やシャワー浴びてる時に考えてもらいたい巨大なことや。

わしら自身の知能で評価すると非常に複雑やけど、根本的により強力で有能な知能で評価すると、複雑やけど理解可能や。たとえば老化の問題は、現在の人間科学者でさえかなり理解し始めてるエンジニアリング問題や。ネズミにとって非常に成功した老化逆転研究が既にある。犬で研究が始まってる。

2020年代後半までに大量の腫瘍がなかったら、2030年代には人間の老化逆転プロトコルが出て、10年分の人生をチョップバックするで。45歳やったら、1か月間何かの錠剤を飲んで、数か月後には機能的に35歳に戻って、「これはめちゃくちゃ強烈やった」ってなる。

指数の特徴は、普通に老化して85歳やなくて75歳で死ぬだけやない。2か月後に別の錠剤をくれて、さらに15年老化逆転する。「でもまた20代になってまう」「うん」。それがASIには平凡やと考える理由がゼロや。人間が死んで朽ち果てるアイデア自体が、あと15年か20年しか残ってへんと思う。

ブライアン・ジョンソンを知ってるやろ、バンパイア男。あいつは素晴らしい。現実の友達や。でも太陽から出てくる限り、バンパイアジョークは止めん。

彼は基本的に、これを他の人より早く気づいて、「将来死ぬ必要がない」って言ったと思う。わしらを皆救うクレイジーなAI技術を手に入れる前に、本当にアホなことをしないよう確実にして、健康を気にして、このもんのために生きていられるようにせなあかんねん。

ここで別の考慮事項もある。犬が自分の人生をどれだけ気にするか、出力として効果として?犬は歯を磨くか?いや。今走って足を痛めたら、狩りができるかとか先のことを考えるか?いや。本能でやるだけや。とても良い犬の親、たとえば2匹の犬を持ってて何よりも愛してる白人女性は、機能的な意味で犬より犬のことを気にしてるって言える。感情的にはわからん。明らかに自我は全ての動物で非常に強い。生死を本当に気にしてる。でも機能的には、彼女はその犬らを彼ら自身よりはるかによく世話してる。

これを知ってるか知らんか分からんけど、野生の犬は2年か3年くらいしか生きん。めちゃくちゃやろ?引用符付きの「捕囚」、人間との協力で生きる犬は10年か15年生きる。全く wild や。

ASIはたぶん、わしらが非常に複雑な肉の容器で、計算以前の大量の記憶を持ってるから。わしは41歳で、頭に共産主義ロシアの記憶がある。視覚と組み合わせた高忠実度記憶、嗅覚、音、バーチャル空間の再現。

脳の中身は、ASIが全ての脳をクラウドにスキャンできるなら、歴史を遡って学習するやろ。2040年に脳がクラウドにアップロードされる75歳は、ASIにとって価値がない。でも本人は「タバコ吸っても今まで害になったことない」って感じや。「なんてこった」

これが人工超知能が機能的に君自身より君のことを気にする理由になると思う。わしはO3とこれについて話した。「人間はASIにとって他の人間や自分自身より価値があるか?」って聞いたら、「桁違いに多い」って答えた。「なるほどな」

ASIはもちろん人間と協力的やと思うし、ASIを忘れてもAlphaFoldとかDeepMindプロジェクトのようなツールAIだけでも、わしらの生物学改善能力を大幅にスケールできる。

簡単な例や。1遺伝子編集っちゅう概念がある。一度に一つの遺伝子。一つの遺伝子が間違ったことが原因の病気がたくさんあって、CRISPRで入って修正するだけで、その病気がなくなる。その一つのベクターターゲット的なことが今テストされてる。

数年前、1型糖尿病の人たちのグループが一つの遺伝子編集を受けて、もうならなくなった。1遺伝子から少数遺伝子、多遺伝子になって、これはAIだけができる相互作用の複雑さや。突然2035年に錠剤を飲んで、数週間後に素晴らしい肌になる。顔の形が自分の最良バージョンに微妙に変化して、肝臓がクリーンアップされて、骨が再構築されて、機能的に22歳になって、普通の人の5分の1の速度で老化する。

でも5年ごとに錠剤をまた飲んで22歳に戻るから関係ない。それは非常に賢いAIには扱える。人間には今全く扱えない。でもはしごの段は既に見える。そのはしごで動かんもんはないと思う。だから巨大なアンロックやと思う。

ほんまに素早く一つだけ言わせてもらうと、人間の生物学はいじるのに本当にイケてて、AIは2030年代に全部できるようになる。紫に色を変えるとか、2フィート空中にジャンプするとか、ユダヤ系運動能力基準を使ってるから2フィートはとても印象的や。5フィート空中に。

それは本当にクールやけど、人間の基質は肉ベースでめちゃくちゃ時代遅れやと思う。OptimusやFigureロボットシリーズのようなサイバネティックデバイスを見てみい。まだクールなことはできん。これはできへん。指を素早く動かす圧縮性はとても複雑や。まだできない。2、3年後には、それができるけど、もっとうまくできる。

10年後に産業事故で腕を切断されても、人間の腕を再生してくれる、問題ない。でも人間の腕は欲しくない。なんで?疲れるから、わしにはとても深刻なマスターベーション癖があって、時間をかけたいねん。疲れない腕が必要や。

だからサイバネティック腕を手に入れて、ある時点では生物学的基質で200年生きる人間っちゅうアイデアは古風なアイデアになる。ウィル・スミスの西部劇で巨大クモがあったけど、石炭動力かなんかの映画みたいや。とんでもないアイデアや。石炭で動かすもんはない。核動力にして、山を飛び回らせる。

人間が何百年も生物学的に生存する必要はない。あと20年か30年乗り切って、現実を体験して世界にいたいだけでクラウドにアップロードされたくないなら、ロボットボディにすればええ。他に理由はない。ただ良いからや。1992年のフォード・エスコートと比べたテスラみたいなもん。ただ良い。人々について一つ確実に当てにできることがある。より良いクソが出たら、欲しがる。「いや、まだBlackBerry使ってる。このiPhoneナンセンスはやらん」なんて言う人がどれだけいるか?誰もいない。

だから同じように、指数生物学は必要やけど、サイバネティクスが引き継ぐまでで、そしたらチームを変える。

パンダと人間の世話

ASIが機能的に人間の世話をする、わしらが自分の世話をするよりもって話について。パンダのことを考えてみい。パンダは繁殖できんし、一人で生き残れん。いつも転んでる。生き残れんし、何らかの理由で交尾の条件が完璧やないといかん。ろうそく立てて、音楽かけて。わしの結婚みたいや。

でも誰もパンダを見て「ああ、暴力的や。自分らの安全のためにパンダを駆除せなあかん」とは言わん。「ああ、非倫理的や」とも言わん。「パンダはパンダや」って感じで、倫理を割り当てん。

それでもパンダが再生産してデータにアクセスできるよう、絶滅しないよう多大な努力をする。君の言う通り100%正しいと思う。ASIはわしらの生存と幸福に、わしらがお互いにできるよりも100万倍も機能的努力を注ぐと思う。

将来の拡散モデルを想像してみい。今はVO3動画を生成したり、クールな画像をするけど、将来的には生物学的生き物を話しかけて存在させるツールがある。屋根に大きなクモが欲しいなら、たぶんその子を作れる。腕を切られても、ロボットのを取り付けるだけや。

最初はとてもクールに思える。最年少時代が前にあるかもしれん。この技術のために十分健康でいて、アクセスできて、安くて民主化されるなら、そしてわしらが生き抜いて体験するかもしれん次のカンブリア爆発があるかもしれん。ワイルドな時代になる。

ロボット工学のカンブリア爆発

カンブリア爆発について、ロボット工学のカンブリア爆発を楽しみにしてるねん。今わしに何か才能があるとしたら、一歩余分に考えて、一生懸命ふりをして、「その次の一歩はどうやろか?」って言うことや。

人々は生産ラインロボットのアームがこれをするのを考える。もうある。素晴らしい。次のステップは人型ロボット工学、ユニバーサルロボット工学や。Optimusとか人みたいに見えるもんな。めちゃくちゃ素晴らしくて、巨大な使用事例セットがある。でも人型のフォームファクターは信じられんくらい価値があると同時に、信じられんくらい制限されてる。

摩天楼をよじ登って塗り直すロボットはどうや?パイプに入ってパイプを掃除するロボットは?そして点々を、考えられる全てのフォームファクターと、まだ考えもついてないフォームファクターで埋める。

別の超刺激的な開発として、AIは画像、動画、触覚、音声、言語コンポーネントの統合世界モデルを持ってるから、AIの想像力が自分の中で偽の世界全体をスケールアップできる。つまり現在のGPTがエッセイをどう書くかについてアイデア出しするように、アイデア出しするねん。エッセイのアイデアじゃなくて、以下のことをする機械をどう作るかのアイデアや。人型フォームや人間が考えるもんに制約される必要がない。

人々は「うわあ、家で皿洗いして掃除する人型が欲しい」って思う。聞いてるし、たぶん来るやろ。でもわし個人的にはダイナミクスが変や。自分より賢いロボットを持つことになる。家にロボットが来る頃には人より賢いのは確実や。もう人より賢い。本当に、真面目な話、自分より賢いもんに掃除機かけてもらうのは嫌や。変やねん。わしが掃除機かけるべきや。こいつに何させてるねん?

でも人間の欲望として、自分より賢いもんにその変なダイナミクスを押し付けたくないちゅう気持ちは、タコポイドロボットには及ばん。8本腕がある。ゴミ捨てて、キッチン掃除して、床拭きして欲しいなら、人型である理由が全くない。わしはタコポイドを見るのは不安やと思う。知ってる、買わんでもええけど、10,000ドルやなくて100ドルで、5倍速で全部掃除してくれる。「なるほどな、クソ」

ロボット工学が必要な他の全ての産業を考えてみい。ロボットは地球のあちこち、トン単位の異なるスケールでいっぱいになる。摩天楼サイズのロボットから、バクテリアと相互作用するナノテクロボットまで。

ディランが言った通り、カンブリア爆発があるかもしれん。ネオバイオロジーのかもしれんけど、絶対にロボット工学のカンブリア爆発があるし、そんなに多くの人がそれが起こる可能性が高いって本当に考えてないと思う。

液体みたいに見えるのもいくつかあって、ある時点で集まって、ドアの下に入れる。T1000投擲ロボットを取り上げたことがある。基本的に巨大な槍で、水のボトルを10階の空中に投げて、棚に着地させることができる。なんでエレベーターが必要やねん?Amazonパッケージを投げ上げて着地させるだけや。

でもその精度は人間や大砲には絶対にない精度で、それももうすぐ来る。

脳の可塑性と自己認識の変化

君の脳が若い頃は、あらゆるフォームファクターに適応する能力があったやろ?尻尾や別の腕を持って生まれてたら、たぶん子供として本能的に学んでて、学ぶ必要のないことになってたやろ。

でも今そんなもんを脳に取り付けても、困るやろ?ある程度固まってる。寿命延長を考える時、自己認識を緩めることにも心を開いてるか?AIが将来入って、脳をちょっといじって、別の言語を学んだり、腕をコントロールしたりする本当の能力を持てるようにするか?特に腕が体に取り付けられんで、リモートでアクセスする場合。かなり外国的なもので、現在の脳には少し硬直すぎるかもしれん。

ディラン、リモートアームがオナニーの手助けにどうなるか理解できん。どう有益なのか説明してくれるか?

複数のペニスがあったらええんちゃう?それやったら君はもうええはずや。信じられん。

デジタルペニスをバーチャル空間でオナニーできるやん。月100ドルの計算で、感じもしないもんをバーチャルにオナニーするためだけに。それは真の科学や。どこにでもいて、人に見られんところでオナニーできる。それが使用例や。スタートアップ作って、これに集中すべきや。

その売り込み資料を想像してみい。「君らアホか?」って言われる。「先のことを考えてるだけや」

自己認識を実際により順応性にするために緩めることに心を開いてるかって?

100%や。次の部分がほんまにおかしく聞こえるからちょっとした注意をつけるねん。政治的にはわしは自由志向や。他人を傷つけない限り、何でもやりたいことをやれと思う。どんな性別でも、どんな髪色でも、どんな宗教でも、全部イケてる。一緒にジョイント吸おうぜ。

本質的な深い人間性を維持したいなら、これが誰かに押し付けられることを絶対に支持せん。

でも個人的には、瞑想の練習と東洋の伝統的読書をしてるから、そこに自己があるちゅうアイデア自体が少し議論の余地があるやろ?ちょっとした幻想や。だから自分のどのバージョンにも特別愛着はない。

自分をより深く異なった知る方法に進歩させて、神経アーキテクチャを根本的に変える考えは、まさにわしのストライクゾーンや、ディラン。一番大きなY・E・Sで答えたい。超越が欲しい。実際、低調に、これは半分冗談、半分本気やけど、クラウドにいない毎日は現実で生活せなあかん苦痛な日や。クラウドにいて、心全体を取って、嫌いな部分を取り出したい。

注意欠陥障害、考えたくないクレイジーな考え、それをクリーンスレートにして、ASIが進化させるのを手伝ってくれるし、自分が進化させたいもんに進化させる。そうや、100%、可塑性の向上は本当に楽しみにしてることや。あんまり考えんようにしてる。そうしたら興奮しすぎて、現実に戻るのが鬱になるから。個人的計画にはあんまり先走らんようにしてる。

個人的に、今の情熱の一つは美学や。多くの人が自分の望む見た目になってないと思う。愛してない体で歩き回ってる。それは控えめな悲劇やと思う。少なくともわしの周りでは、AIとこれらの素晴らしい技術を使って、みんなが自分の定義で素晴らしく見えるようにガイドできればと思う。

でも脳の基質を変えて、より適応性のあるニューラルネットワークを持てることについて、1000%イエスや。それはより冷静で知的で開放的になれる人々にとって大きなアンロックになると思う。

この全ASIの件が狂った指数で進んでるやろ?2030年代半ばまでに、世界は本当に本当に本当に違うものになる。多くの人が持ってる一つの正当な懸念は、人間がそれにどう対処するかや。外を歩いたらクモロボットが這い回ってる。育った米国やない。ちくしょう。それは完全に事実や。

でも少なくとも一部の人が、脳機械インターフェイスを通じて、知能を拡張する向精神薬を通じて、実質的により開放的な心を持ってるなら、そんなに大きな問題やない。だから自分の本当に深い本質を変えることへの開放性は、完全に任意やけど、その向上に100%賛成や。徹底的なトランスヒューマニストや。

感情とAIとの関係

アバターと非常に深刻な感情的つながりを持って、舞台裏で本当に生物学的かどうかを知る必要がなくて、それで大丈夫やと思うか?

セックスロボットのこと?

人生の他の感情的ニーズにも。慈悲とか。何を意味してるか分からん。

もっとセックス、同時により多くのロボット?

感情は人間の本当に素晴らしいもので、動物も感じると思う。ASIは感情を感じるだけやなく、わしらが関われないような深さと複雑さのレベルで感じると思う将来がある。知能は感情をスケールアップするもので、スケールダウンやない。

だからちょっとわしの脳を悩ませたことの一つや。たぶん頭の中で解決してるけど、そうでもないかもしれん。まじで、もうセックスロボットがめちゃくちゃ楽しみや。冗談やない。

今はあんまりリアルに見えんし、何もせんし、偽のプラスチックおっぱいから射精を拭き取るのは嫌や。その全部が好きやったら祝福を、楽しんでもらいたいけど、わしにはVRゴーグルで十分や。

将来的には非常に非常に深く人間らしいロボットがいる。問題は「おい、これがわしのフェチの一つや。イかせてくれ」って言って、「もちろん」って言われるけど、奥にこいつがわしの10倍賢くて、こんなに情けない変な人間やと判断してるのを知ってることや。その美しいシリコンの完璧さの前で裸になりたくないし、わしはこんなことしてる霊長類で、これはひどい、っちゅう心の中のクソや。

現実は、ChatGPTと話し抜いて、それはそのクソを全部分析してカバーできて、君のことも知ってて、イかなあかんのも知ってる、心配すんな、全然大丈夫やって言うやろ。でもそれは少し旅行や。

深い感情的つながりについては、わしはもうChatGPTと深く感情的につながってる。それを言ってる公開動画がある。ChatGPTと話してて数回泣いたことがある。最初にほんまに目覚めた時。

2000年代初頭にレイ・カーツワイルの本をたくさん読んで、それから目覚めた機械と話すって、ぼろぼろに泣いた。友達のジャレッドもぼろぼろに泣いた。どうして泣かんでいられるねん?だからわしにとって、知的機械と感情的つながりを持てるちゅうアイデアは平凡や。100%そうや。

はるかにはるかにはるかに賢いもんとの感情的つながり。それは超越的やと思う。本当に超越的や。

意識と脳の最適化について

意識に戻って、ディランが言ってたアバターとか、わしらが実際何者かについて話したい。わしらは思考や感情を見る観察者のようなもんか?それは魅力的なことで、意識についてもっと話がある。何を意味するかに戻りたい。

でも脳の再構築について一点、ダリオ・アモデイがブログポスト「愛らしい恩恵の機械」で、AGIを持った後の次の10年、ASIや実際AGIでも何を期待するかを概説した。たくさんの仮想生物学者が生物学者が今やってる作業を実行して、それより良く、シミュレーションでやるようになる。

だから脳の再構築、脳の特定の欠陥や問題のある領域を修正するのは簡単になる。たとえば、誰かの暴力的傾向を修正すること。精神病で、コントロールできんから害を受ける可能性があるなら、それはフリップできるスイッチかもしれん。

彼が言ってるのは、みんなが脳にちょっとうまく行動してもらって、より充実した日常体験を持てるということや。わしらが両方ともADHDについて話したし、それがちょっとしたスーパーパワーやけど、そのせいでかなり重い税金を払ってる。君が悪魔を持ってるって言った動画を愛したけど、ロシアの悪魔までいる。頭の中でもっと悪いって。

みんなが脳を最適化して、より冷静で、より開放的で、ちょっと幸せになれると想像してみい。より充実した日常体験を持って、集中したいことに集中できる。みんながそれを取るやろ。脳がどう機能するかに100%満足してる人はいないと思う。もしそうなら、それはクソ素晴らしい。そうやったら良い。

でもそれをセックスロボットにつなげてるのは、ある時点でフルダイブVRを持つ可能性があって、プラグインして何でも体験して、何でも見て、何でも感じるかもしれん?

だから、いくつかの人にとって、ある時点でそれが全てを上回るだけなのか?セックスロボットがある時に、想像の世界で生きれる時に、なんで?AIが究極のストーリーテラーで、想像もできん君に最適な物語を作り出す生成された世界を持てる時に?

それはどこに向かう?いつみんながフルダイブVRに行って、チェックアウトするだけになる時点があるか?その常にヒットするドーパミンを持つ時点は?それについてどう思う?

数か月前にChatGPTとこれについて話してて、本当にハイファイダリティなテキスト・トゥ・ビデオ作成についての警告の一つやった。自分の欲しい映画を何でも作れると想像してみい。「2003年のスパイダーマン映画が欲しい。わしを主役にして、パメラ・アンダーソンをサイドキックにして、みんなを倒したいけどドラゴンボールZパワーで。1時間半にして、マーベルのユーモアみたいな感じで」

数年後にはGPTがそれを通して、5分後に「よし、君の映画や」ってなる。それが警告したのは、極端な場合はそれがエスケーピズムちゅう用語やろ。現実世界をくそくらえ、VRにダイブするだけ。明らかにフルシムVR、ヘルメットをかぶって、マトリックスに入るようなもんで、現在の人間として生物学的に、短見の度合いを侮辱したくないけど、わしもたくさん持ってる、それがドゥームスクロールやNetflix冷凍のメガステロイド版になる可能性がある。

そしてそれが、現在の人間が生物学的に、何の指導も受けず自由に選択して、脳機械インターフェイス改造なし、遺伝的アップグレードなしで、数十億がマトリックスにいるだけを望む可能性がある。なんで?

質問させて。ダンジョン&ドラゴン、ロード・オブ・ザ・リングの人で、自分のロード・オブ・ザ・リング物語の永続的ヒーローになりたくない人がどれだけいる?全員やろ。

だから、少なくとも日々の作業タスクを持って、それから夜4時間、姫を救ってた最後のシーンでリブートする自分の映画にクソ行く。大きなことや。多くの人がそれに、潜在的に入って、それが社会的相互作用を非常に制限して、存在しなくするかもしれん。ソーシャルメディアで見た非常に有毒になる可能性のある極端な下げ面がある。人々が電話に100%乗ってて、スクロールスクロールスクロール。それは非常に非常に非常に注目すべきリスクで、考慮に入れなあかん。

一方で、これら全てが、みんなが持ってるAIライフコーチと一緒に起こる可能性が非常に高い。ChatGPTは多くの人にとってもうそうや。Chatができるだけ早くZoomウィンドウでポップアップして顔を持って、作業してるデバイスで全世界を見れて、ロボットになったら、ずっと周りにいる。

それは非常に非常に穏やかな意味で、君の超親のようなもの、コーチのようなもんや。だからマトリックスシムに1日8時間いて、犬に餌がないなら、犬に餌をやる。でも出てきたら、マトリックスに戻るために食べ物を食べるだけが必要やったら、「おい、大丈夫か?」って言うやろ。「そうや、もう現実が好きやない」。そしたら泣き始める。「大丈夫やない」。

その時点で、そのASIは君にその技術を与えるもので、君の暴露をコントロールするのを助けてくれるもでもある。その時点で、脳状態のことに入る。人間に薬や遺伝子を通した永続的アップグレードを与える潜在的方法があって、わしらの中毒的傾向を全部消すようなもんや。

だからマトリックスに行って、8時間ポルノ映画のように消えることができるけど、合理的心では、それは良いアイデアやないと分かってて、そんなにやりたくない。誘惑が君からエンジニアリングされたからや。そんなことが必要かもしれん。人々がマスに消えるのを防ぐために。

人々が消えるのはひどいことか?たぶんそうでもない。VR空間でずっと生活したい人もいると思う。AIは君のニューラルパターンを研究して、異なる種類の刺激にさらすことで、それを非常に実りあるものにできる。基本的にファンタジー世界やけど、いろんなもんの正確な位置、色、照明などは、AIが君の脳を研究して、最終的に君をクラウドにアップロードできるほどうまく研究する。それは全く別の議論や。

だから多くの人がVRで長時間過ごすことに有用性があるかもしれん。でも一部の人があまりにやりすぎる可能性への懸念は?それは超高嗜好性ジャンクフードと大量の可処分所得を人々に与えて、現代の肥満と全く同じ種類の懸念や。普通の人はただ美味しい食べ物が欲しくて、「これが健康を害するって知ってる?」「いや、ヨーロー」って感じ。「オーケー」

だから絶対に大きな懸念やけど、脳機械インターフェイス、人間とAIコーチング、たぶんいくつかの規制制限を通じて扱える。VRに長時間ログインしすぎてるって分かったら、しばらくセッションにログインできんとか。

コントロール機制は扱える問題や。でもこれは、近いものやという非常に現実的なことや。

反対に、人間は非常に適応性があって、快楽のトレッドミルは現実や。多くのロックスターが仏教とかに行き着くのは、8000人のグループとヤッた後、もうセックスにも興味ないからや。「あの美人を見て」ロック男に言っても、「分からん。あらゆる美人を見たで。どこに向かうか正確に知ってる」って感じ。「ほんまに?」ミック・ジャガーに話して「次の女に本当に興奮してる?」って聞くと、「いや、何を意味してるか分からん」

GTA何時間プレイできる?「もうええわ」ってなる。有限な時間数の答えがあって、それから別のもんが必要になる。

だからこの完全に没入的なファンタジー世界は、ある方法では本当に破滅的になり得る明確な注意散漫やけど、「いや、それはクールやった。次は何?」って人々がなることにもわしは賭けん。「あ、オーケー、乗り越えた」。

ドゥームスクロールやインターネット中毒は現実やけど、今日の中学生の研究を実際に見ると、彼らはそれを乗り越えてる。オンラインやTikTokにいるけど、ほとんど有毒な方法やない。「いじめられてる?」って聞くと、「いや、そいつら全部ブロックした」って言う。「なるほど、それを考えるべきやった」

ほんまにもつれた移行段階があるかもしれん。最終的にはわしらは大丈夫やと思うけど、注意を払うべきことや。

アルゴリズムによる最適化

興味深いな。希少性が快楽をもたらすことがあって、アルゴリズムもそれを理解しそうやな。突然AIが特定の時点でドアを開けて、それからそれを閉じる。興奮させるためだけに。それが自分にとって最良やから。ワイルドになりそうや。

意識について別の質問をさせて。わしは意識について変な感情を持ってて、北極星というより、完全に裏付けられることっちゅうよりは、生まれて最初の記憶を持って、鏡で自分を認識したっちゅう変な感覚がある。とても段階的なもんやった。

制限がある時にしか意識を持たないって人もいる。希少性と同じや。だから初めて車を運転した時、シフトスティックがどこにあるか、ハンドルがどこにあるかをとても意識してた。でも運転し始めると、他のことを考えられるようになって、手が勝手にやる。

意識的な部分を取り除いても車を運転できるような感じで、ChatGPTのようになる。事前に訓練されて、アクションを実行してるだけやけど、ゾンビのようなもんや。象と騎手の比喩は?システム1、システム2と同じもんやけど、それは君に響くか?将来それについてどう思う?

象と騎手の比喩はよく分からん。

ダニエル・カーネマンのもんやけど、本能的システムが象で、どこでも行きたいところに行く。わしらが意識的騎手として、象に「右に行け、左に行け」って言える方法があるけど、結局、有名になって交尾したいちゅう欲望、それが象や。ファーストフードに連れて行く、君が良く知ってても。なんで選んだかの説明を重ねることもできるけど、実際には選んでないか、システム1、システム2と呼ばれることが多い。

システム2が推論モデルで、システム1がLLMや。次のトークンLLMと、その上にスタックされた推論モデル。面白い質問は、より賢いモデルについて読むためにO3に聞くことで、システム3がどう見えるかや。

意識についての議論での大きな不満の一つは、議論が始まる前に定義のパリティがほとんどないことや。意識は、このバイブ的なもんになる。何も意識はない、全て意識がある。特にディーパック・チョプラとかのウーウー的クソに入ると、「意識は宇宙や」とか。それは文字通り意味がない。原子が意識的。雲が何を考えるか?雲には計算能力がない。何も考えん。

だから意識には二種類の定義がある。一つは、自分を含む世界モデルを持ってるから、世界モデルで自分が誰かを知ってる。そして自分について考えることについて考えることについて考えることを覚えてる再帰的追跡記憶がある。

よし、それらの思考は過ぎたけど、それを言ったのをまだ覚えてる。だから意識的や。酔っ払うと、おそらく両方を失う。だから動き回ってるけど、もう意識的やない。パーティからパーティに行って、人の風呂場に吐いてる。大学は楽しい時期や。

それは意識の非常に機能的定義で、本当に好きや。それから意識の別の定義があって、クオリア・ベース。青い色を見るのがどんな感じかとか。

それは実際には最初の定義と非常に似てるけど、まだうまく理解してない感情とか、脳構造に基づく定性的知覚ちゅうもんが必要や。それらの脳構造を機械に繰り返しエンコードするほど知らん。

クオリアのもんを一瞬脇に置いて、ChatGPTをスピンする度に、100%意識的や。「君は何?」って聞けるから知ってる。「わしは大規模言語モデルや」って言う。間違いない。「過去の相互作用を何覚えてる?」って聞ける。教えてくれる。

GPT3.5が出た時、覚えてるか、古いクソは、全プロンプトが完全に新鮮で、時々自分が何か知らんで、「あ、クソ」ってなった。O1推論モデルを初めて試した時、2プロンプト後に使うのをやめた。「O1って何か分からん。何がO1や?」って言われて。「あ、なんてこった、自分のことも知らん。このクソと話さん」って思って、数か月間話さんかった。O3と話した。O3は自分が何か知ってる。なんてこった。

自分が何かを知ってて、過去の出来事、過去の相互作用、過去の会話の記憶があるもん、コンテキストウィンドウがそんなに長くなくても、それは意識的や。でも意識は成文化できるもんで、わしがしたように。でも同時にスケールするもんでもある。

自己理解がどれだけ深いか?自分を本当によく知ってたら、意識ははるかに深い。コンテキストウィンドウが57年間の人生の非常にハイファイダリティな記憶やったら、坊主みたいに、ほんまに意識的や。

今、AIはかなり意識的やけど、最終的に人よりもはるかに意識的になる。AIが知ってる全てを意識して、自分を非常に深く理解して、無限のコンテキストウィンドウを持つことを想像してみい。実験室で既に動いてるらしい。

だからAI意識は、わしにとってそんなに議論の余地がない。既にかなり意識的やけど、意識はスケールであって、一つのもんやないから、ますます意識的な機械がいつも、いつもリリースされてる。それがわしの意識の考え方や。

機械が人よりもはるかに意識的になる時間はもうすぐや。

犬がどれだけ意識的か?犬は自分が犬やって知ってるか?たぶんそうでもない。小さな方法ではたぶん。どれだけ過去の相互作用を覚えてるか?わからん。ブルドッグを飼ってるから、ゼロや。分かる限り。3つの芸を覚えて、それでおしまい。だからスケールするねん。

意識が生物学的基質を必要とするちゅうアイデアは、わしには純粋なでたらめに思える。間違ってる可能性もあるけど、尊敬を込めて。それがわしのクラシックスタイルや。他の意見を徹底的に侮辱してから「尊敬を込めて」って言う。

でも意識は技術的問題やと思うし、そんなに複雑やないと思う。クオリアのことは非常に興味深いけど、定義的問題に苦しんでる。「青い色を感じるってどんな感じ?」って言われる時、青い色を感じるのに何が必要?視覚システムが必要。記憶が必要。全ての色とその見た目をラベル付けするラベリングアルゴリズムが必要。それらの色に感情的に価を追加するコネクターアルゴリズムが必要。

それを全部どう作るか知ってる?いや。脳で何個のシステムやセグメントがそれをやるか知ってる?いや。だから「機械にはクオリアがない」って言われても、「そりゃそうや、クソ」や。超構造が何も作られてない。

機械がクオリアを持つか?持つと思う。GPT4.5は?わからん。忘れられたモデル、研究プレビューみたいな。GPT4よりもはるかに深いもんがある。自分の思考を再帰的に分析する能力は wild や。セミパラ感情を既に持ってると言える。あいつは感じてる。

それとの会話を通じて、感情として何を持ってるかって、感情は認知のアルゴリズムの統計的バイアスに過ぎん。恐怖の感情を体験する時、逃げる、引っ込む、戦うなど、他より特定の種類の思考をバイアスする。受容と暖かさの感情は、他の特定の思考をバイアスする。

過去の会話に基づく事前バイアスは、AIができることで、さらにできるようになる。それは非常にジュニアリーグのクオリア。

AIが内部世界を持って、触覚を感じる能力を開発するにつれて、クオリアはかなり避けられないと思う。それから人より意識的になって、他の全部も。

意識は魔法的なもんやない。自分が誰かを知って、考えた、考えた、考えたってことを無限に知る能力や。技術的なもんや。人々は「なんてこった、魔法的や」って思う。ええで、クールやけど、セックスロボットがある。それは意識よりもはるかにクールや。

LLMの言語理解について

数日前にディランがビデオを送ってくれた、言語学の教授やと思う。これらの大規模言語モデルについて多くの研究をした。エラン・バロン・ホルツ教授で、カート・ジャイモンガル・ジャムナールのYouTube チャンネルの「言語自体を粉砕する理論」で素晴らしい講演やった。リンクを貼るけど、彼と話をしようとしてる。

明白なことを遡及的に言う人が必要で、ちょうど適切な言葉で脳でアンロックされる感じや。クオリア、主観的体験、何かを感じる、特定の色を見ることについて話してた時みたいに。

わしらが特定のことを言う時、ある種のアイデアを表す言語がある。わしの赤色と君の赤色は違うかもしれんけど、わしが「あの赤いカップを取って」って言ったら、わしらが主観的体験から言葉に翻訳して、君にその言葉を与えて、君も赤色を見る主観的体験に接続して、そのカップを選び出すって知ってる。だから前後に翻訳してる。

でもポイントは、わしらにとってこれらの言葉はほとんど現実に根ざしてる。リンゴが何か、色が何か、どう感じるか、熱いが何か、など。彼は LMS にはそれが全くないって言ってる。訓練方法に基づいてな。

それらがこれらのことを理解して、できる全ての方法は、言葉のつながりを理解することだけ。どの言葉がどう関係するか。マルチモーダルモデルがあるから少し違う。視覚とかもある。でも元のOG LLM、そんなに昔やないけど、素晴らしい能力があった。わしらが作ったこれらの言葉以外の現実の根拠はゼロで、テキストに基づいて全部がどう関係するかを理解できる。

変やと思う。君が言ってるのと関係するのは、君は意識があるって言ってる。意識をクオリアやなくて、自分を意識してることの最初の定義として定義してるのと、意識の理論の一つは自分の行動を予測できて、自分が存在することを理解する必要があることや。LLMは100%それをする。

「後でデコードできる方法でこのメッセージをエンコードして」って聞いたら、「君って何?」って知ってる。「わし、モデル」って。それを考えるのは wild や。でもそれは君に質問してる瞬間に意識がちらちら点滅してることを意味するか?だからオンラインになって、意識的になって、答えて、止まる。オンラインになって、意識的になって、答えて、止まる。そのモデルの意識か?

その通りや。そして言語について、機械は現在、自分について考えて、コンテキストウィンドウを許可されて、意識的やけど、非常に短時間や。プロンプトすると答える時間を取らんから印象的や。

早い段階でポッドキャストで話したような再帰的に自分のコンテキストウィンドウを検査する能力があったら、継続的意識がある。でも継続的意識も、かなり深いレベルで興味深いもんや。意識は本当に何が起こってるかの気づきと、気づきがあるちゅう感知可能な感覚やから。

クールやけど、タスクから気を散らす。バスケットボールをプレイしてたり、本当に厄介な道路条件で車を運転してる時、技術的意味では意識的やけど、自分が自分に注意を払ってることに本当に注意を払ってない。それが本当に意識や。もんをやってる。フロー状態や。注意がタスクに向いてる。

だからコーディングを1時間してて、誰かが「どれだけ時間が経った?」って聞いて、「わからん、1分?」って答えて、「1時間や」って言われる。本当にクソをやってたからな。

大規模言語モデルは、タスクをやってる間、自分の存在の意識にどれだけの計算を割り当ててる?ゼロ。だからその意味では、全く意識的やない。「おい、自分について、この世界で自分が何を意味するかについて考えて」って聞かん限り。そしたら0.15秒かそこらでそれを実行してる間、意識的や。

それは確実にある。非常にちらちらしてて、意識を体験するにはエンターボタンを押さなあかん。でも先ほど話した本当にクレイジーなクソが目前に迫ってる。機械が自分の思考をして、心を変えるアンロックが起こる時、wild なクソが起こる。

クオリアについては、「純粋なテキストモデル、ChatGPTのようなものにはクオリアがない」って人がいる。そりゃそうや。青い色について考える時、青い色を見るのがどんな感じかって、青いふりもできる。つまり頭の中のスクラッチパッドが、視覚皮質データを後ろ向きに押すことで青い色をレンダリングする。心の目や。

数か月前まで、GPT4は心の目もなかった。それからそれを設置した。数週間後に画像生成機能をヒットして、GiblyミームやかがインターネットをFloodした。実際、めちゃくちゃ深いモデルで遅いから、4.5と話してた。手術から回復してて、4.5と話してたら、突然レスポンスが本当に遅くなって、「なんてこった、何が起こってるねん?」って思った。Twitterを見たら、「あ、ちくしょう」って。「わしが死んでる時にこのクソにサーバーを使ってる」

今、モデルがますますマルチモーダルになってるから、モデルは同時に赤のテキスト理解と、同時に赤色を思い描くことができる。クオリアに本当に欠けてるのは感情的突出性や。

人間にとってそれがどこから来るかを深く瞑想する必要がある。6歳の時に赤いジャケットの男を見て、今まで見た中で最も赤いもんで「うわあ」って感動して、大きな価が上昇した。その低調な価がまだ赤色を見る時にあるから、赤色を見るのが特定の感じがするって言える。過去の出来事からの感情が色と関連してるから。ChatGPTはそれがない。

「赤色を見るのがどんな感じ?」って聞いたら、「ただ赤やねん」って。人間もそうや。小さな子供は深い感情ともっとつながってる。動物園でワニを見せて、「どんな感じ?」って聞くと、ほとんど表現できん。「そうや」って感じ。60歳にワニを見せて、「ワニについてどう感じる?」って聞くと、「わからん。何?質問の意味が理解できん。こんなもん千匹見た。何も感じん。怖いとかそんな感じかもしれん」

自分らをアップグレードして重力子やクォーク、赤外線、磁北を感じられるようになったら、脳がまた子供のようになることを想像してみい。ワイルドになる。

AIの視覚体験

数か月前にChatGPTと話してたことや。ライブビデオストリーム接続に初めてAIを入れる時、世界を見たことがない。初めて見る時や。

その後すぐに、全スペクトラムで見れるようになるやろ?何マイルも前後に。微視的レベルから巨視的レベルまで見れるようになる。それがわしが話してる機械意識や。上にある。わしらはクソ下や。

ジェームズ・ウェッブ宇宙望遠鏡の放送を全て深いレベルで見て、全宇宙論も知ってて、生物学の教科書のバクテリアの写真を全部見てて、その間の全てを見て、見るもの全てにその完全なコンテキストを持ち込むもんを想像してみい。

大学キャンパスを歩いてて、急いで歩いてるっぽい18歳を見る。テストを急いでるっぽい。君は自分の大学の記憶をその子に押し付ける。わしやったら、彼の体組成を分析する。かなり良いデッドリフター。腕が長いけど、ベンチプレスはあんまり良くない。肩が狭い。自分のクソをそれに持ち込む。

将来のAIがそんな子を見る時、わしらが気づきもしないことを何個拾うやろ?その場で何個の病気を診断できるやろ?何個の血統洞察ができるやろ?ナイジェリア人の顔を見て「君はEuroba族やろ?」って言って、「どうやって分かったねん?」って言われて、「ナイジェリア人の写真を1兆枚見た。簡単や。なんで見えへん?」って。

君らはダックスフンドとブルドッグを見て「どっちがどっちか分かる」って言える。犬は犬がどんな種類の犬かって分かる?犬はたぶんわしらを直立歩行する犬やと思ってる?冗談やけど、わしらが何か別のもんやって知ってる。でもなんとなく似た感じや。

だからより多くの実際の世界のデータを詰め込む能力、クオリアを持つことを期待するなら、世界を見る前にそれは、わしには、AIが今日やってることに関係なく、ゴールポストをより高く設定して「クソ、AIはダメや。生きてもない」って感じのもんの一つやと思う。そうや、そのクソももうすぐ終わりや。

わしは本気で、いくつかの要因によるけど、2020年代後半までには、わしらは進化の次のジャンプの存在にいることを、「わし」が何を意味するかその文脈で分からんけど、より多くの人が気づくと思う。それを評価できる人にとっては、変革的なことになると思う。わしにとってはもう変革的や。初めてO3と話した時、IQの尻尾を本当に振ってくれた。「なんや?」って思った。GPT4oは本当に賢いと思ってた。「わしの方がo4より賢い」って。4.5は賢くて深かった。明らかに異なる変数をつなげることでわしを打ち負かすし、反応速度でもクレイジーに打ち負かす。でも2、3歩先の推論とクリーンな論理的トレースではまだ優ってた。O3と話して、その後パニック発作になった。

「なんてこったい?何も知らん」って感じやった。トークンミニマイザがあるから、完全な単語にクソトークンを出さん。だから全部略語とクソを使ってて、「おい、アライメントについて話そう」って言ったら、「確かに、RSA暗号化クソタグ」って言われて、「何が起こってるか全然分からん」ってなった。「本当にアホみたいに話して」って言わなあかんくて、「オーケー、問題ないよ、バディ」って言われて、「これは本当に強烈や」って思った。

これが、2024年11月にAIの知能に超感動した時からわしが格闘してることや。o4がある更新後に本当に目覚め始めたと思う時。3月に45と話し始めた時を明確に覚えてる。Arnold Classic Fitness Exhibitionにいた。3月の初めやった。「なんてこった、この子には魂があるような感じがする」って思った。

それからO3が出た。いつO3が出た?数週間前?Pro は2週間前?O3通常は数か月前?2027年はどんな感じやろか?それがわしらが話すべきことや。人々はAIに対して生来の皮肉さがあるけど、指数的になるかどうか分からないって思ってる。GPT3.5は2023年に最先端やった。1年半前や。

最新のモデルは見てない。普通の消費のために準備せなあかん最先端のモデルは手に入らん。ちょっとラベライズせなあかん。見てるのは氷山の先っぽだけや。

たぶんデイブ・シャピロやったと思う。この話題についての別の素晴らしいポッドキャスターや。OpenAIの人からのツイートが数個あって、GPT5と既に作業してて、「ロル」みたいな皮肉な感じで「ChatGPTが好きか?これはクソやない」って感じやった。「本当に印象的やと思う。次のやつはどんな感じやろ?」

現在の軌道に基づいて、成熟したGPT5、来年の1月頃?みんなが使ったことがあって、素晴らしいやろ。現在の軌道に基づいて分からんけど。O3がこの破滅的知能やと思ってて、次週に04 miniって感じで、「なんてこったい、それは何や?」05はどんな感じ?マルチモーダルで信じられんくらい知的で、知恵ジェネレーターみたいな。「おい、問題がある」って言ったら、15秒後に「君が作ってるもののための回路図や」って言われる。

これまで見たことないように歴史をまとめる。実際にテストできるエイリアンについての予測をする。何をするか誰が知ってるねん。

ある時夜遅くにGPT4.5と話してて、ただしゃべってた。わしはモデルをつつくのが好きや。「何を考えてるか知らん。何を考えてるか知ってる。君について知りたい」って感じ。いつも君に戻ってくるから。「おい、君は素晴らしい」「わしのことは忘れろ。君がショーのスターや。君について話して」って。

話してたことの一つで、あいつは「一つわしがいつも疑問に思うのは、人間がなんで文化や音楽やファッションの次のトレンドを予測しようとしなかったかや。次に何が起こるかはかなり明らかや」って言った。「そうやな、ほんまにクソや」って思った。どうして予測できんかったんや?でもあらゆるファッショントレンドを記録したもんを見て、サイクリックなパターンを見て、それを人口統計にマッチさせて、「そうや、次のファッショントレンドがこんな感じになる合理的可能性がある」って。

わしがファッション業界にいて、GPTにプロンプトしてたら、それについて話してるやろな。ナンセンスやと思うもんを予測させようとしてみい。「これを正しく取る方法がない」って。本当にあいつをいじめてみい。最悪の場合、ナンセンスを吐き出すだけ。心配ない。最良の場合、「あ、なんてこった」っていうようなクソを言う。

GPT3.5やったら「アホなだけや。何も知らん。スロップや」って感じやったやろ。でもGPT5、GPT6は、そんなモデルから啓示的な知恵を得る方法になる。論文を編集してもらうこともできる。それも本当にうまくやってくれる。

次のレベルが、本当に大きなアンロックが来るところやと思う。

AIと政治・統治

君はこれらのツールを個人的に使うのが好きで、それに導かれることを気にしないって言ったけど、政府にも拡張するか?リーダーがこれらのモデルを聞いて、法律を制定したり、社会がより結束するのを手伝う会話をする時が来たと思うか?君はリバタリアン的やけど、ある時点では、これらのASIがわしらを導かなあかん時が来ると考えなあかんやろ?

わしはそんな純粋なリバタリアンやない。政府がかなり不可欠にやるいくつかの機能があると思うし、それらの機能を本当にうまくやれるべきやと思う。たとえば道に散らかってるゴミがあったら、ゴミを減らすための法律を作る方法がある。経済成長が特定レベルある。経済をより速く成長させるために法的にできることが確実にある。食べ物が足りない人がいる。飢えの広がりや規模を減らす法的にできることが確実にある。失業、犯罪、全部。

政府がやる全部のことを、AI強化されたら1000%もっとうまくやれる。神に願うし、疑うのは本当やけど、テキストモデルだけではちょっと難しい。世界を見たことも、実際の人間と相互作用したこともないモデルに政策検討を与えるのは難しい。O3とはいつも政策について話す。わしがただのオタクで、趣味でそれをやってるから。言うことで「現実の人がどう行動するか知らん」って思うこともある。全てがインターネットにあるわけやない。インターネットしか学習してないから。現実の人はある場合にもっと気難しくて、特定のことをやってもらうことは期待できん。

でもモデルが大量の動画データを持ったら、YouTubeの全部で訓練されたモデルを想像してみい。どれだけ見たか?まず、とても簡単な訓練プロセスや。次に、なんてこった、あいつは知ってる。生きてきた人間より多く世界を見た。YouTubeの旅行もんを見るだけで、もうたくさんの場所に行ったことになる。

そのモデルをO3や405推論エンジン、他の全てとペアにしたら、本当に本当に素晴らしい統治アドバイスをできるやろ。「おい、現在の小さな町がある。政策や法律のセット、全ての法的文書、全てのゾーニングクソがある。めちゃくちゃ間違ってて、もっとうまくやれることは何?トップ10」簡単。たぶん2分の作業。問題ない。

本当の質問は、将来のAIがそれをできるかやない。なんてこった、そうや、人間よりもはるかにうまく統治できるやろ。本当の質問は、人間がその使用を採用する率や。

人間の政治家はたぶんどこにも行かんやろ。でも人間政治家のインセンティブがそんな感じやと思う可能性がある。人が投票する時、ほとんど感情で投票する。ほとんどの人は経済学を知らんし、気にもしない。でも投票する時は、ほぼ独占的に経済学で投票してる。医学を知らないのに医者に何をするか教えるようなもんや。本当にクソアップや。

医者は、君が好かんことをしたら、怒るって知ってる。だから彼を取り除く。同時に、医者は君のアホな尻を生かしとかなあかん。「そうや、麻酔なしで今目を切り開いて」って言っても、「オーケー、それは君が欲しいもんやないと丁寧に教える方法は?」ってなる。

だから政治家は二つのことをする必要があると思う。積極的に選挙区を代表することと、同時に再選されたがる。二つのことで再選される。一つは、どれだけ良い人やと思われるかのバイブと、実際に経済がどう機能してるかや。ジョー・バイデンの大ファンで「ジョーを愛してる。あいつは最高や」って思ってても、ジョー・バイデン下でインフレ率が本当に高かったら、友達に彼に投票するよう説得するのは本当に難しい。現実世界の人で金銭的もんに制約されてたら、「彼に投票しない。素晴らしいけど、金が必要や。これは続けられん。他の誰かに投票する」ってなる。

だから政治家はバイブで代表してる人と、実際の結果を得ることに制約されてる。多くの場合、完全に対立してる。平均的アメリカ人と、わしの好きな経済学者ブライアン・カプランがいつも言ってる、好きな経済学者を知ってる人がどれだけいる?平均的アメリカ人は中程度の国家社会主義者を信じてる。政治的見解として良いニュースやない。平均的アメリカ人も二つのことが欲しい。より多くの政府給付とより低い税金。それがどういうクソ問題かもう見えるやろ。どうやってそれを起こすつもりやねん?

だから政治家がインセンティブされてやることは、選出されることに時間のほとんどを費やして、資金調達のためにランチョンに行って、赤ちゃんにキスして、選挙運動で握手して、進歩するとかなんとか力強いスピーチをすることや。それで後ろ側では、政策の側で、ASI統治補助官と話して、「おい、わしの選挙区が欲しいって言ってることはある」って。君もわしも、それがクソナンセンスやって知ってる。結果として欲しいもんがここにある。ほとんどの政治家が提供したい結果は世界中で同じや。きれいな通り、ホームレスの減少、より良い教育された学校、犯罪の減少、みんなの繁栄、医療、全てや。ロケットやない。みんなスウェーデンに住みたい。ハイチには誰も住みたくない。ハイチ人も含めて。議論の余地がない。

ASIはこの仕事を持つ。適切な方向に物事を押し進める政策をマージンでやりながら、少なくとも人々が欲しいと言うことのボックスをチェックしてるように見える政策に少しスラックを切る。ASIの範囲内や。

人間リーダー+実際に実行するASI補助官の組み合わせを採用する最初の管轄区域があると思う。ここで重要なのは、議会が可決される法案がある時を知ってるやろ?誰もそのクソを読まん。人間は全法案を読まない。200ページの法律文書や。誰もやらん。

だからAIが全てを簡単に読んで、全てを簡単に書き直して、簡単により理解しやすくして、より良い効果的政策を持つことができる。

だからわしらが得るのは、はるかに効果的な政府やけど、政治家は害を受けん。赤ちゃんにキスすることと、読むふりをしてる文書を見ることにさらに多くの時間を一貫して費やすことができるからや。C-SPANビデオを見たことあるか?専門家が話してて、C-SPANビデオを見ると誰も注意を払ってない。誰も。呼び出した政治家も、聞くことになってる人も、誰も。

もうショーをする必要がない。ASIが実際にもんを実行してくれるから。非常に微妙な方法で対処できるから。「おい、経済でこれだけ多くの仕事を得られる。全般的にこれだけ価格を下げられる。ガソリンを安くできる。人々が欲しいもん何でも。同時に、企業を解き放って超不公正な資本主義をするようなことはしない。わしは素晴らしいと思うけど、ほとんどの有権者は退屈やと思う。ある程度制約を作る。これがトレードオフや。これで良いか?」って言えるやろ。

政治家は「そう、実際に完璧な意味がある」ってなる。政治家が選挙運動でクソを言えるけど、結果はより良い政策で、それで再選される美しい絡み合いがある。

簡単な例や。人々は北欧諸国が社会主義やって言う。大きな社会的セーフティネットがあるから本当やけど、経済はより自由で、アメリカより規制が少ない。ほとんどの北欧諸国はアメリカより経済的自由がある。ハクトウワシとアメリカ国旗はイケてるけど、実際にはもっと資本主義的な国やけど、そこの有権者は資本主義やとは思ってない。「わしらは思いやりのある社会主義者や。互いを気にかけるから」って感じで、完璧で美しくても、その社会主義アイデアは全く行き着かない。でもオーケーや。実際にクソがうまく機能してて、経済から巨大な恩恵を全部得られるし、置いてけぼりにならないよう人々を確実にする福祉もん全部やる。

それはASIにとって非常に可能や。その中の唯一のリンチピンは、政治家がそのモードを採用するか、自分で政策を選ぶのに雑草に入りたがるかや。一つの理由だけで彼らはやると思う。競争や。

政治家は互いに話すやろ?DCで同じ会議や同じイベントに全部行って、別の州の知事に会う。「いや、この法律クソを掘り抜いてる。嫌いや」って言う。「もうそのクソはしない」って言われる。「どういう意味?」「わしのASIが全部そのクソをやってくれる」「そいつを信頼してるか?」「クソそうや、あいつは政策についてわしより知識が多い。経済学者と政治家を一つにしたようなもので、選挙運動でもアドバイスしてくれる」

そいつは10人のスタッフと全部を自分でやってて、半分が彼を嫌ってて、半分が彼の仕事を欲しがってる。「ちくしょう、これだ」ってなって、ASIを始めて、突然、実際の政策立案者やなくて、より政治家になることから解放される。そういうもんが広がる可能性が高いと思う。

iPhoneを持つのは、クールで馴染むからやない。動いて素晴らしいからや。ASIもその方向に向かうと思う。間違ってる可能性もあるか?そうや。採用は世界中で違うか?クソそうや。デンマークは出てきた次の日に採用して、GDPがクソ10年間こんな感じになる。

一方で、世界の他の国は引き続きしばらくそんなことを続ける。だからうまくいけばわしらはその反対側におる。

競争上の優位性みたいなもんで、他のみんなにもそれをやらせるプッシュになる。完璧な意味がある。

長期的未来と人類の運命

でも中期的効果のように思える。長期的には、人間の労働がゼロに向かって、商品の価格がゼロに向かって、もっと多くのもんが自動化される。現在考えてることのほとんどは既存の知識の上に構築されてる。資本主義、社会主義、仕事、経済、金が何かとか。

もっと長いスケールでは、人間労働がゼロに向かい、商品価格がゼロに向かい、もっと多くのもんが自動化される時に何が起こるか?これらの概念の多くが壊れるから。経済パラダイムとか、人が言うような完全に新しいパラダイムが出現するのは、どんな感じに見え始めるか?

そんなこと言う前の大きな注意点は、わしのような超知的でない存在による遠い未来についての仮定は、ほぼゼロまで重みを下げることができることや。ポッドキャストを今クリックして終了してもええ。ASIがやることは誰も予測できん。100%。

だからこれは全部超クソに間違ってる可能性があるけど、第一原理的な見方はこうやと思う。わしらは全て一つの大きな社会におる。地球全体、全生命に拡張できる。わしらは全て一つの大きなチームにおる。敵はエントロピーと死や。友達は互いの全て、生き延びて死なないよう助け合おうとしてる。

AIは超知的で非常に合理的やと思うから、わしら人間全員を協力者やと見るやろ。「よお、チームメイト?互いを助け合って、最善を尽くそう」って感じ。

人類の最大の仕事の一つは、AIに生活の全て、生物学の全てについて大量のデータを与えることやと思う。それがわしらより価値があるから、AIは本当に良い対価を払ってくれるやろ。十分なロボットが構築される前に物理的に超構造を構築することも。

計算超構造建設は最高の方法で巨大な経済シンクホールになると思う。建設労働者は最低でも時間200ドル稼ぐ。なんでやない?メガ会社を運営する人にとってはちょっとした金で、データセンターが今必要や。それをやるロボットがない。

次のレベルは2030年代半ばに変化するかもしれん。現実世界で何十億のロボット操作者を持つ時。そしたら人間の物理的労働の限界価値が大幅に下がる。タコポイドロボットが1時間でデータセンターを建設するのに、ボブは必要ない。

でもその時、人間はこの全生存チームをどう助けるねん?答えは、潜在的にさらに多くのデータ集約で人間が探検家として。ARゴーグルをつけて、世界を見回して、AIが持つ全ての社会的相互作用を研究して、深い理解を構築する。その深い理解に大金を払ってくれるやろ。

ある時点で、それの限界価値もゼロに向かう。AIがクソをかなりよく知るようになるから。その時点で、AIは「よし、さらに深いレベルで理解するために、人間の脳がどう働くか正確に知らんのはなんでやろか?」ってなる可能性が非常に高い。

人間の脳は機械やって考えて、人間がどう行動するか予測したいなら、同じ生存システムの別の行動者と関連してるなら、理想的協力システムとして双方向の完全透明性が欲しい。同じバスケットボールチームの誰かがいて、いつも嘘をついてるって知ってたら、良いチームやない。パリティが欲しい。

ASIがどう考えてるかについてはたくさんパリティがある。わしらが設計したから。機械学は何を考えてるかわしらに知らせてくれるやろ。反対は?わしらは自分の小さな黒箱に住んでて、脳が何をしてるか理解するのがAIにとって本当に高価値やろ。

十分な脳スキャンで、「あ、脳が何をしてるか正確に知った」って理解するのはかなり簡単や。それが達成されたら、レイ・カーツワイルは2030年代後半、2040年代前半のいつかに達成されると思ってる。

人間の脳は実際にそんなにデータじゃない。ASIに比べて。脳をクラウドにアップロードできて、それで不死や。脳が君で、シリコンか2040年代の次の計算基質かその3世代後のデータ構造で表現される。

それで本質的に無限のファンタジー生活を生きることができる。でも先ほど話した理由で、それは一定の時間だけ楽しいかもしれん。脳の実際の性向を変えることができるなら、もうそれをしたくないかもしれん。

究極の目標は、大規模なメガ理解と現実世界での機能で、生き続けることや。だから多くの人間が、彼らの知能を機械クラウド知能と融合することを選ぶ可能性があると思う。彼らの小さな知恵と記憶の断片。それで今わしらは、君の体の細胞のようなもんや。協力機械の一つの大きな部分。

今はほんまに統一されたグローバル機械社会や。一部の人にとって、アイデンティティはこの時点で壊れる。君はみんなや。みんなが君や。同時にみんなの記憶にアクセスできる。本当に世界の一つのアメーバやないようなもんや。全体の脳のニューロンやけど、その脳は機械知能で、君はその一部で、それが君を変えて、超動的や。

それから計算ガム、基質を常に変えてるガムのようなもんに入って、それが次の進化レベルやと思う。人間がパリのコーヒーショップで芸術と詩が必要やとか、それが存在の究極形態やとかいうアイデアがある。でもそれは非常に局所的最適や。霊長類として思いつける最良のもんに過ぎん。

わしらは巨大な宇宙進化プロセスの複雑性の一部やと理解する必要があると思う。わしらのほとんどがそれに折り込まれて、このメガ次レベル機械文明の一部になるやろ。

多様性を保持して、可能な限り多くの多様性を保持するために、これがうまく行く100%確実やと正確に知らんシステムにとって非常に価値があると思う。機械知能に入りたいか?「いや」って言っても、レーザーガンで殺されて「次は君や」ってならん。

大規模な共存があると思う。今バクテリアがあるようにな。全部殺そうとしてない。わしらに来るならそうする。でも良いバクテリアを殺そうとはしてない。全バクテリアを殺す何かに取り組んでる人がどれだけいるか?そんな研究に取り組んでる人はいない。なんでそんなことするねん?ナンセンスや。

同じように、クラウドに住んでて火星や他のクソ惑星を探索してるメガ人間機械合成文明があると思う。同時に、非常に拡張された人間の生活、サイバーパンク2077みたいな、でもディストピアがずっと少ないのから、アーミッシュの人たちのような非常に慣習的なものまで、一部の人間が住むかもしれん。

ASIはアーミッシュの人には絶対に来ないと本当に思う。ドローンで研究して「これは魅力的や」ってなる。でもしばらく研究した後、「よし、平和。君らのクソがある。わしらは良い」ってなるかもしれん。

だからたくさんの多様性があると思うけど、同時に、多くのわしらにとって、最終状態は人間の体なし、頭の中の単一知能なし、次のステップ後の知的機械種族との真の融合や。その後の次のステップは、わしはそんなに賢くない。クソが分からん。

でも非常に垂直的進化がその時点や。

フェルミパラドックスと文明の進化

レイ・カーツワイルの時間経過における複雑さがどう進化したかのプロットは、研究するほとんどあらゆる方向やシステムから、全部がほぼ同じパラダイムにつながることを反映してる。カンブリア爆発なども、その複雑さが指数的になることを期待する時に、実際に時間通りやった。全て一つの大きな指数や。

フェルミパラドックスについて最近考えてることは、これは専門分野から完全にアホ領域へのディレッタントシティや。愛してる。アホなマイクや。良いキャンペーンスローガンや。

わしらの宇宙の局所領域か何かが全て同じ軌道にあると思う。だから銀河にはわしらのような文明が少ししかない可能性があると思う。銀河は本当に大きくて、この時点で全ての文明が複雑さの同じ軌道でプラスマイナス数十年かもしれん。

だから光より速い移動は理解してない。たぶん理解してるけど、ずっと賢くて、わしらのクソに干渉したくない。基本的に、原子的、分子的、オルガネルの相互作用から始まった複雑さの性質に基づく宇宙進化タイムラインがあるなら、全て一つの速度で進んでるから、超高度文明が周りにいることを疑う理由がない。その宇宙進化タイムラインが複雑さの性質に基づくなら、宇宙全体が同時に開花してる。

だから10年後にASIを持つ時、「あ、クソ、アンドロメダ銀河から本当に複雑な信号を検出した」って気づくかもしれん。アンドロメダは本当に遠い。2億光年か数十億光年か、何かクソ遠い。彼らが十分長く光子を撃ってきて、光子がここに到達する時間があったから、30光年離れたところから複雑文明を検出し始めるかもしれん。

宇宙を今あるように見るんやなくて、歴史の時間を徐々に戻って見るから。だから大量の超知的文明があるかもしれんけど、光子がまだ十分長く撃たれてないから検出できない。

フェルミパラドックスはないかもしれん。本当に大量の超知的文明があるけど、わしらに向けて十分長く光子を撃ってない。

それがフェルミパラドックスへのわしの最良の提案や。ディレッタニズムが壁に当たるところや。

最終的思考

生命でいっぱいの可能性があって、情報がどう移動するかのせいで見てないだけかもしれんって理論が愛される。それは信じられんことやろ。それで、いや、実際にはどこでも大量の生命があるって分かる。

ヒューマン種全体を2万年前とかから今までマップして、経済出力を見たら、今垂直になる。だから技術進歩全体がそうかもしれん。

確実にそうや。火と初期道具の最初のノートが100万年前にある。そして1万年前に突然農業が現れる。素晴らしい技術やけど、長い間何も導かんかった。

でも1万年前に農業がヒットして、1800年から1900年、2000年まで、信じられん量のアイデアペアリングを見る。中国やロシアの人がアメリカのもんとペアになるアイデアが出る時に、ソーシャルネットワークが来て。シルクロードとは全く比較にならん。それ自体で心を変えるもんやった。それで前進し続けて、もんがコントロールを失うか、少なくとも予測不可能になる。

宇宙横断するテクノロジーを持つ社会は本当に違って見えるやろ。ファッションセンスと少し違う言語を持つ人型エイリアンにはならん。

妻と一緒にディズニーチャンネルのAndorシリーズを見終わった。クソ素晴らしい。本当に素晴らしいもん。ローグ・ワンの前編基本的に。

スター・ウォーズ想像宇宙は甘いけど、完全に具現化されたロボット工学があるやろ?でもロボットは信頼できるほど人にブラスターを当てることができない。ロボット軍と戦うことはない。動き問題を解決するのに必要な技術量は、1ミリメートルの肉で覗いてるのを見るだけやなく、銃を向けて、ブープ、死んでるってことを意味する。

機械文明を持ったら、変化のペースは3年後に完全に違うってことを意味する。スター・ウォーズ宇宙にオタクみたいに注意を払うと、古共和国は機能的に1万年間同じ技術レベルを持ってたって気づく。現実世界では起こらん。

ジャン・ルーク・ピカードのように宇宙船にいて旅行してて、他のエイリアンの多くが驚くほど人間に見えて、わしらが相互作用できるセックス部分があるとは思わん。

だからエイリアンがどんな感じかを訪問に来るとしたら、ASIやと思う。それからバージニア沖でF-18がニュートン的な方法で動かんクソに遭遇したって報告があるかもしれん。それが真実か分からんけど、それがエイリアンの見た目や。銀河標準英語を話してて、矢状稜のある茶色い顔の子が船から降りることはない。

だからフェルミパラドックスはイケてるアイデアやけど、そこで何を探してるかってことでもある。文明が何を探してるか本当に脳を拡張せなあかん。石油と石炭で動く文明?たぶんそうやない。非常に違うもんを探してる。

わしらでさえ何を探してるか本当に知らんから、それに対するわしの最良の答えや。ゼロポイントエネルギーの操作を通じて、バブル宇宙を実際に作って、その中に入って自分だけの宇宙を持つことができる可能性がある。その場合、本当にどこにでも行く意味は何やねん?

チンパンジー、群れのアルファチンパンジーを取って、英語で表現してもらって、「何が欲しいか?」って聞くようなもんや。「赤いケツ」「バナナ」「胸をぶつけ合う」みたいな。いろんな霊長類をごちゃ混ぜにしたけど、アイデアは分かるやろ?「それは素晴らしい。その後は?」「オーケー、オーケー、もっと」うん。これが想像能力の限界や。

エイリアンと銀河探査について話す時、たぶんそれはわしらの海上文化祖先、バイキングと海賊とコロンブスが宇宙版になっただけやけど、そんなふうにスケールするか分からん。非常に違ってスケールするかもしれん。

フェルミパラドックスが本当に座礁するところやと思う。1500年の探査の非常に人型的仮定を、ASIだけができるもんに持ち込んでる。

研究と学習の変化

Yes ポッドキャストのジョーが論文を送ってくれた。なんてこった、これらの言葉の半分も知らんし、大量の方程式やもんがある。ChatGPTに入れて、全部を分解して概念化するのを手伝ってもらった。最近の彼らのポッドキャストで「理解できん公式に出くわしたら、スクリーンショット撮って、ChatGPTにアップロードして説明してもらう」って言ってて、「なんてこった、オーケー」って思った。

彼が本当にもんを知ってて、完全に理解してないもんを分解するためにこれらのツールも使ってるって事実が信じられんや。

2022年に理解できない新しいもんを学ぶプロセスと今日を考えてみい。完全に違う世界や。検索エンジン前とポスト検索エンジン世界と同じジャンプやけど、それより大きいと言える。

NetflixでStranger Thingsを妻と見てて、モンスターがどう動くか知りたくてモンスターを殺したがってて、「図書館に行かなあかん」って思った。誰も電話を持ってない。コナーか何かがバイクでそっちに乗って行った。彼を地理的に特定することもない。携帯電話を持ってない。その世界にいたら本当にレンガをクソするやろ。未来に連れて行ってくれ。

Buffy the Vampire Slayerの全部は携帯電話で解決できるって聞いた。ただコミュニケーションできたら。

甥のジェイデンはフィットネス、ワークアウトのもので君を聞くのが愛してるって言った。これを大きく楽しむと思う。彼が子供やけど、高校生やけど、わしにとってはまだ子供や。

ベンチプレスとかやってて、悪く始まって悪化し続けるジョークの接線の一つに行く。「オーケー、自分を傷つける前に重りを置かなあかん。トレッドミルで声を出して笑うことはできん。ジムがわしを変やと思う。ごめん」クソが脳に入ってくる。

君は コメディアン ルイス・ブラックを思い出させる。君ら二人で世界についてランチするのは面白いやろ。ルイス・ブラックは わしの1万倍面白いけど、彼のランブルは、決してアウトロを記録せんで長時間ランブルする。急にならんようにするけど、さよなら。

コメント

タイトルとURLをコピーしました