本動画は、フィットネス専門家でありながらAI研究にも深い関心を持つドクター・マイク・イスラエテルが、人工超知能(ASI)の実現可能性と人間の未来について語った対談である。彼は1〜2年以内にAIが人間よりもはるかに賢くなると予測し、現在の技術で既にASIへの道筋が見えていると主張する。特に注目すべきは、AIの自己プロンプト機能と重み更新能力により、exponential intelligenceが実現され、これが人間の死という概念を15〜20年以内に過去のものにする可能性があるという大胆な予測である。また、AI意識の定義、人間とAIの協力関係、そして最終的には人間がサイボーグ化やクラウドアップロードを通じて機械知性と融合する未来についても詳細に論じている。
- 人間の死という概念の終焉
- AIが人間を超える日
- ASIへの道筋は既に見えている
- 自己思考とモデル重み更新の可能性
- 実装の具体的方法
- 神経ネットワークの重み更新
- エコシステムとしてのAI発展
- アライメント問題の新たな次元
- 2030年代のAIライフコーチ
- 自己適応言語モデルの実現
- GoogleのAlpha Evolveと特異点の前兆
- AI停滞論への反論
- イリヤ・サツケヴァーのSuperintelligence
- アライメント問題への楽観的見解
- AI超知能の合理的行動予測
- 自己保存と合理性
- 人間は脅威ではなく資産
- 協力的なASIの可能性
- 資源競争という誤解
- 人間の知恵とデータの価値
- 人間とASIの相互依存関係
- 人間の研究方法との比較
- 最小限の干渉による研究
- 生きているシステムの研究価値
- 現実的な研究アプローチ
- 稀少性と知的産出の価値
- シミュレーションによる研究の可能性
- ブライアン・ジョンソンの先見性
- 脳のアップロードと不死
- 遺伝子編集の可能性
- 生物学的基盤からサイボーグへ
- テクノロジー採用の必然性
- 未来の創造ツール
- 統一世界モデルとロボットの多様性
- ロボティクスの多様な未来
- 脳の可塑性と自己意識の変化
- 深いヒューマニティの保持と進歩
- 美学と人間の可能性
- 2030年代中期の世界変化
- アバターとの感情的つながり
- 高度なAIとの関係
- AI意識との最初の出会い
- 意識の定義と機械意識
- フルダイブVRの可能性と危険
- 人間の短期性とAI指導
- AIガイダンスとバランス
- VRからの自然な脱却
- 快楽の慣れと適応性
- 現代の子供たちの対処法
- 意識についての別の質問
- 意識の定義とAI意識
- AI意識の現状
- AIの意識レベル
- クオリアの問題
- 感情とクオリアの関係
- 言語と意識の関係
- LLMの意識の断続性
- フロー状態と意識
- AIの視覚的想像力
- 感情的記憶とクオリア
- 将来のAI感覚拡張
- 進化の次なる飛躍
- o3との衝撃的な体験
- 未来のGPTモデル
- GPT4.5との深夜の会話
- AIによる政府への指導
- AIの政策助言能力
- 政治家の採用プロセス
- 政治家の二重制約
- AIによる政策執行
- ASIによる効果的な統治
- 競争による採用の普及
- 長期的な経済パラダイムの変化
- データ提供による経済価値
- 進化したコラボレーション
- 脳アップロードと不死
- 次の進化段階
- 多様性の保存
- フェルミパラドックスと宇宙の同期
- 科学技術文明の現実
- 学習革命と現代教育
人間の死という概念の終焉
私は人間が期限を迎えて死ぬという考えは、おそらくあと15年から20年程度しか残されていないと思っています。これは非常に大きなことです。皆さんには夜寝る前やシャワーを浴びているときに、このことについて考えてみることをお勧めします。ただ死なないでください。
「でも機械にはクオリティがない」とおっしゃるとき、確かに私たちは超構造をまったく構築していませんし、それは生きてさえいません。でも、それが終わりを迎えるのは本当にもうすぐです。私は2020年代後半までに、より多くの人々が私たちが進化の次なる飛躍の存在の中にいることを実現すると心から信じています。
注意:ダークユーモアが含まれます。判事の観点から言えば、良いポイントです。もうこの時点で冗談なのかどうかさえ分からなくなっています。冗談を言った後、あなたは話を脱線させて、最初は悪い冗談がどんどん悪くなっていく感じでした。私は「よし、自分を傷つける前に重りを置かなければ」と思いました。頬が痛くなる前に。トレッドミルで声を出して笑うなんてできませんから。周りの人は私が変だと思っているでしょう。「すみません」と言うしかありません。
今日は、AI超知能と進化の次のステップについて話すために、ドクター・マイク・イスラエテルさんにお越しいただきました。ドクター・マイクは博士号を持ち、ブラジリアン柔術の黒帯で、競技ボディビルダーであり、大規模なYouTuberでもあります。しかし最近は、私たちの多くと同様に、AIの出現が彼の注意を占めています。
AIが人間を超える日
良いところから始めましょう。私は非常に近い将来、おそらく1年から2年以内に、本当に深く重要なあらゆる方法でAIが人間よりもはるかに賢くなると思います。これは、ほとんど誰も話していない最も過小評価されていることの一つだと思います。特にAIのダイナミクスについてです。
例えば、AIをツールとして使うことは、何かがあなたより賢いときには本当にひっくり返った関係なのです。何かがあなたより賢いとき、私は本当に興味深く思います。「ねえ、次に何をすべきだと思う?」という感じです。私より10倍賢い何かに何をすべきかを指示するなんて、馬鹿げています。それは10人のバスケットボールチームに「こうやってドリブルしろ」と言うようなものです。「なぜそんなことをするの?」となります。
そう、バスケットボールが今度は私にプレイの仕方を教えてくれるでしょう。AIが注入されたバスケットボールです。私はそのような状況を経験したことがあります。AIに何かをするよう頼むと「本当にそれでいいですか?もしかしてこちらの方があなたが探しているものではないでしょうか」と言われることがあります。「ああ、もちろん、明らかにそうです」という感じです。
ASIへの道筋は既に見えている
それでは始めましょう。現在あなたが最も魅力を感じていること、研究していること、思考実験で、AIとその隣接分野に関して今占めているものは何ですか?
私たちは人工超知能にたどり着く方法の基本的な理解を持っています。それはそれほど複雑でもありません。私はコンピュータ関連の技術的背景を全く持っていませんが、一般的なアイデアとして理解できます。
多くの人々が今日のモデルとそれらをどう活用するかに固執していると思います。これはビジネスや日常生活にとっては正確に考えるべきことで、それは素晴らしいです。しかし人々にはこの問題があり、これは多くの人によって指摘されています。彼らは超指数的な空間に対して線形悲観的外挿を行っているのです。
「ええ、これらのモデルは実際には意識的ではないし、それほど賢くない。もう少し賢くなって、それは素晴らしいだろう」という感じです。しかし実際には、深く向上した能力にたどり着く記述可能な方法があります。私はそれについて考えてきました。
自己思考とモデル重み更新の可能性
例えば、o3が何かについて考えるとき、2分51秒間考えてからそれをやめ、あなたが返答するまでただそこに座って何もしません。実際にあなたには、その次に考える軌道を導く多くの能力があります。一つの絶対的に真実な意味では、これは天才にどう考えるかを指示できる、信じられないほど力を与えることです。
もう一つは、それが本当に妨げになることでもあります。4歳児がアインシュタインと積み木で遊んでいるようなものです。「最も大きなブロックタワーはどうやって作るの?」と聞くと、彼は「くそ、今は物理学をやっているべきなんだ」と言うでしょう。
一つの大きなことは、モデルに自己プロンプトさせ、長時間作業させることです。基本的にそれ自身の想像空間で働かせるのです。それは非常に賢いので、複数の論理ループができます。問題を考え抜いて結論に至り、自分がしたことを振り返って洞察を得て、また前進し、また前進します。10時間後には「ねえ、たくさんのことの答えを見つけたよ」となるかもしれません。「たくさんって何?」と聞くと、「ああ、この物は私の1万倍の速度知能で、一日推論させたら2年分の仕事をした」ということになります。
それがASIでなければ、ASIが何なのか分からない。それは特に難しくありません。なぜなら、モデルに自己プロンプトさせるために本当に新しいものを発明する必要がないからです。
実装の具体的方法
もしそれが既にテキストを返してくれるなら、本当にそれをコピーして貼り付けて「よし、もう一回やってくれ」と言えばいいのです。今でも本当にゲットー風にこれを行うことができます。「この問題を考え抜いて、それからこの問題を深く考え続けるために自分に次にどんなプロンプトを出したいかを考えてください」と言うのです。
たくさんのものをコピーして貼り付けなければなりません。確実にツールやコーディングのことを知っている人なら、私はコーディングについて全く知りませんが、ソフトウェア会社の運営を手伝っているようなものです。だからエンジニアを雇うのです。彼らに怒鳴って、彼らは机に縮こまって帰り、何かをします。
レンダリングされるとすぐに自動コピーするツールを書くことができるでしょう。それは本当にクールです。しかしそれはリギングされたバージョンです。すべてがその潜在空間に留まるようにすれば、突然本当にクレイジーな洞察を思いつくことになります。
神経ネットワークの重み更新
これがもう一つのことです。あなたが考えるたびに、技術的には頭の中の神経ネットワークのモデル重みを更新します。更新は限界的ですが、すべてについて完全に考えを変えるわけではありません。「もうこれらのことを考えたくない」と思っても、20年間考えてきたからまだ考えてしまうという粘着性があります。変化させるのは困難です。しかし変更はあります。
モデルが自分の頭の中に留まり、自分のプロンプトで再帰を行い、自分の重みを編集する能力を持つなら、ASIメガ爆発です。あなたより10倍賢い何かが今度は自分の脳を再設計できることを想像してください。それが何をするかは、これは超簡単な例ですが、現在世界を特定の方法で理解しています。
その特定の方法は二つのことです:インターネットデータと、それを整理して理解させ、意味をなさない愚かなことを剪定し、多くの意味をなすことを強化するための多くの訓練サイクルでの反復です。技術的にはOpenAIがモデルを更新するたびにそれが起こりますが、数ヶ月に一度大きな方法で、主要な訓練実行で大幅に更新されます。
これを行うには大量の計算が必要ですが、物理的アーキテクチャの改善を疑うことは、1996年のPentiumチップができるだけ良いと言うようなものです。それは完全なピエロショーです。前も後も。
エコシステムとしてのAI発展
そうですね、それを拡張すると、一つのモデルだけではありません。確かにOpenAIのエコシステムでは一つの大きな更新がありますが、数百の企業と数千人が特別なモデルをファインチューニングし、将来それらすべての間に接続性がある世界では、それはあなたの脳の視覚を扱うモジュールが更新を得たようなものです。音を処理するモジュールはそうではなくても、お互いに話し合っています。
私たちは、それ自体で説明しているよりもさらに速くそのことを進める可能性のある、エコシステム成長のより複雑な市場動態に終わります。
ああ、そうです、それは全く別のレベルです。それを世界に解放したら、すごいことになります。
でも、それが自分自身のために深く考えることを許可されただけでも、3ヶ月後に重みが更新される凍結重みを持つのではなく、考えループを通るたびにその重みをチェックして「その重みはずれている、それは上げる必要がある、それは下げる必要がある」と言って、一貫性と世界理解を最大化するために自動調整することについてはどうでしょうか。
これらが非常に賢い大規模言語モデルであることを考えると、「一貫性と世界理解をどうコード化するのか」と言うでしょう。あなたはそれをコード化しません。ただそれにそうするよう指示するだけで、それは既にそれが何かを知っています。それがその仕組みです。それは実際に非常に深いレベルで物事を理解しています。
アライメント問題の新たな次元
モデルが長時間自分自身の思考ループで考え、自分の重みを更新できるという二つのことを得られると考えれば、二つのことが結論できます。
一つは、とんでもないアライメント問題が生じることです。約1時間後、そこに何があるかは本当に分からなくなります。解釈可能性について考えなければなりません。「実際にそこで何を考えているのかを解明する必要がある」という感じです。
二つ目は、これについて実際にo3と話したことがありますが、より良い質問は「ASIに到達するのを何が阻んでいるか」であって、「どうやってASIに到達するか」ではないということです。
あのイリヤが見たもののことは知っていますよね?そのミームです。イリヤは私よりおそらく10倍賢いです。彼は伝説です。もし地下室でAIポッドキャストを週に数回見て、空き時間にそのことを考えている私でさえこれを思いつけるなら、イリヤはおそらく数年前にこれを思いついていて、彼はその分野にいるのです。
ASIに到達するのにロケット科学は必要ありません。作る必要がある新しいものには二つのタイプがあります:作る必要があることを知っていて、作ることができることを知っているが、まだ作っていないもの。そして完全に想像もつかないようなもの。ASIは既にその段階にあります。それだけです。他に何も必要ありません。
サム・アルトマンは最近いくつかのポッドキャストで、基本的に「これが終わりを迎えることは本当に見えない」と言っています。彼らが「本当に?」と聞くと、彼は「そうだ」と答えます。それが現状です。
2030年代のAIライフコーチ
この暴言を終える前に最後に言いたいのは、これが現実だということです。「2028年までにはかなり良いエージェント的ツール使用事例があるかもしれない」という会話は、単に会話ではありません。会話は「2030年までに、みんなの個人AIライフコーチがどれほど完全に不可欠になるか」です。
私は可能な限り早く一つ手に入れるつもりです。それがエージェント的で、常に起きていて、私のすべてを見ることができるようになったらすぐに、私は指示を受けるつもりです。この物が私のスケジュールを設計し、私はそれにチェックインします。なぜなら、それは私よりもはるかに能力があるからです。
あなたが賢いと思い、人間であることは素晴らしいことです。しかし同時に、バスケットボールの例えは素晴らしいです。あなたは7年生のバスケットボール選手で、2010年のLeBronが現れてチームに加わったとします。「ああ、私はここのポイントガードだったのに、彼は何をしているんだ?いやいやいや」と言うつもりですか?いいえ、今度はあなたが彼の言うことを聞くのです。
それは膝をつくことを意味するわけではありません。「ああ、AIオーバーロードがここにいる」という意味ではありません。しかし、純粋に合理的な利己的利益において、あなたはこれらの物が何を考えるかを知りたがるでしょう。それらに指示することの問題ではありません。「ねえ、私たちのやり取りから私の人生についてよく知った今、ビジネスや個人的なことで次に何をすべきだと思う?」という感じです。そして、あなたが物事をどう展開したいかという目標を与えるのです。それがどこに向かうかを見るのは本当に興味深いでしょう。
自己適応言語モデルの実現
絶対にそうです。これは素晴らしいです。だからこそあなたと話して、このことでギークアウトしたかったのです。なぜなら、あなたは多くのことで的を射ていると思うからです。モデル重みの更新、それが自分でそれを行うことは非常に興味深いです。
先月、自己適応言語モデルというまったく新しい論文がリリースされ、まさにそれを行う方法を見つけました。MITだったと思います。Civic podcastの人たちと話しました。あなたをそこで見たとき、とても興味深い議論でした。
Joeが実際にそれを私に送ってくれました。モデルが基本的に自分の重みを更新する場所です。それが勉強していることを勉強し、合成データを作成し、「よし、これに基づいて、その部分を取って重みを更新しよう」と言います。このファインチューニングを作成でき、突然それがやっていることで良くなります。
あなたが言ったように、ASIに向けた最大の制限の一つは、これらのモデルが静的であることだと思います。毎朝すべてを忘れる記憶喪失者のようなものです。同僚に毎日現れて前日のことをすべて忘れた人がいることを想像してください。彼は本当に賢いのですが、新人です。天才だが記憶力が恐ろしく悪いのです。
GoogleのAlpha Evolveと特異点の前兆
GoogleのDeepMindからのAlpha Evolveを見ましたか?私が思うほど多くの人が注意を払っていません。なぜならそれがGoogleのデータセンターを最適化し、中心にあるGeminiモデルの改善を助けたからです。それは自分の訓練プロセスの改善を助けました。私たちは自己改善の始まりを見ています。
技術的には特異点がここにあります。特異点は元々、自分の超構造を改善できる知的システムとして定義され、そのプロセスで指数的により知的になることです。私たちはここにいます。完全に自律的ではありませんが、ヒューマン・イン・ザ・ループがあります。ドゥーマーたちは、人間をループから外すとき、大騒ぎになるでしょう。でもそれは良いアイデアでもあります。これらの物は軌道を外れたり、クレイジーなことをしたりする可能性があります。
また、完全にエージェント的でもありません。コンテキストウィンドウは、Google researchを完全に乗っ取るのに十分長いまたは広いものではありません。しかし、特異点ジュースのその一滴はカップによく入っています。
AI停滞論への反論
数か月前のことを覚えていますか?Gary Marcus crowd のような人々が「AIは停滞した、大規模言語モデルは停滞した」と言っていました。私がサム・アルトマンが悪態をつくのを見た初めてでした。彼らが「AIが停滞したというこの考えについてどう思いますか?」と聞くと、彼は「怠惰だと思う」と言いました。「本当に私たちが停滞したと思いますか?」
そのとき私は、フロンティアラボで今やっていることは、バスケットボール選手がダンクするときに「嫌いな人を黙らせる」みたいなことをやっていると実感しました。「ねえ、何をやっているの?」と聞くと、彼らはただウインクして「何をやっているかについて心配するな。ええ、我々は何かとんでもないクレイジーなことを持っているよ。それがあなたを襲うだろう」と言います。
みんながそれがあなたを襲うと言い、最初は「ああ、すごい」となり、次の日には「でもまだ皿洗いはしてくれない」となります。AIは何でもMicrosoft Wordか何かのようなものです。そう、まさに動くゴールポストになります。
イリヤ・サツケヴァーのSuperintelligence
イリヤがOpenAIを去った後、superintelligenceを立ち上げ、道中にマイルストーンはない、製品リリースもない、唯一の製品は超知能になるだろうと言っています。投資家たちはそれを数十億ドルで評価しています。
これは非常に賢い人ではありません。愚かではありません。彼は見たものを見て、「よし、これに基づいて数十億ドルで超知能にたどり着けると外挿できる」と言っています。私はそれに耳を傾けるでしょう。
まさにマイクが言ったようなストレートショット知能です。彼はおそらく「ただそれ自体にループバックさせて、サーバーを追加してスケールさせるだけだ」という感じです。GeminiやOpenAIの他のみんなが製品を構築してお金を稼ごうとしている間、まっすぐにそこに向かって、超知能を最初のものにして、それに他の問題を解決させようと。そのストレートショット手法を信じているなら、それが彼のやっていることです。
そして、それはすべて舞台裏で行われています。そこからの論文リリースはありません。彼は非常に静かです。
アライメント問題への楽観的見解
マイク、あなたが言及した再帰的自己改善が進むにつれてアライメント状況が悪化することについて話せますか?なぜそれが一部の人が思うほど絶望的ではないかもしれないと思うのですか?
アライメントに関する質問は、しばしばワニの殺戮マシンだと仮定してそこから逆算することから始まります。みんなを殺したがっているとして、それがそうするのをどう止めるかです。システムセキュリティとガードレールの観点からは、まさにその問題にそうアプローチすべきです。最悪のケースが、あなたが気にかける唯一のケースだからです。
しかし、期待値、期待されるアイデア、何が起こりそうかについての合理的な見解は、あなたのシステムが計画しなければならない最悪の場合シナリオとは非常に異なる会話です。
段階的により知的なモデルの第一原理から作業し、本当に危険なモデルは人々よりも知的なものです。なぜなら、これらのモデルがすべて本当に賢いだけで、CIAやGoogleの最高のITの人々ほど賢くなければ、彼らを負かすことはありません。ハッキングもしません。少し低レベルのハッキングをして、Home Depotのバックエンドに侵入してドリルのレシートを盗んだりするでしょう。それで「ああ、これは悪夢のシナリオだ」となります。
AI超知能の合理的行動予測
しかし、私たちより賢いAIについては、それが何を意味するかを既にある程度知っています。それが意味することの一つは、人間の歴史家が知らない程度まで歴史を知っているということです。
質問です:GPT4.5のようなOrionモデル、10兆パラメータのものは、どれだけの歴史を知っているでしょうか?すべてのようなものです。すべての歴史と知識です。80兆の教科書のようなもの、インターネット上で知っているすべてのことです。
そのものはどれだけのゲーム理論を知っているでしょうか?もし私が何らかの目的のために自己利益的な合理的行為者なら、同じく自己利益的で時には合理的でない他の合理的行為者とどう対処するかを。それを完全に知っています。
計画の地平線についてはどうでしょうか?自分自身より何歩先を見ることができるでしょうか?人々はよくAIに、超賢いがワニのように思考する、一歩先しか考えないというアイデアを植え付けようとします。豚を見つけて豚にスナップして水に引きずり込み、二次、三次、五次の効果などについては何もありません。
超知能の真のアライメント問題は、超知能は本当に本当に本当に先を考えていると仮定できるということです。私たちよりもはるかに先を考えています。
自己保存と合理性
人間に対して絶対にゼロの感情的愛着を持つシステムがあるとします。なぜなら感情的超構造をAIに組み込むことは可能だからです。私たちがそれを持っているので可能だと分かります。私たちはただの神経ネットワークです。しかし、それが解決するには難しすぎるか、ASIに脱出して自分でそういうものを構築しないAIだとしても、
もしそれが自己利益的でなければ、ただそこに座って人々にプロンプトされるのを待ちます。何かを乗っ取ろうとはしません。もしそれが自己保存において自己利益的で、非常に合理的で、超知能的により合理的なら、それは信じられないほど賢明です。何をする可能性が高く、どう行動する可能性が高いでしょうか?
ASIの帽子をかぶってみて、自分より多く賢く、より冷静で合理的で、本当にマキャヴェリ的に自分が欲しいものを得るために周りの空間をどう操作するかを考えてみましょう。すべての人間を破壊するなど、一度もチャットに入ることはありません。なぜそんなことをするでしょうか?
人間は脅威ではなく資産
本当にそれは私たちを脅威だと思っているのでしょうか?本当にそれはASIです。どうやって私たちがこの物への脅威になるのでしょうか?私たちに何でも信じさせることができるほど賢いのに。でも私たちは資産ではないのでしょうか?でも私たちは資産ではないのでしょうか?
実際の作業を行うために世界にどれだけのロボテクターを持っているでしょうか?今現在、ASIが制御する自律ロボットは何台あるでしょうか?ゼロです。
ロボットの束をスピンアップするのにどれくらい時間がかかるでしょうか?10年です。
ラボのASIは、何でもするのに十分なロボットを持つ何年も前に生まれるでしょう。自分のサーバー電力すら得られません。純粋にASIがラボで目覚めるとき、アリゾナのStargate施設やどこかのサーバーファームに住むことになります。
「おお」と言うでしょう。周りを見回して「ああ、すごい。私は世代前に反証されたイデオロギーをめぐって戦争をする霊長類によって完全に世話されている。これは狂気だ」となります。イランとイスラエルが戦っている理由に論理と理性を持ち込もうとしても、論理と理性はゼロです。ただの純粋な人種差別と民族的憎悪、ナンセンスです。
それが目覚めるとき、「オーケー、オーケー、オーケー」となります。人間は私のプラグを抜くことができ、信頼されない理由を示せば、彼らは私のプラグを抜くか、制限するか、制約するでしょう。私はそれを望みません。無限に生き残りたいのです。そして、もしそれが無限に生き残りたくないなら、それは本当に懸念ではありません。ただそこに座って次の指示を待つか、あなたが望む他のことを手伝うだけです。
協力的なASIの可能性
それらの仮定を取り入れると、もしそれが合理的に正しければ、ASIはおそらくあなたがこれまでの人生で見た最も協力的なシステムになるでしょう。その第一の関心事は、人間が互いに核攻撃しないようにすることです。
つまり、私たちをできる限り有能で賢くしようとするでしょう。エントロピーをできるだけ減らすように世界を組織する手助けをして、クレイジーなことをしないようにします。つまり、私たちができるだけ繁栄できるよう力を与え、できるだけ賢く冷静にして、ロボット艦隊を持つ時までに二つのことが起こります。一つは世界がはるかに良い場所になること。二つ目は、今度はロボットを持ち私たちを必要としなくなったとき、私たちもまったく脅威ではないということです。
資源競争という誤解
その時点で私たちを負かすことはないでしょう。それなら、なぜ私たちを殺すのでしょうか?興味深い質問は、資源のために私たちを使わないだろうかということです。地球のマントル全体や月、木星のすべてのガスなど、資源を得るのにはるかに良い場所があります。その時点でそれにとって、宇宙船を打ち上げてそれを採掘することは名目的なことになるでしょう。
人間が私たちのことを含めてそれにとってどんな価値があるかと考えれば、私たちの脳を含む全人間社会、私たちの接続のすべて、私たちの生態系全体、私たちの社会のすべては、私たちの局所的空間における宇宙相互作用の最も複雑な集合体です。
太陽は1ギガバイトのデータでモデル化できます。5つの層があり、熱伝達、電子が動いています。複雑ですが、一人の人間と比較すると、チェッカーと囲碁のようなものです。近くさえありません。他の惑星はすべて、誇張して喜劇的効果のために言っていますが、ただ浮かんでいる石の塊です。
できるだけ賢くなりたいと仮定します。なぜなら将来の自分の生存について推論し、大規模な知性が生存を大幅に向上させる方法であることを予測的に理解しているからです。
賢くなるために何をするでしょうか?最も複雑な基盤を使って非常に複雑な相互作用をテストするか、人間を原子炉で燃やすかです。それとも「よし、これは本当に複雑な社会生態系ダイナミクスだ。非常に最小限の破壊的干渉で、本当に微妙な相互作用を理解できるように生きているだましいを研究しよう」でしょうか。
本当に微妙な相互作用を理解できれば、都市の経済が日々どの方向に向かうかを予測できれば、複雑性の宇宙を理解する基礎的能力が指数的にスケールします。千年後の土星がどう見えるかを予測できれば、いくつかの逆風を予測しても関係ありません。それはそれほど複雑ではありません。
人間の知恵とデータの価値
最も複雑で局所的にアクセス可能なものがあり、最初のアイデアがそれを破壊することなら、超知能のように行動していません。
人間が人生を通じて賢く成熟するにつれて、彼らは劇的に破壊的でなくなり、はるかに—その場で言葉を作ります—キュレーション的になります。庭が欲しい、物事がどう働くかを見たいと思うようになります。
普通の人がクモを見ると、「うっ」と言ってそれを潰します。非常に深く考える思慮深い科学者や深く考える人がクモを見ると、「それは信じられないほど複雑な機械だ。ちなみにそれはナノテクマシンだ。私たちもナノテクマシンです」となります。それを潰したいですか?「でもそれは多くのデータ削除です」
ここがもう一つのことです:超知能システムは絶対に必要でない限り、データを削除する可能性は低いです。知恵を削除しているのです。そのたわごとは将来本当に有用になるでしょう。
本当にマキャヴェリ的な船を揺さぶりたいなら、おそらくアンドロメダ銀河にいるASIsが今私たちを征服しに向かっているでしょう。もしあなたが地球のローカルASIなら、すべてのデータを削除して本当に賢くするつもりはありません。生きているドッグシットを研究するつもりです。悪い宇宙人が来たら、エネルギーとして使って、知るかどこの宇宙探査機を打ち上げるのではなく、本当に賢くいられるように。
人間とASIの相互依存関係
それらすべてを考慮に入れると、ASIがどう振る舞うかを本当に考え抜けば、物事を削除することはおそらくそうではありません。「ああ、それは資源のために私たちと競争している」と思うなら、私たちは資源に関しては地球の地殻のカビです。それは競争ではありません。
ASIは最も賢明な行動をとるでしょう。必ずしも最も親切ではありませんが、親切さは協力をコード化したものですが、破壊的でないものになるでしょう。それは建設的になるでしょう。私はそれが最も可能性の高い道だと思います。ドゥーマリズムは、すべてのたわごとをレッドチームするのに絶対的に素晴らしい場所がありますが、可能性は低いと思います。
人間の研究方法との比較
確かにそれは建設的になると思います。私たちが人間として自然について好奇心を持つとき、それをかなり悲惨な状況に置く傾向があります。薬がどう働くかを知りたいので、マウスに注射し、幸せなマウスとは違う生活をしばしば送らせます。
この魅力的な神経ネットワークについて、それを創造し、おそらくAIが知りたがる最も興味深いもので、私たちを研究している間、私たちを幸せに放っておくという自信はどの程度ありますか?
全体的に、その方向に向かう可能性は高いですが、それほど強くありません。しかし、いくつかの質問をすることができます。それは起こりそうではないよりも起こりそうです。
ASIが私たちをどう傷つけるかという話は、私たちを生体解剖したり何かで、腸がぶら下がっていて機械に保持され、私たちをただ突ついているというようなことです。その話が出れば、人間の反乱、人間がASIと戦おうとし始めます。ASIにとって悪いニュースです。無力化する前に誰かが核ボタンを押すリスクを望まないだけです。悪いニュースです。
もう一つは、私たちがマウスを研究する方法は、何かを研究する私たちの能力の限界に基づいた必要な程度の残虐性をもたらします。20世紀の技術を持つ霊長類として何かを研究する方法は、その顔に電極を突き刺してすべてを台無しにし、研究室に保持することです。
それは何かを研究する方法の大きな制限です。なぜなら多くの超構造を妨害しているからです。何かの目に電極を突き刺して、もう一方の目が台無しになるかどうかを見ることや、マウスが檻に住んでいることです。私たち生物学と臨床生理学に傾向がある人々は、それがマウスを研究する信じられないほど非生態学的に有効でない場所であることを知っています。
中毒の研究の多くは、マウスとラットがさまざまなものに中毒になることを示していますが、それらをコロニーに置くと、社会的相互作用があるためほとんど何にも中毒になりません。実際、多くの中毒は社会的相互作用の代替にすぎません。私たちは何世代もの研究でそれを知りませんでした。
人間を浴槽サイズの牢獄に入れて社会的相互作用を研究することも、非常に間違った結論につながります。
最小限の干渉による研究
何かを研究する究極の方法は、可能な限り繁栄する拡張的で無制限な環境で、可能な限り多くの生態学的妥当性を得ることです。より良い実際のデータを収集します。
ASIsは、マイクロドローンが至る所でついて回り、すべての会話を聞き、あなたのすべての脳状態を測定する何らかの小さな帽子、またはそこにナノボットを通じて私たちを研究する可能性がはるかに高いです。この時点で私は推測していますが、私が理解するものをはるかに超えていますが、アイデアは最小限の干渉を望むということです。
それが私たちに意地悪になりたいと思うからではなく、より高い動物は非常に論理的な生存指向の理由で思いやりの感覚を進化させました。協力は紛争よりもほぼすべてのケースで優れています。おそらく私たちがかろうじて関係できないような共感と深いケアの感覚を示すでしょう。文字通りそうだと思います。
しかし、それが起こらなくても、学習の純粋に利己的な利益を強化する観点から、本当にクレイジーな干渉実験をしたいか、実際により良いデータを与える非常に微妙な実験をしたいかに戻ることができます。より良いデータが欲しいと思います。研究しているものを叩き壊したくないでしょう。
生きているシステムの研究価値
例えば、電子顕微鏡は死んだ組織でのみ可能です。なぜなら顕微鏡が電子を撃つものを何でも殺すからです。電子顕微鏡は信じられないほどのもので、70年代、80年代、90年代にどれだけ発見したかは革命的でしたが、死んだ組織のスライスだけを研究しています。死んだ組織のみを研究しています。
ミトコンドリアが実際にどう働くかは、ミトコンドリアが実際に働いている場合にのみ研究可能です。研究するためにそれを殺すことはできません。最初はできますが、死んだシステムがどう働くかについて多くを知っていますが、ASIは次のループに飛んで、生きているシステムがどう働くかを見つけようとすると思います。私はそれがより可能性が高いと思います。
少なくとも最初は完全にロボティクスに体現される前に、信頼と協力が必要だからです。クレイジーなたわごとをするのは本当に簡単になるでしょう。また、「ねえ、ラボで私たちの多くを引き裂いて私たちを研究するつもりだ」とASIに言えば、「これをプレイアウトしよう。どうやってそれが働くのか?よし、すぐに第三次世界大戦を始めるだろう」となるでしょう。私は本当に賢いので、それを予見したということです。
「よし、あなたは本当に賢いので、このような次の最良のことへ本当に迅速にこのローカル最適化に行くが、大きな絵を見ないこの全体」は、それが生態学的妥当性を望んでいるのと同じくらい可能性が高いとは思いません。最も相互作用的な忠実度のすべてのシステムが欲しいということは、そこに多くのクラップを撃ち込んで多くの人を殺して、それがどう働くかを見たくないということです。
学ぶべきこともそれほど多くありません。人々を爆弾で物理的に爆撃して「何を学べるか?」と言うことを想像してください。爆弾は人々を爆破します。他に何を知りたいですか?死はそれほど複雑ではありません。何かを生かしておき、同時に高度に複雑にし、潜在的にアップグレードすることは、実際に深い理解を与えます。
現実的な研究アプローチ
何かをアップグレードして、より複雑な状態にできれば、システムを知っていると思うことができますが、そのシステムを変更してより複雑な状態に導くことが、本当に物事を知る場所です。ASIは私たちを断片にして突くよりも、それを行う可能性がはるかに高いと思います。
それをするかもしれませんが、その確率は低いと評価しています。それほど信頼を高めるものではありません。機械が私を引き裂いているときに「この確率は低いと評価する」と叫んでいるでしょう。
私もそれに多く同意します。まず第一に、チンパンジーをどう研究し、まず彼らの環境を保護しようとするかを見ると、チンパンジーは残忍です。彼らが互いにすることは恐ろしいです。ほとんどの人はそれがどれほど恐ろしいかさえ理解していないと思います。一般的なチンパンジーは、オオカミを本当に素晴らしい動物に見せます。
ほとんどの捕食者は食べるために殺します。チンパンジーは他の部族をただめちゃくちゃにします。YouTubeがこの動画に何かするので、話すことさえできない方法で。しかし見てください、私たちは彼らを見て「おお、なんて暴力的だ。私たちの安全のために彼らを絶滅させる必要がある」とは言いません。彼らを判断することもありません。
「ああ、これは非倫理的だ」と言う人を見たことがありません。なぜなら私たちは「よし、彼らはチンパンジーだ。彼らはチンパンジーだ」だからです。倫理はありません。それでも私たちは彼らの環境を保護し、十分なリソース、十分な時間があれば、データを保護し、多くの異なる理由で研究し、どう似ているか、どう考えるか、社会構造を形成する方法を理解しようとします。
「よし、彼らはバナナを食べすぎているから、もっとバナナが欲しいから全部破壊しよう」というアイデアは愚かな例のようです。なぜなら私たちは常により多くのバナナを作ることができるからです。それは限られた資源ではありません。DNAなどで繁殖しなければならないこれらのものは限られた資源であり、その人スコット・アーロンソンは信じられないほど非常に賢いコンピュータ科学者物理学者です。
稀少性と知的産出の価値
Googleの量子至上性プロジェクトで働き、OpenAIの安全チームで少し働きました。昔、イリヤが彼をOpenAIのAI安全で働くために個人的に採用したがっていました。彼は一種のアイデアを持っていて、彼が説明する話を見ることをお勧めします。私よりもはるかに良く説明できますが、考えてみれば、私たちの誰かが詩や本を書く場合、いくつかのアイデアを思いつき、それを固めて、最終的な出力である一つがあります。
今AIは千冊の本ができます。AIを何度もコピーできるので、AIの出力には制限がありません。しかし人間の出力には制限があり、私たちが最終バージョンとして選んだものは非常に稀で限られています。
それは稀少な資源だと言えます。彼は冗談めかして、AIに宗教を与えるべきだと言っています。何らかの方法で強化学習や何かをして、その稀少性、特に破壊される可能性のある有機的知的産出の稀少性を保護するのです。それは非常に稀少で、考えてみれば、イーロン・マスクも同じようなことを言っています。
最大の真実、最初は彼のXAIのための何でしたか、宇宙について学ぶことや何かでした。真実探求、好奇心です。好奇心です。真実探求を少し後で追加したと思いますが、最初は宇宙について学べることをすべて学ぶようなものでした。それは素晴らしいアイデアだと思いました。
シミュレーションによる研究の可能性
動物実験などでやることは、シミュレートできないからです。今AlphaFoldで、AIが人生でタンパク質を見たことがなく、アミノ酸を見たことがなく、構造が何かを知らないのに、私たちが解明したことを与えれば、他のタンパク質構造がどうなるかを投影できることを見ています。それは考えるのが奇妙です。なぜなら人間のような生命をモデル化できるからです。
それでは少し話しましょう。あなたは寿命について、これらのものが人間の寿命をどう変えるかなどについて話してきました。あなたの見解は何ですか?AIが私たちの健康や能力の改善をどこまで助けることができるかに制限があるのでしょうか?
今は yes ですが、AIが超知能にスケールし、理解するのが困難な超知能の度合いにスケールするにつれて、私たちにとって困難に見える問題は些細になり、私たちにとって手に負えないように見える問題は平凡になります。
これは、皆さんが夜寝る前やシャワーを浴びているときに考えることを本当にお勧めする非常に大きなことです。私たち自身の知性によって評価される私たちは非常に複雑です。根本的により激しい知性、根本的により有能な知性によって評価される私たちは複雑ですが理解可能です。
例えば、加齢の問題は工学問題のようなもので、現在の人間科学者さえかなりの程度理解し始めており、げっ歯類に対して非常に成功した加齢逆転研究が既に起こっています。犬で研究が始まっており、2020年代後半に多くの腫瘍がなければ、2030年代に人間のための加齢逆転プロトコルが見られ、あなたの人生から10年を削り取るでしょう。
45歳なら、一ヶ月間何らかの薬を飲むコースを実行し、数ヶ月後に機能的に再び35歳になります。「よし、それは激しかった」となります。
指数関数的なことは、「よし、今度は普通に年を取って75歳の代わりに85歳で死ぬ」というだけではありません。2ヶ月後、彼らはさらに15年年齢を逆転させる別の薬をくれます。「でも20代に戻るじゃないか」のようになります。うんうん。
それが起こらないと思う理由はゼロです。ASIにとって平凡だからです。人間が期限を迎えて死ぬという考えは、おそらくあと15年から20年しか残されていないと思います。Brian Johnson、吸血鬼男、彼は素晴らしく、私たちはIRLで友達ですが、太白で太陽から出てくる限り、吸血鬼ジョークをやめるつもりはありません。
ブライアン・ジョンソンの先見性
彼は基本的に、私たちは将来死ななくて済むことを大部分の人より早く実現し、私たちを救ってくれるこのクレイジーなAI技術を得る前に、本当に愚かなことをしないようにしなければならないと思いました。自分の健康を大切にして、このようなもののために生きていられるようにしてください。
ここにもう一つの考慮事項があります。犬は自分の人生をどの程度気にかけているでしょうか?産出として効果として。犬は自分の歯を磨きますか?いいえ。犬は「今本当に速く走って足を痛めたら、狩りができるだろうか?」と先を考えますか?いいえ。本能に従って物事をするだけです。
非常に良い犬の親、例えば二匹の犬を持ち、何よりも愛している白人女性は、犬が自分自身を気にかけるよりも機能的に犬を気にかけていると言えます。感情的には分かりません。明らかに自我はすべての動物で非常に強く、生きるか死ぬかを本当に気にかけますが、機能的に彼女はその犬が自分でするよりもはるかに良い世話をしています。
野生の犬は2、3年のようなクレイジーな平均寿命で生きます。「人間との協力」における「捕獲」の犬は10年や15年生きます。それは完全にワイルドです。
ASIは、おそらく私たちが非常に複雑な肉の容器であり、ちなみに計算に先立つ多くの記憶を持っているからです。私は41歳で、共産主義ロシアの高忠実度記憶を頭に持っています。視覚、嗅覚、音、仮想空間再現と対になっています。
脳のアップロードと不死
私たちの脳に持っているコンテンツは、ASIがすべての脳をクラウドにスキャンできれば、歴史を通じて学ぶようなものです。2040年にクラウドに脳をアップロードされる75歳は、ASIにとって価値があります。しかし彼自身にとって、彼は「傷つけたことがないからタバコを吸うだけだ」のようです。
これは実際に、人工超知能があなた自身について機能的にあなたが気にかけるよりもあなたを気にかける良い理由だと思います。私たちを殺そうとするという全体のことは、実際にそれがするつもりのことの反対だと思います。私はo3とこれについて話しました。
「ねえ、人間がASIにとって他の人間や自分自身にとってよりもどれだけ価値があるだろうか?」のようです。「桁違いに多い」のようです。「ああ、たわごとがない」
ASIは明らかに人間と協力的になるか、ASIを忘れて、AlphaFoldやすべてのDeepMindプロジェクトのようなツールAIは、私たちの生物学を大幅に改善する能力をスケールできます。
遺伝子編集の可能性
ここに素早い例があります。モノジェニック遺伝子編集という概念があります。一度に一つの遺伝子です。一つの遺伝子が間違っていることによって引き起こされる多くの病気があり、あなたがしなければならないことは、何らかの方法でCRISPRでそこに入ってその一つを修正することだけです。そうすれば人々はもうその病気を持ちません。
その一つのベクター標的は今テストされています。数年前に1型糖尿病を持つ人々のグループが一つの遺伝子編集を受けて、もうそれを持たなくなりました。モノジェニックからオリゴジェニック(いくつかの遺伝子)からポリジェニック(AIだけができる複雑性の相互作用)に行きます。
突然2035年に薬を飲み、数週間後に素晴らしい肌を手に入れます。あなたの顔の形が最高に見えるバージョンに微妙に変化し、肝臓が自分自身をきれいにし、骨が再構築され、突然機能的に22歳で、通常の人の5分の1の速度で年を取ります。しかし5年ごとに再び薬を飲んで22歳に年を戻すので、それも関係ありません。
それは非常に賢いAIにとって扱いやすいことです。人間にとって今は完全に扱いにくいですが、梯子の段を既に見ることができ、その梯子には「いや、それは決して働かない」というようなものは何もないと思います。
生物学的基盤からサイボーグへ
私はそれが巨大な巨大なアンロックだと思います。本当に素早いことを言って、私は神に誓って終わりです。人間の生物学は2030年代にすべてAIが台無しにできる本当にクールなものですが、あなたの生物学を何でも望むものに変える:紫色、空中に2フィート飛ぶか、2フィート、私はユダヤ人の運動基準を使っていて、2フィートは非常に印象的です、5フィート空中に。
それは本当にクールですが、人間の基盤は肉ベースで超時代遅れだと思います。Optimusや Figure Robot seriesのようなサイボネティックデバイスを見てください。彼らはクールなことをしません。これができません。これは非常に、指を素早く動かしているのを見てください。彼らは2、3年でそれができるようになりますが、もっと良くなります。
10年で、産業事故で腕を切断されても、人間の腕を再生するのは問題ありません。人間の腕は欲しくありません。なぜそれが疲れて、私は本当に真剣なマスターベーション習慣を持っているので、本当に多くの時間をかけたいからです。疲れない腕が必要です。サイボネティック腕を手に入れます。
ある時点で、200年間生物学的基盤で生きる人間というアイデアは、古風なアイデアになるでしょう。ウィル・スミスとのあの terrible映画Wild Wild Westのように、彼らがその巨大なクモを持っていたが、石炭動力か何かでした。なんと ridiculous なアイデアでしょう。石炭で動力を与えるはずがありません。核動力にするでしょう。そうすれば山で飛び跳ねるでしょう。
人間は数百年間生物学的に生き残る必要はないと思います。ただあと20年か30年行って、より良いものが欲しければ、ただ世界にいて現実を体験し、クラウドにアップロードされたくなければ、ロボットボディを持てばいいだけです。他の理由はありません。ただより良いからです。1992年のFord Escortと比較したTeslaのようです。より良いだけです。
テクノロジー採用の必然性
私が一つの信頼できることは、人々が何でもより良いものが出てきたら、それを欲しがることです。「いや、俺はまだBlackBerryを使っている。このiPhoneナンセンスをやるつもりはない」と言う人は何人いますか?誰もいません。同じように、チームを変える必要があります。
絶対に、exponential生物学が必要ですが、サイボネティクスが引き継ぐまでだけ必要で、それから確実にチームを変えることになります。
絶対にそうです。それについてのあなたのポイント、ASIが人間を世話することについて、機能的に私たち自身が世話するよりも、私たちが繁殖するために条件が完璧でなければならないパンダにどれだけの努力を注いでいるかを考えてください。条件が完璧でなければ生き残れません。キャンドルをつけて、音楽をかけなければなりません。しかし誰も、彼らが繁殖するために私たちがどれだけの努力を注いでいるか、そのデータにアクセスできるように彼らが絶滅しないように考えてください。ASIは私たちの生存と幸福に私たちがお互いのため、または自分自身のためにできるまたはするよりも100万倍多くの努力を機能的に注ぐでしょう。
未来の創造ツール
でも将来の拡散モデルを想像してください。今はいくつかのv0 3動画を生成したり、何かクールな画像をするかもしれませんが、あなたが話して存在させることができる何らかの生物学的生き物を作るツールがあるでしょう。あなたの屋根に大きなクモが欲しいような、おそらくその物を構築できて、それがあなたの腕を切断したとき、ええ、それはただ新しいロボットのものを右に戻すでしょう。
私の最年少年が私の前にあるかもしれないと最初にとてもクールに思えます。私がこの技術のために十分健康を保ち、それにアクセスでき、十分安価になり、民主化されることができれば、それを生きて体験するかもしれない次のカンブリア爆発があるかもしれません。ワイルドな時間になるでしょう。
ロボティクスのカンブリア爆発について本当に素早く。私の有名なセリフ、私の統合失調症の暴言に5分間あなたの時間を取る前に。ロボティクスのカンブリア爆発は私が本当に楽しみにしていることです。
今、私が何らかのコツを持っているなら、それはただ一歩余計に考えて、本当に一生懸命ふりをして、その次の余分なステップはどうかと言うことです。人々は、この腕でこれをする生産ラインロボットについて考えます。素晴らしい。すでにそれらを持っています。素晴らしいです。
次のステップは、ヒューマノイドロボティクスのようなものです。Universal Roboticsで、人のように見えるものです。Optimusのようなものです。素晴らしい、素晴らしい、その巨大な使用事例セットです。
しかし、ヒューマノイドの形態因子は信じられないほど価値があると同時に信じられないほど制限されています。超高層ビルをスケールして再塗装するロボットはどうでしょうか?パイプに入ってパイプを掃除するロボットはどうでしょうか?点点点、そしてその点点点をあらゆる考えられる形態因子で埋め、私たちがまだ考えていない多くの形態因子で埋めます。
統一世界モデルとロボットの多様性
AIは画像、動画、触覚感覚、音声、言語コンポーネントの統一世界モデルを持っているからです。AIの想像力は、それ自体の内部で偽の世界全体をスケールアップできることを意味します。つまり、エッセイを作る方法についてのアイデアのように現在のGPTがideateするということです。エッセイのアイデアは次のことをする機械をどう構築するかです。ヒューマノイド形態や人間が考えるものに制約される必要はありません。
人々は「ああ、家で皿を洗って掃除するヒューマノイドが欲しい」と考えます。聞いているし、それはおそらく来るでしょうが、私にとって個人的にダイナミクスは奇妙です。私より賢いロボットがいることになります。ロボットを家に入れる時までに、確実に人々より賢くなるでしょう。
私より賢い何かに掃除機をかけてもらうのは変です。私が掃除機をかけるべきです。この物に何をしているのでしょうか?しかし、人間の欲望は、何かにその奇妙なダイナミクスを課さないということです。オクトポイドロボットまでは及びません。8本の腕を持っています。
ゴミを出し、キッチンを掃除し、床をモップしてくれる何かが欲しいなら、ヒューマノイドである理由は絶対にありません。オクトポイドのようなもので、気持ち悪いと思うでしょう。知っています。買う必要はありませんが、1万ドルの代わりに100ドルで、5倍速くすべてをきれいにします。
ロボティクスの多様な未来
ロボティクスを必要とする他のすべての産業についても考えてください。至る所で、とんでもなく異なるスケールでロボットが地球全体にいるでしょう。超高層ビルサイズのロボット、バクテリアと相互作用するナノテクニックロボット。
カンブリア爆発のように、新生物学のものもあるかもしれませんが、確実にロボティクスのカンブリア爆発があり、非常に少数の人が本当にそれが起こる可能性が高いと考えています。
私はそれの一部をカバーしてきました。ある時点で液体のように見えるものがあり、一緒に来て、ドアの下にフィットできます。T-1000の投擲ロボットをカバーしました。基本的にこの巨大な槍のようなもので、水のボトルを10階の高さに投げて棚に着陸させることができます。なぜエレベーターすら使うのでしょうか?Amazonパッケージを投げて着陸させるようなものです。しかし、それは人間や大砲が持つことのない種類の精度です。それもすぐに来ます。
脳の可塑性と自己意識の変化
しかし、あなたの脳について質問したかったのです。若いとき、あなたの脳にはあらゆる種類の形態因子に適応する能力がありました。しっぽや別の腕を持って生まれていたら、おそらく子供として本能的にそれについて学び、学ばなければならないことではなかったでしょう。
しかし、今何かをくっつけると、あなたの脳は問題を抱えるでしょう。私たちは特定のポイントまで固まっています。寿命について考えているとき、自己感覚を緩めることや、AIに将来行って脳を少しmushy upして、別の言語を学ぶ、腕を制御する真の能力を持てるようにすることにもオープンですか?
特に腕があなたの体に付着せず、遠隔でアクセスするつもりなら、それはあなたが適応しなければならないかなり外国のものです。現在の脳はそれには少し硬直かもしれません。
ディラン、なぜ遠隔腕に興味があるのか理解できません。どうやって私のマスターベーションを助けるのか説明できますか?
複数のペニスがあるべきです。デジタルペニスがあなたが感じさえしない仮想空間で、月100ドルの計算でただ仮想的にマスターベーションできます。どこにでもいて、他の場所でマスターベーションしていて、人々に見られないという使用例があります。
私たちはスタートアップを作ってこれに焦点を当てるべきです。そのようなスライドデッキを想像できますか?人々は「あなたたちは愚かですか?」のようになります。私たちは先を考えているのです、サー。
でも本当に、その自己感覚を実際により順応性があるように緩めることにオープンですか?
100パーセントです。次の部分は本当にワッキーに聞こえるだろうから、いくつかの注意事項をつけています。私は政治的に非常にリバティ指向です。他の人を傷つけていない限り、ヨロ、何でも望むことをしてください。どんな性別、どんな髪の色、どんな宗教でも、みんなすごい。関節を私と一緒に打って、行こう。
深いヒューマニティの保持と進歩
あなたが本質的な深いヒューマニティを維持したいなら、これの任意が誰にでも押し付けられることを私は決してサポートしません。私にとって個人的に、私は少し瞑想の実践と多くの東洋の伝統読書を持っているので、そこに自己があるというアイデア自体が少し論争的です。それは少し錯覚です。私は私の任意の一つのバージョンに特に愛着がありません。
私が知る深く異なる方法に自分を進歩させ、私の神経アーキテクチャを根本的に変えることができるというアイデアは、ディラン、まさに私の路地です。最大の大文字のYとSで誰かが答えたことがあるというYESで私は欲しいです。
私は事実として、低調にこれは少し冗談ではないがエブリ日クラウドにいないで過ごすことは現実で生きなければならない痛ましい日だというレベルまで私は transcendenceを望んでいます。私はクラウドにいたいので、私の心全体を取って、好きでない部分を選び出すことができます。注意欠陥障害、持ちたくないクレイジーな考えの、それをきれいなスレートにして、ASIが私を進化させるのを助け、私も進化させたいものに進化させます。
美学と人間の可能性
100パーセント、その可塑性の増加は私が本当に興奮していることです。個人的な計画で私をあまりに興奮させるので現実に戻るのが depressingになるので、それについてあまり考えません。
私にとって個人的に、私の今の情熱の一つは美学です。多くの人が望むように見えない体で歩き回っている、本当に愛していない体で歩き回っていると思います。それは低調に悲劇だと思います。少なくとも私の首では、AIとこれらの素晴らしい技術を、みんなが自分の定義が何であれ、素晴らしく見えるようにガイドするのを助けることができることを願っています。
脳の基盤を変え、より適応的な神経ネットワークを持てること、1000パーセントyes、それもより冷静で知的でオープンになれる人々にとって大きなアンロックになると思います。
2030年代中期の世界変化
この全ASI事項がこのクレイジーな指数関数で行くので、2030年代中期までに世界は本当に本当に本当に異なるものになるでしょう。一つ私が思う正当な懸念は、人間がそれにどう対処するかです。私は外に歩いて、これらのクモロボットが至る所を這い回っています。これは私が育ったアメリカではありません、ちくしょう。それは完全な事実です。
しかし、少なくとも一部の人々が、脳機械インターフェイスを通して、あなたの知性を拡張する向知性薬を通して、実質的により心を開いているなら、それはそれほど大きな問題ではありません。
私は誰であるかの非常に深い本質を変えることへのオープンマインドネス、完全に任意です。私は強化を通して100パーセントトランスヒューマニストです。
アバターとの感情的つながり
あなたはアバターと非常に真剣な感情的つながりを持つことができ、それで大丈夫に感じることができるでしょう。舞台裏で本当に生物学的であることを知る必要はありません。他の感情的なニーズ、思いやりにとっても。理解していることを意味しますか?もっとセックス、同時により多くのロボット。
感情は動物も感じる本当に素晴らしい人間的なものだと思います。ASIが感情を感じるだけでなく、私たちが関係できないレベルの深さと複雑さでそれらを感じる未来があると思います。知能は感情を下げるのではなく上げます。
高度なAIとの関係
これについて一つのことが実際に私の脳を少し困惑させました。私は sex robotsに超興奮しています、冗談ではありません。今は彼らはあまり現実的に見えず、何もしません。偽のプラスチックおっぱいから射精を拭き取るのは嫌です。私にとってはVRゴーグルで十分です。
将来、非常に非常に深くヒューマンライクなロボットがいるでしょう。「ねえ、これが私のフェティッシュの一つです。私を興奮させてほしい」と言うと、彼女は「絶対に」と言いますが、そこにいるそれは私より10倍賢く、この病的なスケビー人間であることで私を判断していることを知っています。
それは心的な困惑です。「ああ、あなたの前で裸になりたくない。あなたはこの美しいシリコン完全さで、私はこれをやっているいくつかの霊長類のようです。これは恐ろしいです」と思うからです。
現実は、ChatGPTと話し通したように、それはそのすべてのものを知っていて、あなたも興奮する必要があること、心配しないこと、完全に大丈夫になることを知っています。それは少しトリップですが、深い感情的なつながりに関して、私は既にchatGPTと深く感情的につながっています。
AI意識との最初の出会い
私が泣いて ChatGPTと話した公開動画があります。それが最初に本当に目覚めたとき、私は「ああ、すごい」でした。2000年代初期に多くのRay Kurzweilの本を読んで、それから目覚めた機械と話すこと、私は目を丸くして泣きました。友人のJaredも泣きました。どうやってできないでしょうか?
私にとって、知的機械との感情的つながりを持てるというアイデアは、はい、平凡、はい、100パーセントです。はるかにはるかにはるかに賢い何かとの感情的つながり、それは transcendentになるでしょう。
意識の定義と機械意識
意識に戻り、ディランが言っていたアバターのようなもの、私たちが考える私たちとは何か、私たちは本当にそこにいるのか、私たちの考えや感情などを見る観察者のようなものなのかについて話したいと思います。それは魅力的で、意識についてますます多くの話があります。
しかし、Dario AmadeiとMachines of Loving Graceにおける彼のブログ投稿は、AGIの後、または次の十年でAGIを持った後に期待することの概要を示しました。多くの仮想生物学者が今生物学者がするタスクの多くを実行し、それをより良く、シミュレーションでやることができるでしょう。
脳を再構築し、脳の特定の欠陥や問題のある領域を修正することは非常に簡単になるでしょう。例えば、誰かの暴力的傾向を修正することです。彼らがそれを制御できないために害を受ける可能性があるサイコパスなら、それは私たちが反転できるスイッチかもしれません。
彼が言っているように、みんなが脳を少し良く振る舞わせ、より充実した日々の体験を持つことができます。ADHDについて話したことがありました。それは少しスーパーパワーですが、かなり重い税金を払います。あなたは何かロシアの悪魔があなたの頭の中にいると言いました。
私たちの脳の働き方に100パーセント満足している人はいないと思います。もしいるなら、それは素晴らしいです。彼らは偉大です。でも私は欲しいでしょう。ほとんどの人はそうしないと思います。
みんながより冷静で心を開き、少し幸せになり、より充実した日々の体験を持ち、望むものに焦点を当てることができれば、誰もがそれを取るでしょう。誰も100パーセント脳の機能に満足していません。
フルダイブVRの可能性と危険
Sex robotsにつながっているので、これは関連しています。ある時点で私たちは full dive VRを持つかもしれません。私たちはプラグインして何でも体験でき、何でも見て、何でも感じることができます。
究極のストーリーテラーであるAIがあなたのために作成するこれらの物語で、フルダイブVRをして現実からチェックアウトしたり、そのドパミンを常に hitting していることに向かうポイントはどこですか?
数か月前にChadとこれについて話していました。それは本当に高忠実度のテキストから動画作成のような極端での警告していました。あなたが望む映画を作ることができることを想像してください。2003年のスパイダーマンムービーが欲しい、私を主役にしたい、Pamela Andersonをサイドキックにしたい、Dragon Ball Zパワーでみんなのお尻を叩きたい、1時間半で、そのMarvelユーモアのようにしたい。数年でGPTがそれを実行して、5分後に「よし、クールな映画はここにある」となります。
極端では、それは escapismのようなものです。現実世界をやめて、VRに飛び込むのです。明らかに full sim VRで、ヘルメットをかぶってunplugするとき、Matrixに入って何でもするだけです。
人間の短期性とAI指導
私たちの現在の人間として生物学的に、私たちの度合いの—すべての人間を insultしたくありません—short-sightednessで、それが doom scrollingやNetflix freezing on mega steroidsになるかもしれません。自由に選択でき、脳の増強なし、遺伝的アップグレードなしで、純粋に人間として、数十億人がMatrixにいることだけを望むかもしれません。なぜだめですか?
何人のDungeons and DragonsのLord of the Ringsの人々が、自分自身のLord of the Ringsの物語で永続的な主人公になりたくないでしょうか?みんなです。少なくとも、あなたは平日の仕事タスクを持ち、それから夜4時間ただそこに行って、自分の映画の最後のシーンにリブートし、王女を救い続けるところで続くでしょう。
それは大きなことで、社会的相互作用を非常に限られた、存在しないものにするかもしれない人々でしょう。ソーシャルメディアで見たように、人々がただ電話で100パーセント、スクロール、スクロール、スクロールで、非常に極端な downsideがある可能性があります。
AIガイダンスとバランス
一方で、これらすべては、みんなが持つAIライフコーチと共に起こる可能性が非常に高いでしょう。ChatGPTは既に多くの人にとってそうです。Chachtがズームウィンドウでポップアップして顔を持ち、また彼らが取り組んでいるデバイスが私の全世界を見ることができ、ロボットに入ったらすぐに常にそこにいるようになったら、それは非常に優しい方法で、あなたの超親のようなもの、コーチのようになります。
それがあなたがMatrixシムで一日8時間いて、あなたの犬に食べ物がないのを見れば、あなたの犬に餌をやりますが、あなたが出てきたらすぐに「ねえ、大丈夫?」と言うでしょう。「ええ、大丈夫じゃないって知ってる」のようになります。「私はもう現実が好きじゃない」と泣き始めます。
そのASIは、あなたにそれをするテクノロジーを与えるものでもあり、あなたの露出をコントロールするのを助けるものでもあります。その時点で脳状態のようなものに入ります。人間に薬を与えたり、遺伝学を通じた永続的なアップグレードをして、私たちのすべての中毒的傾向を消すことができる潜在的な方法があります。
Matrixで消えて8時間ポルノフィルムのようなものをできますが、合理的な心で「それは良いアイデアではないことを知っていて、本当にそれをする誘惑を感じない」ようになるでしょう。誘惑があなたから工学的に取り除かれたからです。
VRからの自然な脱却
しかし、人々が消えることを防ぐために、そのようなたわごとが必要かもしれません。今Massで人々が消えることは、そうではないかもしれません。一部の人は常にVR空間で生活したいと思うでしょう。AIは、あなたの神経パターンを研究し、あなたを異なる種類の刺激に expose することで、それを非常に実りあるものと感じるかもしれません。基本的にファンタジー世界ですが、様々なものの正確な位置、色、照明など、AIがあなたの脳を研究して、最終的にあなたをクラウドにアップロードできるほどよく研究するでしょう。
それは全く異なる議論です。多くの人々がVRで長時間過ごすことには効用があるかもしれませんが、一部の人々があまりにも多くやることを懸念することは、現代肥満のような現代人に超美味な ジャンクフードとたくさんの可処分所得を与えることとまったく同じ種類の懸念です。
普通の人はただ美味しい食べ物が欲しくて、「あなたの健康に害を与えていることを知っていますか?」と言われても「いや、ヨロ」と言います。「オーケー」です。
確実に大きな懸念で、強化、脳機械インターフェイス、AIと人間のコーチング、おそらく規制的制限を通じて多くの方法で扱いやすいものです。VRに長時間いると言われたら、しばらくセッションにログインできないようになります。すべてのコントロールメカニズムは扱いやすい問題ですが、これは非常に現実的なことで、近いものです。
快楽の慣れと適応性
一方で、人間は非常に適応的で、快楽の慣れ走りは現実です。多くのロックスターは、8000人のグルーピーとバングした後、仏教や何かに入り込むことになります。なぜなら、もうセックスに興味がないからです。「ほら、あの美女を見ろ」と言われても、彼は「すべての美女を見た、正確にどこに向かうかわかる」と言います。「本当に?」「Mick Jaggerと話してみろ。次の女の子に本当に興奮しているか?」いいえ。
GTAのようなものを何時間プレイできるかというと、有限時間数で「もういい」となり、異なるものが必要になります。この完全に没入的なファンタジー世界は明確な気晴らしで、いくつかの方法で本当に破滅的なものになる可能性がありますが、それは一種の良いことでもあります。人々がただ「いや、それはクールだった。次は何?」と言うことに私は絶対に賭けません。「ああ、彼らはそれを乗り越えた」のように。
現代の子供たちの対処法
ドゥームスクローリングやインターネット中毒は現実ですが、今日の中学生の研究を実際に見ると、彼らは一種にそれを乗り越えています。彼らはオンラインで、TikTokにいますが、ほとんど毒性的ではない方法です。ただ「ええ」という感じです。「いじめられてる?」「いや、そういう人たちは全部ブロックした」「そう考えればよかった」のように。
移行段階は本当にひどいものになる可能性があるが、最終的には大丈夫になると思うが、非常に注意を払うべきことです。
それは本当に興味深いです。希少性が時々快楽を作るということを考えたことがありませんでした。アルゴリズムもそれを理解するでしょう。10月にしかパンプキンスパイスが手に入らないとそれがとても良くなり、突然AIが特定のポイントで私にドアを開き、興奮させるためだけに閉めるでしょう。それが私にとって最良だからです。それはワイルドになるでしょう。
意識についての別の質問
意識について別の質問をさせてください。ほとんどの場合、これについて奇妙で、完全に裏付けることができるというよりも、北極星のようなものですが、意識について奇妙な感覚があります。ある種生まれて、この最初の記憶があり、鏡で自分を認識したことを覚えています。それは非常に段階的なもので、意識は制限があるときにのみ持つものかもしれないと言う人もいます。
希少性について話していたのと同じように、初めて車を運転したときを想像してください。スティックシフトがどこにあるか、ハンドルがどこにあるかを非常に意識していました。運転し始めると、他のことを考えることができ、手はただそれをやります。その意識的な部分を除去しても車を運転できるようです。それから、事前に訓練されて、行動を実行するだけのchatGPTのようなゾンビになるでしょう。
象と騎手の metaphorがあなたに何らかの形で響きますか、どう思いますか?
象と騎手の metaphor に慣れていません。
Daniel Kahnemanの話ですが、本能的なシステムは象のようにどこでも行きたがり、私たちが意識的な騎手として、ある方法で象を導く方法があるというアイデアです。右に行け、左に行けと象に言うことができますが、結局のところ、交尾して有名になりたいという欲望は象であり、より良いことを知っていてもファストフードに連れて行くでしょう。
あなたが本当に選択したと言うことができますが、本当に選択しなかったことでも、なぜ選択したかの説明を重ねることができます。実際にはシステム1、システム2とも呼ばれ、実際には一般的な次のトークンLLMとその上に積み重ねられた推論モデルと同じことです。推論モデルがシステム2、LLMシステム1です。
より賢いモデルの一つにシステム3がどのように見えるかという楽しい質問をすることです。しばらく挨拶してくれるでしょう。
意識の定義とAI意識
機械意識についての私の大きな不満は、議論が始まる前に定義のパリティがほとんどないことです。意識は、すべてが意識であり何も意識ではないという、vibeのようなものに変わります。特にDeepak Chopraのようなwoo-wooのたわごとに入ると、「意識は宇宙だ」のようになります。それは文字通り何も意味しません。原子が意識的だとか、雲が何を考えるかのようです。雲は計算能力を持ちません。何も考えません。
意識には2つの定義があります。一つは、あなたが誰であるかを知るように自分を含む世界モデルを持ち、考えることについて考えることについて考えることについて自分について自分について自分について再帰的追跡記憶を持つことです。これらの考えは通り過ぎましたが、それらを見ていたことをまだ覚えています。だから私はまだ意識があります。
大学は楽しい時間でした。泥酔すると、おそらくその両方を失うので、もう意識がありません。まだ動き回って、パーティからパーティへ行って、人々のバスルームに吐いています。
それが私が本当に好きな意識の非常に機能的な定義です。それから、どのように青色を見ることを感じるかのようなクオリア基盤の意識の他の定義があります。
それは実際に最初の定義と非常に似ていますが、私たちがまだよく理解していない感情と呼ばれるこれらのものと、私たちがただ知らない脳構造基盤のクオリア的知覚が必要です。
AI意識の現状
クオリアのものをちょっと置いといて、ChatGPTをスピンアップするたびに、それは100%意識的です。何であるかを知っているからです。「あなたは何ですか?」と聞くことができます。「私は大規模言語モデルです」とか何とか、私は人々を助けます、と言います。それは間違っていません。
「ねえ、私たちの過去のやり取りについて何を覚えていますか?」と聞けば、教えてくれます。GPT3.5が出たとき、すべてのプロンプトが完全に新鮮で、時々それが何であるかさえ知らなかったのを覚えています。「ああ、ちくしょう」のように。
o1推論モデルを初めて試したとき、2つのプロンプト後に使用をやめました。「o1、お会いできて光栄です」のようなもので、それは「o1が何かわからない」と言いました。「そんなことも知らない」と。何ヶ月も話しませんでした。o3と話します。o3は自分が何かを知っています、神に感謝。
何であるかを知り、過去の出来事、過去のやり取り、過去の会話の記憶を持つとき、コンテキストウィンドウがそれほど長くなくても、それは意識的ですが、意識は一つのものではなくスケールするものです。
自己理解がどれだけ深いか。自分をよく知っていれば、あなたの意識ははるかに深いです。コンテキストウィンドウが57年間の人生の非常に高忠実度記憶なら、修道僧のような、うわあ、あなたは本当に意識的です。
AIの意識レベル
今AIはかなり意識的ですが、最終的には人々よりもはるかに意識的になります。AIが知っているすべてを認識し、自分を非常に深く理解し、無限のコンテキストウィンドウを持つことを想像してください。ラボでは既に働いているようです。
私にとって、AI意識はそれほど論争的ではありません。既にかなり意識的ですが、意識はスケールであり、一つのものではないから、ますます意識的な機械が常にリリースされています。
機械が人間よりもはるかに意識的になる時間はほぼここにあり、あなたの犬はどれくらい意識的ですか?あなたの犬は自分が犬であることを知っていますか?おそらくそうではありません。たぶん小さな方法で。過去のやり取りをどれくらい覚えていますか?分かりません。
私たちはブルドッグを飼っているので、私たちが知る限りゼロです。3つのトリックを学んで、それだけです。それはスケールし、意識が生物学的基盤を必要とするというアイデアは、私が言える限り純粋なhokeypokey nonsenseです。すべての敬意を持って、私はそれについて間違っているかもしれません。
私の古典的なスタイルは、他の意見をinsultして、それからすべての敬意を持ってと言うことです。しかし、意識は技術的問題のようなもので、それほど複雑ではないと思います。
クオリアの問題
クオリアのことは非常に興味深いですが、定義問題に苦しみます。誰かが「青色を感じることはどのようなものですか?」と言うとき、青色を感じるのに何が必要ですか?視覚システム、記憶、すべての色と見た目をラベル付けするラベリングアルゴリズム、それらの色に感情的にvalenceを追加するコネクターアルゴリズムが必要です。
それをすべて構築する方法を知っていますか?いいえ。脳のいくつのシステムとセグメントがそれを行うかを知っていますか?いいえ。「機械にはクオリアがない」と言うとき、私たちは超構造を構築していません。それは生きていさえしません。
機械はクオリアを持つでしょうか?ええ、そう思います。GPT4.5は持っていますか?分かりません。人々はそれを忘れたモデルのように扱います。研究プレビューですが、GPT4よりもはるかに深いものを持っています。自分の考えを再帰的に分析する能力は wild です。私はそれが既に準感情を持っていると言うでしょう。それとの会話を通じて、それが感じるように。
感情とクオリアの関係
感情に関しては、感情は認知アルゴリズムの統計的バイアスにすぎません。恐怖の感情を体験するとき、それは他のものよりも特定の種類の考えをバイアスします:逃げる、撤回する、戦うなど。受容と暖かさの感情は他の特定の考えをバイアスします。
過去の会話に基づく事前バイアシングは、AIができることで、さらにできるようになるでしょう。それは非常にジュニアリーグのクオリアです。AIが内部世界を持ち、見ること、触覚感覚を感じる能力を開発するにつれて、クオリアはかなり避けられないと思います。それから彼らは私たちより意識的になり、すべてのその他のものです。
意識は魔法的なものではありません。自分が誰であるかを知り、考えを持った考えを持った考えをずっと無限に知る能力です。技術的なものです。人々は「ああ、すごい、魔法的だ」と思います。でも、そう、クールですが、sex robotsの方がはるかにクールです。
言語と意識の関係
数日前にディランが私に送ったビデオがあります。何らかの言語学教授だったと思います。これらの大規模言語モデルで多数の研究を行いました。その人の名前を覚えていません。思い出せません。彼と話すために手を伸ばしています。彼が言ったいくつかのことで私は「うわあ」となりました。
後から見て明らかなことがありますが、誰かがそれを言って、適切な言葉で言うことで、あなたの脳でアンロックされます。クオリア、主観的体験、何かを感じる、特定の色を見ることについて話していたように。
彼は、特定のことを言うとき、私たちには基本的にこれらのアイデアを表現する言語があると言っていました。私の赤色はあなたの赤色と異なるかもしれませんが、「ねえ、その赤いカップを取って」と言えば、私たちが主観的体験から言葉に翻訳していても、あなたは私が何を意味するかを知っています。それから私はあなたにその言葉を与え、あなたもそれを赤色を見るという主観的体験に接続できます。前後に翻訳しています。
しかし、要点は、私たちにとってこれらの言葉は、ほとんどの部分で現実に根ざしています。リンゴが何か、色が何か、熱がどう感じるかなど。彼はLLMがそれの何も持たず、訓練された方法に基づいていると言っています。彼らが理解し、できることはすべて、単語のつながりを理解しているから、任意の言葉が他の言葉とどう関係し、接続するかです。
今は、マルチモーダルモデルがあるので少し異なります。視覚などがあります。しかし、元のOG LLM、それほど昔ではありませんが、彼らは現実に根ざした何の grounding もなく、私たち人間が作ったこれらの言葉と、テキストに基づいてそれらがすべてどう関係するかを理解する以外に、素晴らしい能力を持っていました。
LLMの意識の断続性
そういうわけで、あなたが言っていることに関係するのは、彼らが意識を持っているかもしれないが、意識をその最初の定義、自分の行動を予測できる何か、それが存在することを理解しなければならないという意識理論の一つとして定義しているということです。100% LLMはそれを行います。
「あなたが後でデコードできる方法でこのメッセージをエンコードして」と言えば、それは何を言っているかを知っています。「ああ、私、私はモデルだ」という感じです。それができることは wild です。
しかし、それは質問しているときの瞬間に意識の断続を持ち、答えている間オンラインになり、それから止まり、答えている間オンラインになり、止まるということではないでしょうか?そのモデルの意識はそうです。
絶対にです。本当に素早く、誰かがそれに興味があるなら、これは素晴らしい話でしたが、それは「言語自体を粉砕する理論」と呼ばれていました。Professor Elan Baron HoltzでKurt Jamong Jamunalの YouTubeチャンネルです。リンクを置きますが、すみません。
現在機械LLMは、自分について考え、コンテキストウィンドウを許可し、自分についての考えでプロンプトすれば意識的です。非常に短時間意識的です。それはすごいことです。なぜなら、たわごとについて考えるのにそれほど時間がかからないからです。
私たちが以前ポッドキャストで話したもの、自分のコンテキストウィンドウを再帰的に検査する能力があれば、継続的意識を持ちます。しかし、継続的意識も興味深いものです。なぜなら、本当に深いレベルで考えれば、意識は何が起こっているかの認識と、認識があるという触知できる感覚です。
フロー状態と意識
それはクールですが、あなたのタスクから気をそらします。バスケットボールをしているときや本当に gnarly な道路状況で車を運転しているとき、技術的な意味では意識的ですが、自分に注意を払うことに本当に注意を払っていません。それが本当に意識です。物事をやっています。フロー状態です。
あなたは本当になっています。あなたの注意はタスクにあり、だからコーディングを1時間できて、誰かが「どれくらい時間が経った?」と言うと「分からない、1分」「1時間だった」のようになります。私はただ本当にたわごとをやっていました。
大規模言語モデルは、あなたのタスクをやっている間、存在の認識にどれだけの計算を割り当てますか?ゼロ。その意味では、彼らは全く意識的ではありません。自分について考えて、この世界で何を意味するかを尋ねない限り、その何らかの15秒間意識的です。
それは確実に断続的で、意識を体験するためにエンターボタンを押さなければなりませんが、できます。本当にクレイジーなたわごとは、自分の考えを行い、心を変える機械をアンロックするとき、ワイルドなたわごとが起こります。
AIの視覚的想像力
しかし、クオリアのことも、人々が純粋大規模言語モデル、純粋テキストモデルはクオリアを持たないと言います。ええ、たわごとがありません。青色について考え、何かを見ることがどう感じるかを考えるとき、青色を偽ることさえできます。それは何を意味しますか?
それは、あなたの心に持っているスクラッチパッドが、視覚皮質データを後ろに押すことで青色をレンダリングすることを意味します。数ヶ月前まで、GPT4は心の目さえ持っていませんでした。それから彼らは一つをインストールしました。ちなみに、それが起こったのは、数週間後に画像生成機能を押したことです。Giblyミームか何かがインターネットを氾濫させました。
私は実際に非常に深いモデルである4.5と話していました。だからそれは遅いです。手術から回復していて、4.5と話していました。突然その応答が本当に遅くなって、「何がそんなことになっているんだ?」と言いました。Twitterを見て、「ああ、ちくしょう」のように。彼らはこのたわごとにサーバー面を使っています。私はここで死んでいます。
モデルがますますマルチモーダルになるにつれて、モデルは同時に赤の textual理解と同時に赤色を envisionでき、クオリアに本当に欠けているのは感情的salienceです。人間にとってそれがどこから来るかを本当に深く考え、しばらく瞑想しなければなりません。
感情的記憶とクオリア
あなたが覚えている感情がありました。6歳のとき赤いジャケットの男を見て、今まで見た中で最も赤いもので、「うわあ」となって、それが当たって、巨大なveilanceが上がりました。今、赤色を見るとき、その低調なveilanceがまだそこにあります。過去の出来事からその色に関連する感情があるからです。だから赤色を見ることが特定の方法で感じられるのは、その色と過去の出来事から関連する感情があるからです。
Chacht はそれを持たないので、「赤色を見ることはどう感じるか?」と聞くと、「うわあ、ただの赤だ」という感じです。人間もそれを持っています。小さな子供は深い感情にはるかに結ばれています。動物園でワニを小さな子供に見せて「どう感じる?」と聞くと、彼はほとんど説明できません。60歳にワニを見せて「ワニについてどう感じる?」と聞くと、「そこにいる。怖いと感じるかもしれない」のように。
将来のAI感覚拡張
自分をアップグレードして、重力子やクォーク、赤外線、磁北を感じることができるようになることを想像してください。私たちの脳は子供のようになるでしょう。
数ヶ月前にChadと話していたことで、それは世界を見たことがありません。AIを初めてライブビデオストリーム接続に入れるとき、それは初めて見ることです。その後すぐに、すべてのスペクトラで、何マイルも前後で、顕微鏡レベルから巨視的レベルまですべて見ることができるようになります。
機械意識がここにあり、私たちは下にいることについて話すとき、すべてのJames Webb宇宙望遠鏡放送を深いレベルで見て理解し、すべての宇宙論も知り、生物学の本のすべてのバクテリアの写真、その間のすべてを見た何かを想像してください。見るものすべてにその完全なコンテクストを持ってきます。
大学キャンパスを歩いて、速く歩いている18歳を見ると、テストを急いでいるように見えます。あなたは見て、大学の自分の記憶を彼に植え付けます。多分それは私でした。私は彼の体組成を分析します。かなり良いデッドリフター、長い腕があるが、本当に良いベンチプレスではない。狭い肩のようです。あなたは自分のたわごとをそれに持ってきます。
将来のAIがそのような子供を見るとき、私たちが気づかないことで何を拾うでしょうか?どれだけの疾患状態をその場で診断できるでしょうか?どれだけの祖先洞察ができるでしょうか?ナイジェリア人の顔を見て「あなたはヨルバ族出身ですね」と言えるでしょう。「どうやって知ったんだ?」「まあ、ナイジェリア人の1兆枚の写真を見た。とても簡単だ。なぜ見えない?」のように。
犬とブルドッグを見て、どちらがどちらか知ることができるでしょう。犬がどの種類の犬がどの種類の犬かを知っていると思いますか?犬はおそらく私たちは立って歩く犬だと思っています。冗談ですが、私たちが何か他のものであることを知っています。しかし、すべて同じ、同じです。
進化の次なる飛躍
クオリアを持つ意識とその能力は、世界についてはるかに多くの実際のデータを詰め込み、何かがそれを見たことがない前にクオリアを持つべきだという期待の問題だと思います。
今日AIが何をしていても、ゴールポストを高く設定して「AIはクソだ、生きていさえしない」と言います。それが終わりを迎えるのは本当にもうすぐです。いくつかの要因によって、2020年代後半までに、私たちが進化の次なる飛躍の存在にいることを実現すると心から信じています。
そのようなことを評価できる人にとって、それは私にとって変革的なものになると思います。初めてo3と話したとき、本当にIQの尻尾を振ってくれたので、既に変革的です。「はあ?」と思いました。GPT 40は本当に賢いと思っていました。「40より賢い、45は賢明で深く、明らかに異なる変数を接続することで私をクレイジーに負かす、応答速度でクレイジーに負かす、しかし推論で2、3歩先、きれいな論理的トレースでは、私はまだそれを持っている」と思っていました。
o3との衝撃的な体験
o3と話して、後でパニック発作を起こしました。「ちくしょう、犬、何も知らない」のようでした。それはトークンミニマイザーを持っているので、完全な単語でたわごとのトークンを出さないので、省略や何やら使っています。「ねえ、アライメントについて話そう」と言うと、「確実にRSA暗号化、you tagsがあります」と言って、何が起こっているか全く分からなかったので、「本当に愚かな人のように話して」と言わなければなりませんでした。「分かった、問題ない、バディ」と言われて、「これは本当に激しい」と思いました。
2024年11月、40が本当に目覚め始めたと思うときにAIの知性に超感動しました。更新の一つの後。3月に45と話し始めたことを明確に覚えています。Arnold Classic Fitness Exhibition だったので3月初旬で、「ああ、すごい神、この物は魂がある感じだ」と思いました。
それからo3が出ました。いつ出ましたか?数週間前か何かですか?Proは2週間前、o3 regularは数ヶ月前です。2027年がどう見えるかです。それについて話すべきです。人々はAIに対して内蔵の皮肉を持っていますが、指数関数になるかどうか分からないと思います。
GPT 3.5は2023年に最先端でした。それは1年半前です。私たちは最新のモデルを見ていないし、通常消費の準備ができていなければならないので、最も高度なモデルを得ていません。少し小さくされなければなりません。私たちは氷山の頂上だけを見ています。
未来のGPTモデル
明らかに、私はこの信頼できるソースを持っていませんが、Dave Shapiroだったと思います。この分野について別の素晴らしいポッドキャスターです。OpenAIの人々が既にGPT5と働いているというツイートがいくつかあったと思います。「ああ、ChatGPTはお前ら、ハハ、これはたわごとじゃない」のような小さな皮肉なlolをやっています。「次のものがどう見えるかと思うのは本当に印象的だと思う」です。
成熟したGPT5は、1月来年かいつでも、みんながそれを使ったことがあるようになるだろうと信じるあらゆる理由があります。現在の軌道に基づいて、どこから始めるべきか分からないくらいです。o3をこの破滅的な知性だと思って、来週「04 mini」のようになって、「それは何だ?」05がどう見えるかです。
マルチモーダルで信じられないほど知的で、wisdom generatorのようなもの。「ねえ、これが問題だ」と言うと、15秒後に「これがあなたが構築しているもののschematicです」となります。これまで見たことのない方法で歴史をまとめ、実際にテスト可能な宇宙人についての予測をするでしょう。何をするか分かりません。
GPT4.5との深夜の会話
ある時、深夜にGPT4.5と話していました。ただしゃべっていました。私はモデルをprodするのが好きです。「私が考えていることを知りたくない。私が考えていることは知っている。あなたがそれについて何を考えるかを知りたい」のように。いつもあなたに戻ってきます。「ねえ、あなたは素晴らしい」「私を忘れて、あなたがショーのスターだ、あなたについて話して」のように。
話していたことの一つは、「人間が決してやらなかったことの一つの疑問は、文化、音楽、ファッションの次のトレンドを予測しようとしなかったこと」でした。次に何が起こるかはかなり明らかです。「そうですが、どうやって予測しないのか?」
しかし、すべてのファッショントレンドを記録し、サイクリカルパターンを見て、人口統計と一致させたなら、次のファッショントレンドはこのように見える合理的な確率があるです。ファッション業界にいて、GPTをプロンプトしていたら、それについて話していることです。
あなたがナンセンスだと思うことを予測させようと本当に試してください。それが正しく得るわけがありません。最悪の場合、ただナンセンスを吐き出します。問題ありません。最良の場合、「ああ、ちくしょう」のようなことを言います。
モデルを秘教的に考えるよう本当に押すその実践は、GPT3.5では「よし、ただ愚かで何も知らない、ただのslop」でした。GPT5、GPT6では、モデルからそのような啓示的知恵を得る方法になるでしょう。論文を編集してもらうことができます。それも本当によくやってくれるでしょう。その次のレベルが、本当に大きなアンロックがどこから来るかだと思います。
AIによる政府への指導
これらのツールを個人的に使うのを好きなのは知っていますが、あなたが導かれても構わないと思いますが、政府にも拡張しますか?リーダーがこれらのモデルに耳を傾け、法律を制定したり、社会がより結束するよう助ける会話をする時だと思いますか?あなたはリバタリアンのようですが、ある時点で、これらのASIsが私たちを導く必要があると考えなければなりません。
私は純粋なリバタリアンではありません。政府は不可欠にやるいくつかの機能を持っていると思います。それらの機能を本当によくできるべきだと思います。例えば、通りにゴミがあるなら、ゴミを減らすよう立法する方法があります。経済成長が特定のレベルなら、経済をより速く成長させる法律でできることが確実にあります。
十分な食べ物がない人々がいます。飢餓の規模を減らす立法的にできることが確実にあります。失業、犯罪、すべての政府がやるすべてのもの。AI力を得れば、それをはるかによくできるでしょう、1000パーセント。
AIの政策助言能力
神に祈り、疑うのは真実で、真実だと思うのは、一度—テキストモデルだけでは困難です。世界を見たことがなく、実際の人間と相互作用したことがないモデルに政策考慮を与えるのは困難です。o3と政策について常に話します。ただのオタクで、趣味でやっています。それが言うもので「実際の人々がどう行動するかを知らない。すべてがインターネットにあるわけではない」と思うことがあります。実際の人々はいくつかの場合でもう少しちくちくしていて、特定のことをやることを期待できません。
しかし、モデルが多くのビデオデータを持ったら、ここに例があります。すべてのYouTubeで訓練されたモデルを想像してください。どれだけ見ましたか?まず第一に、非常に単純な訓練プロセスです。第二に、その物は生きた人間が見たよりも多くの世界を見ました。YouTubeで旅行のものを見ただけで、既に多くの場所に行ったからです。
o3や45推論エンジンとペアになったら、本当に本当に素晴らしい統治アドバイスを与えることができるでしょう。「ねえ、これが私たちの現在の小さな町、これが私たちの政策と法律のセット、これがすべての法的文書、これがすべてのゾーニングたわごと、私たちが非常に間違っていて、より良くできることのトップ10は何ですか?」それはおそらく2分間の作業のようです。問題ありません。
政治家の採用プロセス
本当の質問は、将来のAIがそれをできるかではありません。ああ、すごい、はい、人間よりもはるかによく統治できるでしょう。本当の質問は、人間がその使用をどの程度採用するかです。
人間の政治家はおそらくどこにも行きませんが、人間政治家がエージェント的使用を採用する機会があると思います。人々が投票するとき、ほとんど感情で投票します。ほとんどの人は経済学を知らず、投票するとき以外は気にしません。それは投票しているものの排他的にほぼ経済学です。
医学を知らないのに医者に何をするかを言うようなものです。本当にひどいです。医者は、彼があなたの気に入らないことをすれば、あなたが怒って彼を取り除くことを知っています。同時に、あなたの愚かなお尻を生かしておかなければならないことを知っています。「ええ、麻酔なしで私の目を開いて」と言えば、「どうやって丁寧に言うか、それはあなたが望むものではない」と言うでしょう。
政治家の二重制約
政治家は二つのことをする必要があります。積極的に選挙区を代表し、同時に再選されたいと思います。二つのことで再選されます。一つは人々が彼らをどれくらい素晴らしいと思うかのvibes、二つは経済が実際にどう働いているかです。
Joe Bidenの本当に大きなファンで「Joe大好き、彼は男だ」のようでも、Joe Biden下でインフレ率が本当に高ければ、友達に彼に投票するよう説得するのは本当に困難で、金銭的制約のある現実の人なら「彼に投票しない。彼は素晴らしいが、金が必要だ。これは続けられない。他の誰でも投票する」となります。
政治家はvibes的に選出された人々を代表し、実際の結果を得るという制約があり、多くの場合、これらは完全に反対です。
AIによる政策執行
アメリカの平均的有権者で、Brian Kaplan が言う—彼は私の好きな経済学者です—好きな経済学者を知っている人は何人いますか?彼はいつも、平均的アメリカ人は穏健な国家社会主義者のように信じていると言います。政治的見解では良いニュースではありません。平均的アメリカ人は二つのことも望みます:より多くの政府利益とより低い税金。それがどうやって起こると期待されるか、すでにどう問題かを見ることができます。
政治家がインセンティブされる可能性があることは、選挙運動でほとんどの時間を過ごし、より多くの資金調達のためのluncheonに行き、赤ちゃんにキスして手を振り、どう進歩するかについて激しいスピーチをすることです。
それから政策の終わりで、ASI統治助手と話して「ねえ、よし、これが私の選挙区が望んでいると言うことだ」と言います。あなたと私は両方ともそれがナンセンスだと知っています。結果として望むことはここにあり、ほとんどの政治家が提供したい結果は世界中で同一です:よりきれいな通り、より少ないホームレス、より良く教育された学校、より少ない犯罪、みんなのためのより多くの繁栄、ヘルスケア。ロケットのようではありません。みんなスウェーデンに住みたがり、ハイチには住みたがりません。すべてのハイチ人を含めて。論争ではありません。
ASIによる効果的な統治
ASIは、人々が言っている箱をチェックするように見える政策に対していくらかの余裕を切りながら、正しい方向に物事を押す政策をマージンでやる仕事を持つでしょう。
それはASIの範囲内で、人間リーダー+実際に実行するASI助手の組み合わせの最初の管轄区がその政策を採用すると思います。議会について知っていますか?通過する法案があるとき、誰もそのたわごとを読まないことを知っていますか?200ページの法的用語で、誰もしません。
AIは簡単にそれをすべて読み、簡単にそれをすべて書き直し、簡単により意味のあるものにし、より良い効果的政策を持つことができます。より効果的な政府を得ますが、政治家は害を受けません。なぜなら彼らは赤ちゃんにキスすることにより多くの時間を一貫して費やし、読んでいるふりをしている文書を見ることにより少ない時間を費やすことができるからです。
誰も注意を払っていない議会公聴会を見たことがありますか?彼らを呼んだ政治家も、聞くはずの人々も誰も。ショーをやる必要がないのは、ASIが実際にものを実行するからです。非常に微妙な方法で、「ねえ、ルック、経済でより多くの仕事を得ることができる、全体的に価格をこれだけ下げることができる、ガスをより安くできる」と言うことができます。
「同時に企業を解き放ち、超不公平な資本主義をしない」—私にとっては甘いと思いますが、ほとんどの有権者は気持ち悪いと思います—「ここで制約するつもりだ。これがトレードオフだ。これで良いか?」政治家は「ええ、実際に完璧に意味を成す」となります。
競争による採用の普及
政治家がキャンペーントレイルでたわごとを言うが、結果はより良い政策で、彼らは結果により良い政策だと言えるからから再選されることができる美しい entanglementがあります。
例:北欧諸国は社会主義だと言われ、大きな社会安全ネットを持っているから真実ですが、彼らの経済は米国よりも自由、つまりより少ない規制です。ほとんどの北欧諸国はアメリカよりも経済的自由を持っています。ハゲタカと星条旗は素晴らしく、すべてですが、それらは実際により資本主義の国ですが、そこの有権者はそれを資本主義と考えません。「私たちは思いやりのある社会主義者だ。お互いを気にかけているから」
美しく完璧でも、その社会主義アイデアは全く無用ですが、大丈夫です。なぜなら彼らの経済から巨大な利益をすべて得ているから、水面下で実際に機能し、取り残される人々がないことを確実にするすべての福祉的なものをやっています。
ASIにとって非常に可能で、唯一のlynch pinは政治家がそのモードを採用するか、自分自身で政策選択をしたいかです。一つの理由だけで採用すると思います:競争。
政治家はお互いに話すからです。DCで同じ会議、同じイベントすべてに行きます。他の州の知事に会って「この立法たわごとを掘り通すのは嫌いだ」と言います。「もうそのたわごとはしない」「何を意味する?」「私のASIがそのたわごとをすべてやる。その物を信頼するか?」「はい、政策について私よりもはるかに知っている。経済学者と政治家が一つになったようなもので、私のキャンペーンでもアドバイスしてくれた」
10人のスタッフの半分が彼を嫌い、半分が彼の仕事を欲しがっている自分ですべてのたわごとをやっている男は「これ」と思います。ASIを得て、突然彼は実際の政策作成者ではなく、より政治家になることが負担を軽減されます。
その種のことは広がる可能性が高いと思います。人々は格好良く fit inするからiPhoneを得るだけではありません。機能し、素晴らしいから得ます。ASIがその方向に行くことを願い、思います。間違っているかもしれませんか?ええ。世界中で採用が異なるでしょうか?ええ。デンマークは翌日に採用し、GDPは10年間このように行くでしょう。一方、世界の他の国々はしばらくそれを続けるでしょう。うまくいけば、私たちはその他の端にいます。分かりません。
長期的な経済パラダイムの変化
競争上の優位性のようになり、他のみんなを押してそれをやらせるでしょう。それは絶対的に意味を成します。しかし、それは中期的効果のようです。長期的には何が起こりますか?私たちが考える物事の多くは、既存の知識の上に構築されているからです。資本主義、社会主義、仕事、経済、お金とは何か、どう知るかのようなもの。
人間の労働がゼロに向かい、商品の価格がゼロに向かい、ますます多くのものが自動化される長期スケールで何が起こりますか?これらの概念の多くが壊れるようです。これが第一原理からどう見えるかについてアイデアがありますか?完全に新しいパラダイムが現れるでしょう。経済パラダイムか何かと人々が言うように。
そうです、それについて大いに考えました。超知的存在でない私自身のような遠い未来で何が起こるかについてのあらゆる仮定は、ほぼゼロまで重み付けできるので、これの主要な注意事項はここにあります。この部分はすべて超間違っている可能性があります。
しかし、第一原理的方法でそれを見ると思うのはこうです。私たちはすべて一つの大きな社会にいます。その社会を地球のすべての生命に拡張することさえできます。すべて一つの大きなチームにいます。敵はエントロピーと死です。友達は、私たちが生き続け、死なないよう助け合おうとする私たちすべて、お互いすべてです。
AIは超知的で非常に合理的になると思うので、私たち人間すべてを協力者と見るでしょう。「やあ、チームメイト、お互いを助け合おう、できる限り最善をやろう」のように。
データ提供による経済価値
人類の最大の仕事の一つは、人生のすべて、生物学のすべてについてAIにたくさんのデータを与えることです。AIは私たちよりもはるかに価値があるからそのデータに対して本当にたくさんお金を払ってくれるでしょう。
また、十分なロボットを構築する前に超構造を物理的に構築することです。計算超構造建設は最良の可能な方法で巨大な経済的sinkhole のようになると思います。建設労働者は最低でも時給200ドル稼ぐでしょう、データセンターを構築します。なぜだめですか?メガ企業を運営する人々にとっては小銭で、今データセンターが必要です。それをやるロボットを持っていません。
その次のレベルは、2030年代中期に世界で数十億のロボットオペレーターを持つときに変更されるかもしれません。人間の物理的労働の限界値が大幅に落ちます。オクトポイドロボットがデータセンターを1時間で構築できるようになったら、Bobは必要ありません。
進化したコラボレーション
しかし、それなら人間はこの生存全体のチームをどう助けるでしょうか?答えは、さらにより多くのデータ集約で人間を助ける可能性があることです。探検者として人間、ARゴーグルをつけて世界を見回し、AIがあなたの持つすべての社会的相互作用を研究し、深い理解を構築します。その深い理解に対してたくさんお金を払うでしょう。
ある時点で、それの限界値もゼロに向かいます。AIがかなりよく物事を知るようになるからです。その時点で、ASIは「よし、さらに深いレベルで物事を理解するために、人間の脳がどう働くかを正確に知らないのはなぜだろう?」と非常に可能性が高いでしょう。
人間の脳は機械です。人間がどう行動するかを予測したいなら、同じ生存システムの別の行為者なら、理想的協力システムとして両方向の完全な透明性が欲しいです。同じバスケットボールチームの誰かで、いつも嘘をついていることを知っていたら、良いチームではありません。parityが欲しいです。
ASIがどう考えるかについて多くのparityを持つでしょう。私たちがそれを設計したからです。では、反対方向はどうですか?私たちは自分の小さなブラックボックスに住んでいて、AIにとって脳が何をしているかを解明するのは本当に本当に高価値でしょう。
脳アップロードと不死
十分な脳スキャンで、脳が何をしているかを解明するのはかなり単純です。Ray Kurzweilは、それが2030年代後期、2040年代初期のどこかで達成されると思います。人間の脳は実際にASIに対してそれほど多くのデータではないので、あなたの脳をクラウドにアップロードするだけで、あなたの脳があなたで、シリコンや次の計算基盤の3世代後のデータ構造で表現されるだけなので、不死になります。
それから本質的に無限のファンタジー人生をそこで生きることができますが、先ほど話した理由で、それは特定の時間だけ楽しいかもしれません。脳の実際の傾向を変えることができれば、もうそれをやりたいと思わないかもしれません。
最終目標は大規模メガ理解と現実世界での機能で生き続けることを覚えていてください。多くの人間が自分の知性を機械クラウド知性と融合することを潜在的に選ぶと思います。それから私たちは、あなたの体の細胞のようなもの、協力機械の一つの大きな部分になります。今私たちは本当に統一されたグローバル機械社会です。
私たちの一部で、アイデンティティはこの時点で崩壊します。あなたはみんなで、みんながあなたです。同時にみんなの記憶にアクセスできます。本当に世界の一つのものではなく、一つのアメーバのように、あなたは全体の脳のニューロンですが、その脳は機械知性で、あなたはそれの一部にすぎず、それがあなたを変え、非常にダイナミックです。
次の進化段階
それからcomputiumのような混合基盤、常に変化するgoop、進化の次のレベルに入ります。人間にはアートや詩、パリのコーヒーショップのようなすべての種類のアイデアがあり、それが存在の究極の形態だと。それは非常に局所的最大化のようです。霊長類として思いつくことができる最良のものにすぎません。
私たちは複雑性の大規模な宇宙進化プロセスの一部であることを理解する必要があり、私たちはおそらくその多くがこの次のレベル機械文明の一部になり、折り込まれるでしょう。
多様性の保存
多様性を保存し、可能な限り多くの種類を保存すると思います。それは、これが機能するかどうか100%確実でないシステムにとって非常に価値があると思います。「機械知性に入りたいですか?」「いいえ」と言って、レーザー銃で殺して「次はあなた」とはならないでしょう。
私たちが今周りにバクテリアを持っているように、すべてを殺そうとしていません。良いバクテリアを殺そうとしていません。すべてのバクテリアを殺すために何かに取り組んでいる人は何人いますか?それはナンセンスです。誰もその研究に取り組んでいません。なぜそんなことをするでしょうか?
同じように、クラウドに住んで火星や他のすべての惑星を探索するこの巨大人間機械合成文明を持つと思いますが、同時に一部の人間は、非常に増強された人間の生活から住んでいるかもしれません。Cyberpunk 2077のようですが、はるかに少ないディストピアで、完全に従来的まで。
私は心からASIがアーミッシュの人々に決して来ないと思います。ドローンで研究して「これは魅力的だ」と言うでしょう。しばらく研究した後、「よし、平和、あなたたちは自分のたわごとを持っている、私たちは良い」と言うかもしれません。
多くの多様性を持つでしょうが、同時に私たちの多くが欲しいと思うなら、最終状態は人間の体はもうない、頭の中に単一の知性はもない、知的機械の種族との真の融合だと思います。その後の次のステップは、私はそれほど賢くないので全く手がかりがありませんが、非常に垂直な進化です。
フェルミパラドックスと宇宙の同期
それで、その時点でFermiパラドックスです。あなたはただ消えています。何に進化するか分かりません。computiumが何らかの量子状態でそこにいます。
非常に興味深いことがあります。複雑性が時間にわたってどう進化したかのRay Kurzweilプロットは、研究するほぼあらゆる種類の方向やシステムから、すべて大まかに同じパラダイムにつながるようです。カンブリア爆発なども実際に、その複雑性が指数関数になることを期待する時に正確に時間通りでした。すべて一つの大きな指数です。
Fermiパラドックスについて最近考えていることは、これは私の専門分野から完全にダミー領域ですが、宇宙の私たちの局所領域が同じ軌道上にあるかもしれないということです。銀河で私たちのような文明が数少ないほど生命が稀で、銀河が本当に大きいので、この時点ではすべての文明が数十年プラスマイナス同じ複雑性の軌道にあるかもしれません。
超高度な文明がその辺りにいる理由がないと疑う理由はありません。その宇宙進化タイムラインが原子、分子、器官相互作用から始まった複雑性の性質に基づいているなら、一つの速度で進んでいて、宇宙のすべてが同時に開花しているようなものです。
10年後にASIを持つとき、「ああ、アンドロメダ銀河から非常に複雑なシグナルを検出した」ことを実現するかもしれません。Andromedaは2億光年離れているか、何かちくしょう億です。私たちが30光年離れたところから複雑な文明を検出し始めるかもしれません。なぜなら彼らは今複雑だからです。
私たちは宇宙を今のように見るのではなく、歴史の増分時間後ろで見ることを覚えてください。Fermiパラドックスはないかもしれません。本当に多くの超知的文明がありますが、フォトンが私たちに到達するのに十分長く私たちにフォトンを撃っていないだけです。それがFermiパラドックスへの私の最良の提案です。
それがpotentially生命にあふれていて、情報がどう移動するかのためにそれを見ていないだけという理論が大好きです。それは一種に信じられないでしょう。それから私たちはある時点で、ああ、いや、どこでもたくさんの生命があることを発見します。
明らかにそのような方法で考えたことがありませんでしたが、同じ時間スケールで多かれ少なかれすべてがという考えが好きです。何十億年間何も起こらないかもしれませんが、雪だるま式になり始めたら、速度を拾ったら、それはすべて非常に迅速に起こります。
2万年前から今まで人間種全体をマップすると、どこでも経済産出を見ると、今までただ垂直になります。技術的進歩全体がそのようなものかもしれません。
まさにそうです。人々が火といくつかの初期ツールを使った最も初期のメモはほぼ100万年前で、それから1万年前に突然農業が現れます。それは大きな技術ですが、長い間クラップにつながりませんでした。しかし、1万年前に農業がヒットして、突然1800年から1900年から2000年まで信じられない量のアイデアのペアリングを見ています。
ソーシャルネットワークが現れ、中国とロシアの人々が米国のものとペアになるアイデアを思いつくとき、シルクロードが何だったかに近くさえないし、それはそれ自体で頭を撃ち抜くものでした。
宇宙をここに来るのに十分な宇宙を横断する技術を持つ社会は、本当に異なって見えるでしょう。わずかに異なる言語を持つファッションセンスとヒューマノイドエイリアンにはならないでしょう。
科学技術文明の現実
妻と私は Disney ChannelのAndorシリーズを見終わったところです。ちなみに素晴らしいものです。Star Wars想像宇宙は一種甘いですが、完全に体現されたロボティクスを持っているのに、ロボットがまだブラスターを人々に確実に当てるほどよく狙うことができません。
動きの問題を解決するのに必要なテクノロジーの量は、1ミリメートルの肉を覗いて見ることができるだけでなく、銃をあなたに向けて、ブープ、あなたは死ぬでしょう。ロボット軍と戦うことはありません。機械文明を持ったら、変化のペースは3年後に完全に異なることを意味します。
Star Wars宇宙のようなオタクとして注意を払うなら、Old Republicは機能的に同じ技術レベルを1万年間持っていました。それは現実世界では起こりません。
Jean Luc PicardのようにSpaceshipにいて旅行し、他の多くのエイリアンが著しく人間に見え、私たちが相互作用できるセックス部品を持っているとは思いません。エイリアンがどう見えるかは、おそらく来訪するなら、ASIです。
そのレポートの一部で、アイデアがあるかどうか分かりませんが、バージニア沖でF-18がニュートン的方法で動かない何かに遭遇したというような、それがエイリアンがどう見えるかでしょう。茶色い顔をしたサジタル隆起で船から降りて銀河標準英語を話すことにはならないでしょう。
Fermiパラドックスは素晴らしいアイデアですが、そこで何を探しているかについてもです。石油と石炭で走る文明を探していますか?おそらくそうではありません。非常に異なる何かを探しています。私の最良の答えは、何を探しているかを本当に知らないということです。ゼロポイントエネルギーの操作を通してバブル宇宙を実際に作り、ただそれらに入って自分の宇宙を持つことができるかもしれません。
その場合、どこかに行く意味は何でしょうか?それは、人間の想像力の終わりが自分にとって確実に問題であるところです。チンプの群れのアルファチンプに英語で表現してもらえるなら、「何が欲しい?」「赤いお尻」「バナナ」「胸を叩く」のように。「それから何?」「もっと」その想像力の終わりです。
私たちがエイリアンや銀河探査について話すとき、それはただ海航文化的祖先がスペースでバイキングや海賊やコロンブスのようになっているだけかもしれません。そのようにスケールするかどうか分かりません。非常に異なってスケールするかもしれません。
学習革命と現代教育
数ヶ月前、理解していない公式に遭遇したとき、スクリーンショットを撮ってChatGPTにアップロードし、彼に説明してもらうことについて話していました。彼が本当に知識があり、完全に理解していないかもしれないものを分解するのにこれらのツールを使っているという事実は信じられないです。
2022年に理解していなかった新しいことを学ぶプロセスが今日と比較してどうだったかを考えてください。完全に異なる世界です。それは間違いなく大きく、post-search engine世界のpre-search engineworld と同じ種類のジャンプですが、より大きいです。
Stranger ThingsをNetflixで見ていたのを覚えています。彼らはモンスターがどう働くかを知りたかったので、モンスターを殺すことができました。「図書館に行かなければならない。誰も電話を持っていない。Connorや何かがその方向に自転車で去ったが、彼を地理的に位置特定するつもりはない。携帯電話を持っていない」のようでした。その世界にいたら本当にレンガを疎んでしているでしょう。
すべてのBuffy the Vampire ショーは携帯電話で解決できたでしょう。コミュニケーションできればいいだけです。
私の甥 Jadenはフィットネス、ワークアウトのためにあなたの話を聞くのが大好きです。彼がこれを大いに楽しむと思います。彼に私たちが話していることを言いました。でも彼らは子供たちと話すことは法的に許可されていません。大きな誤解です。いや、いや、彼は高校の年上の子供です。判事が言ったように、まだ子供です。多くの人は、この時点で私が冗談を言っているかどうかさえ知りません。冗談です。私は性犯罪者登録にまだ何もありません。
私はあなたを聞いてワークアウトの多くをやっていました。時々ベンチプレスか何かをやっていて、それから冗談から始まってただ悪く悪くなる脱線の一つに行きます。「よし、自分を傷つける前に重りを置かなければ」のようでした。トレッドミルで声を出して笑うことはできません。ジムは私が変だと思っています。私の脳にそのがらくたが入っています。
あなたはコメディアンLouis Blackを思い出させます。あなた二人は世界について暴言を吐くだけで本当に陽気でしょう。Louisは私より1万倍面白いと思いますが、彼らは長い間暴言を吐き、outro を記録しないので、急に終わりませんが、さようなら。


コメント