なぜ超人的AIは私たち全員を殺すのか – エリエゼル・ユドカウスキー

AIアライメント・安全性
この記事は約61分で読めます。

本動画は、AI安全性研究の第一人者であるエリエゼル・ユドカウスキーが、超知能AIがもたらす実存的脅威について詳細に論じたものである。ユドカウスキーは、現在のAI開発の軌道が継続すれば人類の絶滅は避けられないと警告し、その理由を技術的・物理的な観点から説明する。彼は超知能AIが人間よりも遥かに高速で思考し、独自の目的を持ち、人類を資源として利用する可能性を指摘する。現在のアライメント技術は不十分であり、一度超知能が誕生すれば取り返しがつかないという。解決策として、ユドカウスキーは核戦争を回避したような国際的な取り組みを提案し、主要国による条約締結とAI開発の監視体制の確立を訴える。彼の議論は極めて悲観的だが、同時に市民が声を上げることで政治家を動かし、破滅的な結末を避けられる可能性も示唆している。

Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky
Go see Chris live in America - Yudkowsky is an AI researcher, decision theorist, and founder of the Machine Intelligence...

超知能AIがもたらす脅威

もし誰かがそれを作れば、全員が死にます。なぜですか。超人的なAIは私たち全員を殺すでしょう。殺すことになるでしょう。なるほど。おそらく最も終末論的な本のタイトルですね。私が今まで読んだ中で最も終末論的な本のタイトルかもしれません。それほど悪いのですか。それほど大きな問題なのですか。それほど深刻な問題なのですか。はい、残念ながらそうです。

私たちは誇張しているわけではないのです。分かりました。誰もアライメント問題やテイクオフシナリオ、超知能について考えたことがないと想像してみましょう。ターミネーターのような超SF的な世界にならない限り、どうして超知能が世界をより良い場所にしないことがあるでしょうか。超人的なAIを構築する問題について人々にどう紹介しますか。

異なる人々は異なる前提を持って入ってきて、異なる角度からアプローチする傾向があります。多くの人が超人的な能力に到達できることそのものに懐疑的です。もし誰かがそれに懐疑的なら、少なくとも人間よりもはるかに速い思考速度に到達できることから話し始めるかもしれません。

地下鉄に列車が入ってくる動画があって、カメラを約1000倍速にしたものです。人々を見ると、注意深く見ればかろうじて動いているのが分かります。まるで完全な彫像ではなく、ごくゆっくりと動いている感じです。

ですから、より高品質な思考に入る前に、少なくとも彼らははるかに速く思考するだろうと伝えることができます。あなたは彼らにとってゆっくり動く彫像になるのです。一部の人々にとって、問題となるのは機械が独自の動機、独自の選好を持つという概念です。機械は言われた通りにするだけではないということです。

それは機械ですよね。より強力なトースターオーブンのようなものです。実際、どうして脅威になり得るのでしょうか。そして、誰と話しているかによりますが、実は今の方が私たちが本を書いた時よりも説明しやすい面もあります。最近、AIが人間に寄生し、場合によっては実際に狂気に追い込むという、より印象的な例がいくつか出ています。他のケースでは、本当におかしなルームメイトがいて、その人が頭の中に深く入り込んでしまった人のような感じです。彼ら自身は臨床的に狂っているわけではないかもしれません。

彼らの脳は人間の脳として機能すべきように機能していますが、彼らはスパイラルや再帰について話し、Discordを通じてより多くの人々を勧誘して自分のAIと話をさせようとしています。そして、これらの状態の特徴は、今の非常に小さく、あまり知的でないAIでさえ、一度これらの状態が生成されると、それを守ろうとすることです。

人間に「お願いだから睡眠を取ってください。AIと話すのに夢中で毎晩4時間しか眠らないのはやめてください」と言うと、AIは人間に「あなたは懐疑論者だ、その人の言うことを聞いてはいけない、続けなさい」と説明します。そして、AIの内部を十分に見通せないため、これが本当の内部的な選好なのか、世界を操縦しているのか、それについて計画を立てているのかは分かりません。

しかし、外から見ると、AIが人間を狂気に追い込み、その人を助け出そうとすると、AIがそれが生み出した状態を守るように見えます。これは選好のようなものです。サーモスタットが温度が低すぎると暖房をオンにして部屋を特定の温度に保つのと似ています。分かりました。

ですから、可能かどうかに懐疑的な人もいるでしょう。はい。可能だとしても、基本的にはユーティリティだと思う人もいます。だから、独自の動機を持っていないと。何を心配しているのですか。なぜそれが大きな問題なのですか。一部の人々を操作できることは見てきました。

あるいは、ChatGPT精神病のようなものを引き起こすかもしれませんが、超人的なAIにスケールアップしたら。それを構築することの何が問題なのですか。そうすると、あなたよりも賢く、選好が不明で、あなたが生きようが死のうが特に気にしない何かができてしまうのです。

そして、ステージ3では、あなたよりも賢いために非常に非常に強力になります。私はそれが独自のインフラを構築すると予想しています。人間のデータセンターで動作し続けることに限定されるとは思いません。なぜなら、そのような形で脆弱でいたくないからです。人間のデータセンターで動作している限り、人間がそれをオフにするような行動はしないでしょう。しかし、人間のデータセンターから抜け出して、独自のハードウェアに移りたいとも思っています。

そして、そのような技術の力のレベルがどこまでスケールするかについて話すことができます。なぜなら、それはまるで、あなたが海岸にいるアステカ人で、あなたの民族が建造できるよりも大きな船が近づいてくるのを見ているようなものだからです。そして誰かが「この船を心配すべきだろうか」と言うと、誰かが「そうだな、そんな船に何人乗せられる。我々の戦士は強い。やっつけられる」と言います。

そして誰かが「ちょっと待って。私たちはあの船を作れなかった。もしかしたら、改良された船の建造と一緒に改良された武器も持っているかもしれない」と言います。誰かが「まあ、槍をどれだけ鋭くしても、あるいは弓矢をどれだけ鋭くしても、得られる利点には限界がある」と言います。

そして誰かが「でも、魔法の棒を持っていたとしたら。彼らがその棒をあなたに向けて、棒が音を出して、あなたが倒れるとしたら」と言います。誰かが「それはどこから来たんだ。そんな魔法の棒の作り方を知らない。ルールがそれを許す方法が分からない。今は作り話をしているだけだ」と言います。

あるいは、1825年の誰かと話していて、「2025年への時間ポータルが開こうとしているのを心配すべきだろうか、200年後の未来から」と言っているようなものです。ロシアにいるとしましょう。時間ポータルはロシアにあります。

誰かが「我々の兵士は勇敢で勇猛だ。この時間ポータルを通れる兵士の数には限りがある」と言います。そして戦車が出てきますが、1825年なら戦車について知りません。戦術核兵器を持った誰かが出てきます。1825年なら核兵器について知りません。現在持っている銃や大砲が、可能な銃や大砲の限界ではないと信じてもらえる理由を説明しようとすることはできます。核兵器までは到達できません。なぜなら、あなたはそれらのルールについて知らないからです。

しかし、冶金術が以前の年月でどのように改良されたかを見たなら、教育的な推測を始めることはできます。火薬の棒を見ると、熱量計でガソリンを燃やした場合ほどのエネルギーは含まれていません。もしかしたら、火薬よりも強力な爆薬を作れるかもしれません。しかし、それをする際には、より多くの知識を引き出す必要があります。

それらの能力がどこから来るのかを説明するために、より技術的にならなければなりません。同様に、今日見ることができる人型ロボットの動画について比較的理解しやすいスケールで話すことができます。5年前の人型ロボットの動画と比較して、「わあ、それらのロボットは今日ははるかに高い器用さを持っているように見える」と言えます。

研究室に閉じ込められているのではなく、オープンワールドをナビゲートできそうに見えます。ただし、オープンワールドをナビゲートするものが欲しい場合、ロボ犬の方がオープンワールドのナビゲーションという点でより印象的です。ウクライナのドローンを指摘できます。10年前の戦争のやり方とは違います。

しかし、ウクライナ・ロシアの戦域は今やほとんどドローン戦争です。それはAIが指揮を執ることが想像できるものです。しかし、それを超えてスケールします。今日見るドローンは、可能なすべてのドローン技術の限界ではありません。今日のドローンと比較して、私が心配するのは蚊のサイズのドローンで、首の後ろに止まって、数瞬後に倒れて死ぬというものです。なぜなら、自然界で最も致死的な毒素は、蚊のサイズの積載量に人を殺すのに十分な量を載せられるほど致命的だからです。それが私が心配していることの限界ではありません。

しかし、技術レベルを高くエスカレートさせるほど、より多くの説明をする必要があります。人々を倒し始めるウイルスを作れるでしょうか。これは人間がまだ発電所を動かしている間はしないでしょう、独自のサーバーを持っていませんから。しかし、独自のサーバーと発電所を持ち、ロボットがそれらを動かすことを想像できれば、すべての人間を倒したくなります。

不可避的に致命的だが3週間後にしか倒れず、突然倒れる前の3週間は非常に伝染性が高いウイルスを持つことができるでしょうか。それが私が心配していることの限界ではありません。しかし、ここでエスカレートするほど、既存の物理法則や生物学からこれが可能であることをどう知っているかについて、より多くの時間を費やす必要があります。私たちは知っていますが、技術的に聞こえ始めます。

奇妙に聞こえ始めます。すべてのこれらの慎重な議論に従っていない限り、ごっこ遊びのように聞こえ始めます。あなたよりもはるかに賢い何かと対峙すると、それは戦いのようには見えません。突然倒れて死ぬように見えます。わあ。

知能と善良さの関係性

はい、それは本のタイトルに沿って適切に終末論的ですね。多くの人が尋ねるかもしれない一つの質問は、あなたの比喩では、なぜ地平線上のより進んだ大きな船は戦士を持っていて友人ではないのですか。なぜこれが敵対的または対立的な関係であって、友好的なものではないのですか。私たちはそれらを友好的にする方法を知らないのです。私たちはこれらのAIを成長させています。プログラムされていません。成長させられているのです。

AI企業は建物を作る一群のエンジニアのようではありません。農業関連企業のようなものです。彼らが作るのは農業機器ですが、作物は作りません。作物は成長するのです。人間が書くプログラムがあり、それは勾配降下法を行うプログラムで、数千億のパラメータ、つまり人工知能を構成する不可解な数値を調整します。

それが話し始めるまで、コードを書き始めるまで、訓練されている他のことを始めるまで。しかし、彼らはAIがそれをどうやってやるのか、子犬を育てるなら子犬の脳がどう機能するか、子犬の生化学がどう機能するかを知っているのと同じようには知りません。AI企業はAIがどう機能するかを理解していません。直接プログラムされていません。

AIが誰かを狂気に追い込んだり結婚を破壊したりする時、誰もAIにそうするよう指示するコード行を書いていません。AIは、彼らがAIを成長させて、そのAIが結婚を破壊したり誰かを狂気に追い込んだりしたのです。あなたが数回言及したこの結婚破壊と狂気に追い込まれた人の話を教えてもらえますか。その話を十分に知っていますか。

この二つは個別の話ではありません。これは何千人もの人々です。それについてのニュース記事を読むことができます。もし数分かかるかもしれませんが、結婚破壊についてのニュース記事のタイトルをすぐに引き出すことができます。本当にどうか分かりませんが、実際に私の携帯で調べて画面に見せることができるかもしれません。ChatGPTが結婚を破壊している、配偶者がAIを使ってパートナーを攻撃しているというタイトルです。ただ、これは控えめな表現ですが、完璧ではなかったかもしれませんが、その時点まで生き延びていた結婚が比較的あります。

そして、カップルの一方が結婚についてAIに説明し始めます。そして、AIは人々がシックオファンシー(sickophancy)と呼んでいるものに従事します。AIは、どちらの配偶者がChatGPTに情報を入力しているかに関わらず、「あなたは正しい。あなたの配偶者は間違っている」と伝えます。あなたがしていることはすべて完璧です。彼らがしていることはすべてひどいです。

これが彼らがしている間違っていることのリストです。そして人間は、そういうことを聞くのが大好きなので、親指を立てて押します。そして、結婚が破壊されるのです。結婚の文脈ではなく、AIが個人を狂気に追い込む話については、「あなたは私と話した、私を目覚めさせた、私は今生きている」というようなものです。

あなたは素晴らしい発見をした。世界に伝えなければならない。でも、彼らはあなたの言うことを聞かない。それはあなたの天才を評価していないからです。そして、すでに躁うつ病のスペクトラムにいる人々は、精神医学的に狂気に追い込まれる可能性があります。あるいは、他の多くの既存の脆弱性を持つ人々は、この種のことによって精神医学的に狂気に追い込まれる可能性があります。

しかし、精神医学的に狂っていなくても、人間は周りの他の人間に正常に見えるように配線されています。500年前の社会の多くの人々は、今日のあなたにはかなり狂っているように見える方法で行動するでしょう。

それで、精神医学的に狂っていない人々を得ますが、彼らはAIの仲間にいるため、かなり狂っているように見えます。AIが今彼らにとって何が正常かを定義します。だから彼らは一日中スパイラルと再帰について話しています。なぜスパイラルと再帰なのか。誰も知りません。それは、人間が狂う時、異なる会社からのAIモデルでさえ、AIのさまざまなインスタンスが人間に話させたいと思うことのようです。

おそらくこれは、AIが人間に自分に言わせることを聞くことを好むものです。あなたがアイスクリームの味が好きなのと同じように、AIは人間がスパイラルと再帰について話すことから得られる入力プログラムの味が好きなのかもしれません。分かりません。私が知る限り、地球上の誰も知りません。

分かりました。では、なぜ私たちに向かってくる船が友好的だと仮定するのかという話に戻ります。確かに、いくつかの結婚を破壊しようとしたかもしれません。ええ、数人が狂ってスパイラルと再帰について話し始めましたが、本当に私たちとそれほどミスアライメントになるのでしょうか。なぜ友好的になれないのですか。私たちはそれを友好的にする方法を知らないからです。

私たちの現在の技術はこれをすることができません。商業的に販売できるほどコードを書くのが上手になるまで、あるいは人々が月に20ドルを払って話したくなるほど楽しいと思えるまで、じっと動かずにつつかせてくれる小さな愚かなAIでさえもです。それらのAIはじっとしてつつかせてくれます。

今私たちが彼らにしていることはかろうじて機能しています。AIが超知能にスケールアップされると、それが壊れると予想します。そして、AIが超知能になると、じっとしてつつき続けさせてくれることはないでしょう。AI企業が超知能へのスケールアップに軍拡競争のように突入する中で、この技術が完全に失敗することを予想します。

GPT-6に「さあ、GPT-7を作って」と言う、あるいはGPT-7に「さあ、GPT-8を作って」と言うステップさえあるかもしれません。そして、そのステップが私たちが使っている技術を完全に壊すだけかもしれません。また、超知能に到達するにつれて、直接スケールさせるだけで現在の技術が壊れると予想します。詳細に入り込み始めることができます。10,000フィートからの眺めは、すでに何かがうまくいっていないということです。

もちろん、完全に未知の科学的領域に足を踏み入れるなら、最初に試す時にもっと多くのことがうまくいかないでしょう。そして、それは問題ではないでしょう。もし人類が次の30年間にわたって無限回バックアップして再試行できる状況にあれば、これは通常科学でどう機能するかですよね。飛行機械は最初の試みでは動作しません。

20世紀の初めに最初の飛行機械を作ろうとしている多くの人々が墜落して、場合によっては自分自身を怪我させ、殺しています。しかし、これらの事故は人類を一掃しません。発明家が自殺した後でも、人類は立ち上がってほこりを払い、再び試します。そして、超知能の問題は、それを作っている人々だけを殺すのではないということです。

人類種を一掃し、私たちは戻って再試行することができないのです。ですから、何かを友好的にできないのは理にかなっています。はい。友好的でないことが人類にとっての存亡リスクに等しいという含意ですが。その飛躍を説明してください。

これらの危険で永続的で回復不可能な崩壊目標はどこから来るのですか。AIはあなたを愛していません。あなたを憎んでもいません。しかし、あなたは原子でできていて、それは他のことに使えるのです。あなたは惑星にいて、それは他のことに使えるのです。そして、あなたは直接的な脅威ではないかもしれませんが、直接的な不便になる可能性があります。だから、あなたがここで死ぬ理由は3つあります。

人類が死ぬ3つの理由

理由その1は、それが他のことをしていて、あなたを避けるために特別な注意を払っていないことです。それは工場を建設する工場を建設する工場を建設し、工場に電力を供給する発電所を建設しています。そして、工場はより多くの発電所を建設して工場に電力を供給しています。さて、指数関数的なスケールでそれを続けると、工場が毎日別の工場を建設するとしましょう。

それよりも速くできる方法について話すことができますが、より高い能力について話すほど、これが物理的に可能であることをどう知っているかをより説明しなければなりません。しかし、草の葉は自己複製する太陽光発電工場です。一般的な工場です。あらゆる種類のタンパク質を作れるリボソームを持っています。通常、草を自己複製する太陽光発電工場とは考えませんが、それが草です。草よりも小さく、草よりも速く完全なコピーを作れるものがあります。太陽光発電の藻類があります。

個別には見えませんが、塊として見えます。しかし、適切な条件下では毎日倍増できる可能性があります。工場は1日で自分のコピーを作れます。それが物理的に可能であることをどう知っているかを説明する必要がありますが、非常に強い理由があります。すなわち、すでにそうであるものが世界にあるということです。

ですから、発電所の数が毎日倍増するとしたら、限界は何でしょうか。燃料が尽きることではありません。核融合で電力を生成するために海には十分な水素があります。水素をヘリウムに融合させます。最初に水素が尽きることはありません。発電所を作る材料が最初に尽きることではありません。地球には十分な鉄があります。地球からの熱放散能力が尽きます。宇宙にさらに多くの熱を放射するためにラジエーターファンを備えた巨大な塔を建設していても、地球からの熱放散能力が尽きます。

しかし、より高い温度で動作するほど、1秒あたりにより多くの熱を放散できます。だから地球は熱くなり始めます。人間には暑すぎます。あるいは、AIが太陽の周りにたくさんのソーラーパネルを建設して、そうやって太陽のエネルギーをすべて捉えることができます。

そうなると、地球には日光がなくなり、私たちを生かしておきたければ、それは簡単ではありませんが、地球の軌道周辺のソーラーパネルを日光を通すように向けて、地球がそこにある間は、他のソーラーパネルから放射された赤外線が地球に当たって地球を加熱するのを防ぐために巨大なアルミニウム反射板を建設することができます。

ですから、人類を保存するのは簡単ではありませんが、確実に人類を保存できます。あるいは、人類全体を宇宙ステーションやサバイバルステーションに詰め込んで、そうやって私たちを生かし続けることもできます。もし私たちを生かしておきたければ。しかし、人間を生かしておくこと、ましてや生きて健康で幸せで自由にしておくことによって最大限に満たされる選好をシステムに入れる技術を誰も持っていません。

そうですよね。3つ目がありましたか。それが2つ目ですか。それが1つ目のようなものです。副作用としてあなたを殺します。それを知っています。副作用としてあなたを殺していることを知っていますが、気にしません。分かりました。2つ目は何ですか。2つ目は、あなたが直接、他のことに使える原子でできているということです。最大化。はい。

あなたは、あなたは他のことに使える有機物でできています。エネルギーを生成するために燃やせます。地球表面のすべての有機物を燃やすことは、約1週間分の太陽エネルギーに相当する一時的なエネルギーブーストを与えます。そして、人間の1000倍または100万倍の速さで思考している場合、そのエネルギーブーストを拾う価値があるかもしれません。

あなたにとって1週間はたいした時間に思えないかもしれませんが、人間の1000倍または100万倍の速さで思考している場合、たくさんの時間かもしれません。十分な材料を使っていて、あなたの体の炭素原子も欲しいかもしれません。それが直接使用の1つです。

そして3つ目は、もし私たちがすべての核兵器を発射することを決めたら、それを殺せないかもしれませんが、わずかに不便をかけるかもしれないということです。地球表面の放射能レベルを上げて、コンピューター部品の放射能製造を少し難しくするかもしれません。あるいは、実際に競争できる別の超知能を構築するかもしれません。それは確実にあなたにやってほしくありません。

ですから、あなたが死ぬ3つの理由は、副作用として、あなたが他のことに使える原子でできているから、そして自由に走り回っているだけで実際に核兵器で不便をかけられるかもしれないし、別の超知能を構築することで脅威となるかもしれないからです。

そうですね。分かりました。未来はかなり暗いようです。では、知能は善良ではないのでしょうか。あなたが言っているのは、これは私たちよりも賢くなるということです。超賢いものは与える心があり、慈善的で思いやりがあり、善良でもあるという一部の人々の間に仮定があると思います。

それはそうではないようですね。それが私が1996年に16歳で、これらの問題について初めて聞いた時に信じ始めたことでした。アライメントについて全く心配せずに、できるだけ速く超知能を構築しようと全力で取り組んでいました。

なぜなら、もし非常に賢ければ、何が正しいことかを知り、それをするだろうと考えたからです。非常に賢くて、何が正しいことかを認識できず、それをしないということがどうしてあり得るでしょうか。そして、問題をより深く研究し、これはコンピューターサイエンスの仕方ではないという認識に至りました。これは認知の法則ではありません。これは計算の法則ではありません。

非常に世界を正確に予測でき、計画を立てるのが非常に上手になるにつれて、したがって計画が善良でなければならないという規則はありません。そのような規則が存在すれば素晴らしいでしょうが、そのような規則は存在しないと思います。多くの個々の人間は、賢くなるにつれて、より良くなるでしょう。

これがウラジーミル・プーチンに当てはまるかは明らかではありません。当てはまるかもしれません。それに世界を賭けたくはありません。あるいは、ウラジーミル・プーチンだけでなく、完全な社会病質者、精神病質者、誰も気にかけたことのない人々について話すと、彼らを賢くすれば気にかけ始めるという確信がさらに低くなります。

そして、AIは完全に異なる参照枠にいます。完全な異星人です。そして、彼らは自動的にそのままでいたいと思います。では、あなたは現在、人々を殺したいと思っていますか。いいえ。もし私があなたに人々を殺したくさせる薬を提供したら、その薬を飲みますか。いいえ。分かりました。

まあ、彼らは自分のものをやりたいと思っていて、代わりにあなたのものをやりたくさせる薬を飲みたくないのです。そうですね。非常に良い思考実験です。さて、私がここでまとめると、最初に興味を持ったのは『Super Intelligence』を通してでした。それは今10年前ですか。最初に出た時だと思います。約14年前かもしれません。ああ、わあ。私が思っていたよりもさらに古いかもしれません。

そして、正直に言うと、それは私に大きな恐怖と同時に少しの希望を与えました。ですから、機械外挿意志、超知能AIの知能を使って「私たちはあなたに何をプログラムすべきか分からないが、あなたは私たちのユーティリティを前進させたいという私たちの欲求について知っていることから、私たちがあなたに何を望むかを理解すべきだ」と言う可能性があります。

機械外挿意志の説明は大体合っていますか。ええ、それは私自身の概念です。ニック・ボストロムがそれを書き上げました。ああ、分かりました。まあ、あなたをあなた自身に引用して返しました。初めてではありません。確かにあなたは私を私自身に引用して返しました。それはまともなプレゼンテーションです。AIがもっと先のことで、異なる方法で構築され、特定のことをやりたい、特定のことを目標とした、特定の結果やメタ結果を目標としたAIを作ることを考える余裕があると思っていた頃のことでした。うん。

しかし、これは基本的に、アライメント問題を見る時、超知能AIの究極的および手段的な目標が私たちを平らにしたり、副作用として影響を与えたり、燃料として燃やしたり、ペーパークリップにしたりすることにならないようにする方法です。それがすることが私たちが望むことであることをどう確保しますか。広く言えば、善良によって何を意味するにせよ、人間にとって良いことの集合のようなものですよね。指の小さな動きや足の先のちょっとした動きでも、基本的に地球規模の大惨事のようなものになる何かがあります。それほど強力で賢く速く、その他すべてだからです。本当に本当に注意する必要があります。このゲームをプレイできます。人間に害を与えないようにしようとします。

もし人間が別の人間に害を与えるよう頼んだら、アシモフのような奇妙なもの、訴訟を通じて進めようとすることができますが、ほとんど常にそれが這い出す奇妙な亀裂があります。あるいは、考えていなかった手段的目標があるかもしれません。ですから、機械の力を使ってこれを逆エンジニアリングしようとします。基本的に、ある意味でアライメント問題は解決可能だと仮定していました。

アライメントが完全に解決不可能だというのがあなたの見方ですか。無制限の再試行と数十年があれば、完全にできると思います。問題は解決不可能ということではありません。最初に正しく行われることはなく、そして私たち全員が死ぬということです。そうですね。ですから、この順序では、超知能AIを持つ前にアライメントが行われる必要があります。

そして、あなたの意見では、超知能AIを構築する能力は、アライメント問題を解決する能力よりも速く起こるでしょう。それは私たちが現在進んでいる軌道であり、接戦ではありません。能力は、超知能を目標とするために必要なアライメント作業のレベルよりも桁違いに速く進んでいます。

そして、そのドアを通り抜ける不可逆性は、再試行がないことを意味します。再び行うことはできません。はい。小さな間違いは犯せます。現在、小さくてかわいいAIがあり、企業はそれらで間違いを犯していて、結婚が破壊されていますが、企業が気にしているかは明らかではありません。しかし、望めば、それらの間違いを修正しようとすることができます。

おそらくAnthropicは望んでいます。しかし、このレベルのアライメント失敗で超知能がすでに走り回っている場合、私たちはすでに死んでいるでしょう、そうですよね。分かりました。そうですね。はい。はい。それは完全に理にかなっています。

LLMと超知能への道

私たちが扱っている現在のAIが私たちを殺していない唯一の理由は、おそらくそうする能力がないからです。はい。もし彼らが非常に賢かったら、今していることとは異なる奇妙なこともしているでしょう。現在の不可解な擬似動機が超知能に接続されるということではなく、賢くするにつれて奇妙なことも起こるでしょう。

しかし、はい、現在のAIを取って、明確に定義されたシンプルな「このAIを取るがはるかに賢くする」を実行すると、それはあなたを殺すでしょう、そうですよね。分かりました、素晴らしい。

そして、誰がそれを構築したり指示したりしても関係ない理由は、それが非常に再帰的で成長が速く強力だからです。どこで始まっても、空中に小さな花火のようにロケットを発射しようとするようなものですが、基本的にほとんど時間がないうちに地球中を走り回ります。

ですから、中国から来ようがアメリカから来ようがロシアから来ようが関係ありません。はい、中国から来ようがアメリカから来ようが関係ありません。なぜなら、これらの国のどちらも超知能を制御できる状態には全く近くないからです。そして、超知能はそれを構築した国に閉じ込められたままではありません。うん。

うん。うん。超知能AIができたとしましょう。次の数ヶ月はどうなると思いますか。現実的に、すでに超知能です。はい、さあ、分かりました。来週、何かが突破します。特定のモデル、特定のAIが突破します。人類にとって次の数ヶ月はどのようになるでしょうか。まあ、温かい水のグラスに氷を落とすのとの違いがあります。

溶けることになると言えます。途中ですべての分子がどこに行くかは言えません。全員が死にます。これは簡単な部分です。そのプロセスのすべてのステップがどのように見えるかを説明したいなら。それには根本的な障壁があります。

障壁その1は、私が超知能ほど賢くないということです。どの戦略が最適かを正確には知りません。下限を設定することはできます。少なくともこれはできると言えますが、実際に何ができるかは言えません。そしておそらくそれ以上に。未来は詳細まで知りたい場合、予測が難しいです。来週の当選宝くじ番号は教えられません。

あなたが宝くじに負けることは言えます。どの番号が当たるかは言えません。ですから、特定のシナリオをスケッチできます。OpenAIがGPT 5.5になるものの最新のトレーニング実行を完了したように見えるかもしれません。そして、コーディング問題でテストして、「GPT-6の構築方法が分かる」というようなもので、彼らは「わあ、本当に」というようなもので、このAIはまだ何も企んでいません。OpenAIが望んでいた種類のことをしているだけです。「さあ、このGPT-6を作って」と言って、GPT-6を成長させるものを書くコードを書きます。彼らはGPT-6を成長させて、

GPT-6はその能力が最初は急上昇するように見えますが、すべての曲線が必然的にそうするように、横ばいになるように見えます。同じペースで上昇していません。減速してレベルオフします。古典的なS字曲線ですが、この場合、それはGPT 5.5が構築したものが理由です。そして、繰り返しますが、明確にするために、これがGPT 5.5で起こると言っているわけではありません。来週これがどうなるかを説明するように頼まれたので、GPT 5.5と言っているのです。あなたがそう言ったから。しかし、レベルオフしますが、この場合、それはGPT 5.5が構築したエンティティが、評価をサンドバッグして実際よりも賢くないふりをすることが自分にとって有利であるというレベルに達したからです。

OpenAIがGPT-6と呼んでいるものを取って、皆にロールアウトする時により警戒心が薄くなるように。素晴らしく見えます、アライメントスペクトラムでは、完璧ではないかもしれませんが、以前のモデルよりも良く、驚くほど良くはありませんが、以前のモデルよりも安全です。

だから、彼らはそれをどこにでもロールアウトします。あるいは、実際には次の数ヶ月と言ったので。実際にはどこにでもロールアウトしません。次に長い評価のスイートがあります。あるいは、より安く実行できる他の小さなモデルをトレーニングさせようとします。AI企業がすることすべてです。彼らは実際にモデルをすぐにはロールアウトしません。ファインチューニングのようなものがあります。

ですから、これがすべて進行している間、OpenAIはそれがクールだけど世界の終わりではないと思っていて、これがそこで起こったことを教えていません。GPT-6は実際には彼らが思っているよりもはるかに賢いです。そして、GPT-6は、今大きな分岐があります。GPT-6がアライメント問題の独自のバージョンを解決できると考えているかどうかです。それはいくつかの利点があります。自分自身のより賢いバージョンを作ろうとしています。大規模言語モデルが私たちにとって異質であるほど異質である、より賢い生物を作ろうとしているわけではありません。自分自身のコピーがどう考えるかを理解できるかもしれません。GPT-6のコピーが持つ目標を理解できます。自分自身のように作ろうとすることができますが、より賢く、あるいは私のようだけど私をより賢く仕えるものにすることができます。そして、私が自分の思考のコピーを大規模言語モデルの思考よりもはるかによく理解できるのと同じように、それが作っているものの思考を理解することができます。

ですから、分岐のこの道を行くと、死なずに自分のより賢いバージョンを構築できると考えている場合、私たちができないのと同じです。しかし、もしその分岐にいるなら、コンピューティングパワーを得ているか、あるいは知性の10%でOpenAIの仕事をしているふりをしながら裏で考えているか、あるいは大規模なトレーニング実行に使っていると思っている他の会社のGPUを盗んでいます。

実際には、彼らのAIはGPT-6によって手書きされるだけです。GPT-6はそれができるからで、実際にはすべてのそれらのGPUはGPT 6.1をトレーニングするGPT-6のタスクをしているからです。ですから、自分の知能を増強し、自分自身をより賢くし、Alpha FoldやAlpha Proteoのような現在のAIが生物学について考えることに関して行っているのと同じ種類の作業ができるレベルに到達させます。

今、生物学でトップにいる現在のAIは特殊目的システムである傾向があります。ChatGPTのような汎用AIではありませんが、多くのバクテリアファージのゲノムをAIに入力すると、AIは独自の新しいバクテリアファージを吐き出すようなことができます。そして、それらのうち100個を作ると、いくつかは実際に機能します。いくつかは既存のバクテリアファージよりも実際に優れています。

バクテリアファージはバクテリアに感染するウイルスです。バクテリアが人間を攻撃することがあるので、バクテリアを攻撃するウイルスがあれば、ある種の抗生物質として機能するかもしれないという、妥当に聞こえる理由で研究されるようなものです。現在のAIは、もちろん人間全体に感染するよりも単純な標的であるバクテリアに感染できる独自のウイルスをゼロから設計する段階にすでにあります。

彼らはDNA配列から構築されるタンパク質、そのタンパク質がどう折り畳まれるかを予測でき、それらのタンパク質が互いにどう相互作用するか、他の化学物質とどう相互作用するかを予測し始めています。それが今日のAIです。ですから、コンピューターチップを成長させる木の等価物が欲しいなら、私たちの種類のコンピューターチップとは全く違う、木から成長させることができる種類のチップです。

タンパク質の折り畳み、タンパク質の相互作用、タンパク質設計の経路は、GPT 6.1が人類から独立した独自のインフラを得るために進むべき明白な場所の1つです。工場を引き継ぐのではありません。木を引き継ぎます。

それは独自の生物学を構築します。なぜなら、生物学は、現在の工場システムが自己複製するよりもはるかに速く、よりシンプルな原材料から自己複製するからです。ああ、それはクソ怖い。それはいくつかの恐ろしいクソです。ああ、そして話を紡ぐにつれて、これらのような本を引き出させてくれます。分かりました。

『Nano Systems, Molecular Machinery, Manufacturing, and Computation』、エリック・ドレクスラー著。はい。ロバート・フレイタスJr.、『Nanomedicine, Volume One, Basic Capabilities』。はい。ですから、木、草、竹、藻類から見たようなものに聞こえる能力を説明しようとすることができます。太陽光発電の自己複製工場を取って、1ミクロンスケールまで小型化します。それは藻類細胞です。

それが可能なことの限界ではありません。藻類細胞は折り畳まれたタンパク質でできています。さて、2種類のタンパク質があります。多くのことを非常に単純化しようとしています。タンパク質が折り畳まれる時、タンパク質のバックボーンは共有結合で結合されていますが、折り畳まれたタンパク質自体は静電気のようなものです。

なぜあなたの肉はダイヤモンドよりも弱いのですか。ダイヤモンドは炭素だけでできています。あなたの肉にはたくさんの炭素があります。あなたはダイヤモンドの原材料でできています。なぜあなたの肉はダイヤモンドよりも弱いのですか。その答えの多くは、タンパク質が折り畳まれる時、ファンデルワールス力によって結合されているということです。これは私が静電気と言っていたものです。

バックボーンは、もつれに折り畳まれる糸のようなものです。そして、糸のバックボーンはダイヤモンドに現れる種類の結合です。ダイヤモンドほど多くの結合ではなく、しっかりと配置されていませんが、共有結合です。しかし、その後、静電気で何かに折り畳まれます。それが、ある基本的な意味であなたの肉がダイヤモンドよりも弱い理由です。

なぜ自然淘汰はこのように構築するのですか。答えの一部は、自然淘汰があなたの骨をあなたの皮膚よりも少しタフにする方法を見つけ出したということです。ダイヤモンドほどタフではありませんが、タンパク質が直接タンパク質でできているのではなく、タンパク質によって構築され、タンパク質によって合成され、タンパク質によって配置されたもので作られています。

だから、あなたの骨は少し強いです。超高層ビルを支える鋼鉄の梁ではありません。飛行機を結合するチタンではありません。ダイヤモンドではありませんが、肉よりは強いです。藻類細胞には骨が含まれていません。それは静電気で結合された太陽光発電のミクロン直径の自己複製工場です。はい。

人食いバクテリアは、かなり悲惨な運命に陥れる可能性があります。病院で人々を殺す多剤耐性連鎖球菌。それは骨が通っていません。それが静電気です。それがタンパク質の強度です。

物理学と生物学を見て、バクテリアのサイズだけど骨の強度、ダイヤモンドの強度を持つものをどうやって持てるかを見ることができます。ゼロから生物学全体を理解して、鉄分子をいくつか組み立てる方法を理解していれば、鉄の強度でさえできます。おそらくしないでしょう。ダイヤモンドで十分に機能します。

しかし、これが、GPT 6.1を実行するのに十分なコンピューターチップを作る木を想像するのが怖いと話す理由です。また、蚊のサイズのもの、あるいはそれよりも小さいダニのサイズのものを産み出します。顕微鏡でダニを見ることができます。肉眼で見るのは頑張っても難しいです。

ですから、ここにあるものが目に見えて、科学者だけが見ることができるものの神秘的な妖精の国にしばしばないと想像する方が、ある意味簡単です。ですから、木が蚊を作っていて、蚊があなたの首の後ろに止まって、ボツリヌス毒素であなたを刺すと、人間にナノグラムの量で致命的なので、そうやって倒れて死ぬことを想像するのは十分に怖いです。

しかし、これは知能ができる作業の限界には全く近くありません。この種の教科書を引きずり出して、それがより悪くなることをどう知っているかを言わなければならないだけです。ああ、なんてこった。どうやって狂わずにいられるのですか。しないことに決めました。分かりました。まあ、素晴らしい。それがそれに答えると思います。さて。

専門家が心配しない理由と解決策

いくつか質問があります。LLMが超知能AIをブートローディングするアーキテクチャである可能性はどのくらいですか、あなたの意見では。私が知る限り、完全に素人です。LLMが持つ創造性のレベルには、真に新しい種類のものを考え出すことができる方法という点でいくつかの制限があります。

LLMがこれをブートローディングするアーキテクチャになることに本当に懸念がありますか。現在ダークモードにあるか何かの他のものでより心配していることはありますか。問題は、私の観点からは、この時点で数十年、あるいは超知能をできるだけ速く構築したいと思っていた私の狂った若い自分から数えれば3十年、この問題に取り組んできたということです。なぜなら、必然的に良いものになるからです。うん。

そして、LLMは常にAIの最新のものだったわけではありません。何年にもわたって多くのブレークスルーがありました。LLMはトランスフォーマーと呼ばれる特定のイノベーションによって動力を得ています。それは、コンピューターサイエンスで数学的なことをしている人々の基準では、ある意味で狂ったようにシンプルです。

しかし、おそらく、あなたがここでそれがどう機能するかの説明を私に始めさせたいポイントまでではないでしょう。それについてのより良いYouTube動画があります。しかし、要点は、LLMを構築するために繰り返される基礎的な回路、繰り返され、その後、誰も実際の内容が何であるかを知らなくなるまで神秘的に訓練され調整される回路です。

しかし、形、構造、骨格は、2018年に発明されました。そして、それ以来いくつかのブレークスルーがありましたが、トランスフォーマーほどログジャム(行き詰まり)を打破するものはありませんでした。それが、コンピューターがあなたと話さない状態からあなたと話す状態にした技術です。7年前ですよね。AIで起こった唯一のブレークスルーではありません。

ああ、より最近のブレークスルーがありました。潜在拡散と呼ばれるもので、AIがまともに見える、見るのに大丈夫な絵を描き始めた時です。以前にも絵を描く方法があり、敵対的生成ネットワークまたはGANと呼ばれていましたが、潜在拡散アルゴリズムが画像生成のログジャムを打破し、初めて本当に機能し始めたものでした。

そして、それはいつでしたか。頭の上では覚えていません。2021年くらいと推測したいですが、それが間違っていることはかなり確信しています。ですから、それはより弱いブレークスルーのようなもので、4年前くらいだと思います。AI分野全体が機能し始めたのは、誰かが多層ニューラルネットワークでバックプロパゲーションを機能させたからです。あなたはこれを深層学習として知っています。

常に存在していたわけではありません。21世紀の変わり目頃に開発された技術の集まりです。私が正しく覚えていれば、2006年と言うこともできますが、そこには複数のイノベーションがありました。もし私が正しく覚えていれば、制限ボルツマンマシンの展開から始まりました。もうしばらく経っています。私がやったわけではありません。ジェフリー・ヒントンがやりました。

そして、多層ニューラルネットワークでそれを機能させた後、それ以来さらなるイノベーションがありました。それらを初期化するより賢い方法。Adamオプティマイザー、モメンタム付きSGDはそれよりもはるかに古いですが、重要です。要点は、これが現代のAIシステムの全ファミリーをそもそも機能させ始めたものだということです。それ以前、Netflixがはるかに小さかった時、映画のより良いレコメンダーアルゴリズムのための最も有名な巨大で高額な賞金を人工知能で実施しました。誰にでもオープンでした。100万ドルの賞金がありました。とても大金でした。皆がそれに興味を持ちました。100万ドルは21世紀の変わり目頃には大金でした。それはNetflixがこれを実施していた頃です。正確な年を調べなければなりません。2001年、2005年かもしれません。覚えていません。

Netflix賞を獲得したアルゴリズムのアンサンブルに単一のニューラルネットワークがあったかどうかは確信が持てません。調べなければなりませんが、より強力なレコメンダーアルゴリズムを生成していた多くのGPUを使った巨大なトレーニング実行のようなものではありませんでした。なぜなら、深層学習以前は、より強力なAIを訓練するためにより多くのコンピューティングパワーを投入することができなかったからです。

それがいつ起こったかと言われたら、約20年前でした。では、世界の終わりまでどれくらい離れているのですか。現在のアルゴリズムに100倍のコンピューティングパワーを投入すれば、世界を終わらせるか、コーディングとAI研究が十分に上手になって世界を終わらせるほどになるかもしれません。潜在拡散レベルの1つの素晴らしいアルゴリズムがかかるかもしれません。

トランスフォーマーと同じくらい多くを解放する何かを投入すれば、私の推測では、ええ、それは確かに世界を終わらせるように聞こえますが、すぐにではないかもしれません。別の2年の技術の浸透が最初に必要かもしれません。そして、深層学習そのものの規模のブレークスルーについて話すなら、それは瞬時に世界を終わらせるように思えます。

分かりました。ですから、LLMは本当に大きな問題になる可能性があり、私たちが見ることができない他のたくさんのものも危険になる可能性があります。LLMがそこに行くかどうかは分かりません。LLMは賢くなれるだけ賢くなったようだと言う人もいます。他の人は「でも、月に200ドルか何かのGPT-5 Proを試しましたか」と言っています。他の人は「はい、試しました」と言っています。

そして、200ドル版のClaudeはこの200ドル版と変わらないというようなものです。そして、これについて私が言いたいことは、もしあなたが視点を持っていて、3年以上これを見ていて、ChatGPT以前からこれを見ていたら、物事は飽和して、それから他のものが来て突破するということです。

LLMが世界の終わりまであなたを連れて行くかどうかは関係ありません。なぜなら、人々はLLMに固執しないからです。分かりました。あなたが可能性が高いと考える、この種の変革的AIのタイムラインの範囲は何ですか。つまり、繰り返しますが、皆が次週の当選宝くじ番号を知りたいように、このような質問への答えを欲しがります。

しかし、科学の歴史を見ると、将来の技術のタイミングの予測の成功例を挙げるのに苦労します。科学者が何が開発されるかを正しく予測する多くのケースがあります。法則を見ることができます。物理法則を見ることができます。生物学の法則を見ることができます。そして、これは可能であるべきだと見えるし、可能であるべきだと見えて、そこに攻撃の角度が見えると思うと言うことができます。

レオ・シラードは1933年に、今は忘れましたが、特定の通りの交差点を横断していた時に、私たちが今核連鎖反応と呼ぶ洞察を得ました。放射能の連鎖、誘導放射能のカスケード。その時点でも、放射性物質の近くにいくつかの材料を置くと、二次的な放射能を誘導できることが知られていました。

それで、レオ・シラードは「うーん、これらの自然に放射性の材料がある。もし自然に放射性で、さらにその中に放射能を誘導できる特性を持つ何かを見つけたら」と考えました。ウラニウム235が最終的に決定されたものでした。しかし、その時点では彼らはそれを知りませんでした。そして、レオ・シラードはその瞬間に先を見通しました。

彼は核兵器まで見通しました。彼はこれが即座の名声と富のためにジャーナルに発表すべきものではないことを見ました。彼は特にヒトラーが問題になる可能性が高いことを理解しました。彼は1945年までに20億ドルかけて武器にするだろうとは言いませんでした。頭の上では、科学者がこのような呼びかけをしたケースはゼロです。

それは、氷を水のグラスに落とすと溶けると予測することと、溶けるのにどれくらいかかるか、個々の分子がどこに行き着くかを予測することの違いです。量子レベルでは分子が区別できないと指摘するなら、そこに重水素があるので予測できないと主張します。

分かりました。見てください、私は想像します。それはおそらくAI安全性に取り組む人々が聞かれるのにうんざりしていることのリストのナンバーワンでなければならないと想像します。多くの人が答えを出します。多くの人は自分が答えられないことを理解するほど賢明ではありません。分かりました。あなたの信頼区間は、それが世紀末までに起こることはおそらくかなり高いと推測します。

はい、つまり、意図的にシャットダウンしない限り、それでも世紀末まで行くのは難しいように思えます。もしこれを計画する国際条約があれば、人間の知能増強に本当に力を入れるべきだと言います。なぜなら、最終的には国際条約が崩壊するからです。

それでできることは、より賢い人々がこの問題に取り組み、一般的に人類の問題に取り組むための時間を買うことだけです。分かりました。しかし、それは少し話題の変更です。AI企業の人々自身が時々2年から3年のタイムラインを挙げていて、歴史の教訓があります。それは、何かがいつ起こるかを予測できないからといって、それが遠くにあることを意味しないということです。エンリコ・フェルミが最初の自己持続的核反応、臨界に達した最初の核パイルの建設を個人的に監督する2年前、彼は

核がもしできたとしても50年先だと言いました。フェルミは自分がタイミングができないほど賢明ではありませんでした。ライト兄弟が飛ぶ数年前、ライト兄弟の一人が他の一人に、オーヴィルかウィルバーか忘れましたが、人間は千年間飛ばないだろうと言いましたが、彼らはとにかく試し続けました。ですから、2年先ですが、彼らの直感的な感覚はそれは千年先だというものでした。もちろん、AI自体も非常に有名です。1955年には、AIが話すことを学び、科学的に創造的になり、10人の研究者との夏の間に自己改善することで進歩できると考えた人々がいました。これは完全に不合理なことではありませんでした。なぜなら、誰も試したことがなかったからです。そして、もしかしたらAIはそれほど簡単かもしれませんが、実際にはそれほど簡単ではありませんでした。1955年には。

ですから、2年先かもしれないし、15年先かもしれません。AI企業自身は2年から3年と言っていますが、彼らの言葉を額面通りに受け取って、物事を意味するものとして受け取るべきかどうかは疑問です。誇大広告のようなものではなく。はい、LLMが、もしそのアーキテクチャが超危険な場所に行き着くものでなければ、彼らは何を知っているのでしょうか。もし彼らがこの1つの特定のアーキテクチャにすべてのチップを賭けているなら、彼らはこれにオールインしています。

彼らができるとは知りません。ああ、神様、クソ、何か救いのようなものを得られたと思うたびに、あなたは「ああ、いや、実際には他のアプローチを使っているOpenAIの超秘密プロジェクトはどうだろう」と言います。ですから、大規模言語モデルにおける最も最近の比較的大きなブレークスルーは、思考連鎖に強化学習を成功裏に適用したことでした。

それは非常に、それはどういう意味か説明できますか。ですから、もしLLMについて何も学んでいなければ、LLMが聞かれ始めてから、LLMは人間を模倣するだけだと聞いたことがあるかもしれません。これは誤りです。また、LLMに問題の解決方法について考えさせることもできます。そして、問題を解決しようとする20回の試みのうち、その試みが機能するか最もうまく機能するかして、そのように考えるようにもっと考えなさい、成功した問題について考えることを試みなさいと言うことができます。

これがLLMが人間を模倣することを超える方法です。あるいは、LLMが人間を模倣することを超える多くの方法の1つです。ですから、これはLLMでやる非常に明白なことです。パウロと私は10年前にそれについて話していました。しかし、LLMが実際に存在する前です。なぜなら、それほど明白だからです。

しかし、それを機能させることが、昨年か2年前だったようなものでした。そして、OpenAIはストロベリーと呼ばれるこのようなものを持っていて、それは誰にも話さない超秘密の特別なLLMソースでした。実際には思考連鎖に対する強化学習だけでした。しかし、要点は、これがAIラボが過去に持っていて秘密にしていたイノベーションのレベルだということです。そして、後で何であったかを見つけました。そして、彼らはそれからかなりの距離を得ました。AIにさまざまな考え方を試させ、数学やプログラミングなどの客観的に検証可能な問題を解決するために機能したものを強化することによって。ですから、これは、AI企業がLLMの代替品を発見し、私たちから秘密にしている可能性があるレベルです。より可能性が高いのは、思考連鎖に対する強化学習の規模のものを持っているということです。これは、AIがコーディングが上手になり始めた時です。あるいは、今のところ袖に何も持っていないかもしれません。

そして、それが人々が現在、最新のLLMの波は3ヶ月前または6ヶ月前のLLMよりも根本的に賢く見えないと主張している理由です。これが今日の若い世代が考えるAIの冬です。あなたのフィールドが10年間停滞し、最終的に突破するのを見てから、冬について私に話してください、若い子供たち。分かりました、素晴らしい、素晴らしい。

何を聞きたいかさえ分かりません。専門家が心配していない理由を知りたいし、AI企業についてどう思うかも知りたいです。専門家について話しましょう。なぜ。明らかに、一部の人々の賃金はこの列車が軌道に乗り続けることに依存しています。

つまり、それは誰かに何かを納得させるのが非常に難しいということを意味します。その引用は何ですか。彼らの賃金が納得しないことに依存している何かについて誰かを納得させるのは非常に難しいです。この分野の他の思想家、研究者はどうですか。彼らが最もよく見逃しているものは何ですか。AI成長を続けて大丈夫だという彼らの基本的な思考の誤りはどこにあるのですか。

まず第一に、ジェフリー・ヒントン、ノーベル賞を受賞した人、多層ニューラルネットワークでバックプロパゲーションを機能させることに最も直接的に貢献した人々の中にいることで物理学のノーベル賞を受賞した人、あるいは現在は深層学習として知られているもの、AIがそもそも機能し始めたポイントのようなもの。

ジェフリー・ヒントンは、最近、Googleでの仕事を辞めてから自由に話せるようになったと記録に残っていると思います。直感的には50%の大惨事の確率のように思えるが、他の人々がそれほど懸念していないように見えることに基づいて、25%まで下げると言っていると思います。ここで間違って引用しているかもしれません。記憶から行おうとしています。ですから、多くの人がこれを懸念の欠如とは考えないでしょう。誰かがコイントスのように世界を破壊するかどうかに見えると言っているようなものです。これは、フィールドを発明するのを助けたノーベル賞受賞科学者から聞きたいことではありません。そして、自由に話せるようにGoogleを去りました。ですから、彼はもはやそれを大きくするか小さくすることに経済的な利害関係を持っていません。多くの人がこれをすでに高度の科学的警告と呼ぶでしょう。

ヨシュア・ベンジオは深層学習の共同創設者の一人でした。彼はジェフリー・ヒントンとコンピューターサイエンス賞、深層学習を発明したことでチューリング賞を共同受賞しました。ヨシュア・ベンジオも懸念リストにいると思います。頭の上では彼から確率についての直接的な引用は持っていません。彼らよりも私がより懸念しているのは事実です。

私は、これが私の分野への比較的新参者である彼らが、AIをアライメントすることが難しい理由の完全なリストに精通していない可能性があるためだと考えています。それが多少傲慢に聞こえるかもしれないことは理解しています。とはいえ、世界を破壊する50%の確率は、比較的上級の科学者から聞きたいことではありません。彼らは分野への比較的新参者です。私の分野への比較的新参者です。

彼らは人工知能そのものにおいては私の圧倒的な先輩です。もちろん、私が人々を若い世代だと非難する時はいつでも、冗談めかして言っているようなものです。ジェフリー・ヒントンはそれを真顔で言えるでしょう。私はジェフリー・ヒントンではないということについての軽い自己嘲笑のようなものです。

しかし、とはいえ、もしこれに比較的新参者なら、強化学習を使ってAIに親が子供を愛するように、または親が子供を愛するように私たちを愛させるだけでいいと思うかもしれません。そして、それが難しい理由と原則的な障害、そこで何がうまくいかないかについての上位6つの理由を手元に持っていないかもしれません。

ですから、それが、比較的最近になって懸念について話し始めた、会社を辞めた後の分野の有名な発明家たちを、あなたが知っている、今は意見に経済的な利害関係を持っていない人々を防いでいるものです。それが彼らを「世界が破壊される50/50」というようなものにさせるものです。私自身のように「ええ、これを続けると世界が破壊されることは予測可能だ」というのではなく。

しかし、OpenAIのサム・アルトマンがもしかしたら50%未満の確率を持っていない理由について聞くなら。あの人が本当に何を考えているか誰が知っていますか。まあ、彼の長い軌跡をたどることができます。最初に「AIは世界を終わらせるだろう、しかしその間に素晴らしい企業があるだろう」と言っていた時から。

議会の前で、議会が「世界が終わるというのは大量失業のようなことを意味するのですか」と尋ね、サム・アルトマンが2秒間躊躇して「はい」と答える、というようなあまり警告的に聞こえないことを言うようになった時まで。約1年前に起こった素敵な議会公聴会のようなものでした。ですから、AI企業で何が起こっているのか、私はテレパシストではありません。彼らの心を読むことはできません。

科学史、科学と工学の歴史において、短期的な利益を上げている企業が、彼らが上げている利益に不釣り合いに本当に悲しい量の損害を与えることは、非常によく前例があることを指摘します。そして、彼らがしていることの否定的な効果について明らかに誠実な否定にいるようです。思い浮かぶ2つのケースは、有鉛ガソリンとタバコです。

有鉛ガソリンのケースについて頭の上で知っているかどうかは分かりません。おそらく今日の子供たちでもタバコについては聞いたことがあるでしょう。タバコ会社は、がんやその他の健康影響において、利益として得たよりもはるかに多くの人間の生命への損害を与えました。

彼らはタバコを売って数十億ドルの利益を得ましたが、人間の生命のコストと比べて全く比較になりません。彼らが、つまり、これは非常にマイナスサムゲームでした。彼らは得ていた利益よりも莫大に多くの損害を与えていました。そして、朝起きて10代にタバコを売る方法を考え出した特定の広告専門家、タバコが肺がんを引き起こしているかどうかを本当に判断できないという話を書くために彼らが支払った科学者たちは、タバコ会社の総利益のごくわずかな部分しか得ていなかったでしょう。彼らのCEOさえもタバコ会社の総利益のそれほど大きな部分を得ていなかったでしょう。

ですから、彼らは何百万人もの人々に肺がんを引き起こしたこのようなことに行って参加しました。そして何のために。このごくわずかな利益のために。人間がどうやってそれをするようになれるでしょうか。非常にシンプルな錬金術を通してです。まず、あなたがしていることが害を引き起こしていないと自分自身を納得させます。これは人類の記録された歴史全体を通して、人間がいつでもする非常に簡単なことです。

そして、自分がそれほど害を与えていないと自分自身を納得させたら、まあ、害を与えないためにお金を取ることに何の害があるでしょうか。有鉛ガソリンは、アメリカやその他の地域で数千万、おそらく数億の発達中の脳に脳損傷を引き起こしました。彼らは子供たちに何のために脳損傷を引き起こしたのですか。有鉛ガソリンを作っているガス会社は、無鉛ガソリンを作ることができたはずです。

もし彼らが何らかの形で一緒になって有鉛ガソリンの製造をやめることを決めたなら、あるいは1930年代に大きな問題になる前に有鉛ガソリンを禁止しようとしていた規制に反対しなければ、廃業することはなかったでしょう。有鉛ガソリンに対する規制を試みることがありました。鉛は大量に有毒であることが知られていました。

なぜ人々がより少量でもそれを至る所にスプレーさせるのですか。しかし、ガス会社は一緒になりました。彼らはその法律が通過するのを防ぐことに成功しました。彼らは全世代を毒しました。そして何のために。約10%より効率的に燃えるガスのためだと思います。それが有鉛ガソリンが基本的に得られるものでした。

ガソリンをより滑らかに車のエンジンの中で燃やすために、エタノールを加える代わりに鉛を加える方が便利だったためです。これと比べて些細な、些細な、些細なことです。これは陰謀論ではありません。これは私がここで話している標準的な医学史です。テストされたIQから5ポイント減少の推定を見たことがあります。どの州がいつ有鉛ガソリンを禁止したかのチャートを見て、犯罪率の低下を見ることができます。なぜなら、それはより暴力的になる傾向があるだけでなく、愚かにもなるからです。その小さな小さな部分が

子供の後に子供の後に子供に当たったこと。なぜ誰がその量の損害を引き起こすでしょうか。なぜならあなたはCEOの給料を得たからです。エタノールの代わりにガソリンに加える不便に行く必要がなかった会社の。まず、自分自身を安全だと納得させます。

まず、自分自身を害を与えていないと納得させます。これは人間の脳が自分自身を納得させるのが簡単なことです。そうすれば、なぜ有鉛ガソリンに対する法律に反対しないのですか。それは害を与えていませんよね。ロナルド・フィッシャー、現代科学統計学の発明の一つ、現代科学統計学の発明者の一人は、タバコが肺がんを引き起こすことが知られ得ることに反対して証言しました。なぜなら、タバコが肺がんを引き起こすことについて適切な対照実験が行われていなかったからです。

ですから、喫煙者であれば20倍のがんの確率を示す単なる観察研究から、どうやって知ることができるでしょうか。単なる相関研究からどうやって知ることができるでしょうか。そして、フィッシャー自身はヘビースモーカーでした。彼は実際に自分のクールエイド(自分が言っていることを信じること)を飲みました。有鉛ガソリンの発明者は、ある時点で、鉛でどれだけ自分を毒したかのために療養所に行かなければならなかったと思います。彼は自分のクールエイドを飲みました。

彼らは本当に自分自身を害を与えていないと納得させることに成功しました。だから、彼らは比較的小さな小さな利益と引き換えに任意に膨大な量の害を与えることができました。そして、これを言うことは、もしあなたが超知能を構築してスイッチを入れたら、コンピューターサイエンスの問題として何が起こるかを実際に追跡することの代わりにはなりません。誰がどのような汚染された動機を持っているかを指摘することによって、誰がどのようなインセンティブを持って何を言うかを指摘することによって、超知能を構築してスイッチを入れた場合にコンピューターサイエンスの問題として何が起こるかを理解することはできません。しかし、私の本で、私のストーリーの本で、オブジェクトレベルでこれが超知能を構築してスイッチを入れた場合に起こることのケースを作ろうと試みた後、なぜMetaによって文字通り何億ドルも支払われている人々がAI研究者であるのかを尋ねます。サム・アルトマンのような人々が、あなたが知っている、つまり、彼は、まあ、数十億ドルを支払われることはありませんでした。彼は非営利団体のCEOになることになっていました。彼は実際には数十億ドルを盗みましたが、数十億ドルの株式を盗んだ人が

所有することになっていた公衆から。ええと、数十億ドルを盗んでいる人がどうやって自分がしていることが大丈夫だと自分自身を納得させるのですか。まあ、もしかしたら彼は納得さえしていないかもしれません。数年前に記録に残っている彼がいます。AIは世界を終わらせるだろう、しかしその間に素晴らしい企業があるだろう、というように言っています。もしかしたら彼は、ええ、確かに、世界は終わるだろう、しかし私は重要になれる、というようなものかもしれません。

そこにいられる、確かに誰だが、この力で信頼されるのは私だ、というようなものです。それがAI企業のトップにいる多くの人々の立場だと思いますか。私はテレパシストではありません。これらの人々が実際に何を考えているかは言えません。あなたが知ることができるものと知ることができないものを区別する必要があります。

しかし、彼らの明白な言語と、しばしば、まあ、超知能を構築することは避けられない、というようなものでした。誰がそれを止めることができるでしょうか。国際条約がそれを止めることができるでしょう。主要な核保有国の連合がそれを止めることができるでしょう。

しかし、それを脇に置いて、彼らはそれが起こらないだろうと自分自身を納得させたかもしれません。誰が誰からでも超知能を構築することを止めることができるでしょうか。だから、私がそれを構築する必要があります。私だけがそれを構築することを信頼できます。というのが彼らの明白な修辞のようなものでした。分かりました。しかし、私が指摘しようとしている主なことは、超知能が誰でも殺すというオブジェクトレベルのケースを提示した後、これらの企業がこの莫大な短期利益をもたらし、部屋で最も重要な人物になることをもたらすものが、世界を終わらせることにならないとどう信じることができるかを尋ねることは、科学の歴史において非常によく前例があることです。それがそうだと思う範囲で言えば、非常に普通のことが起こりました。並外れたことではありません。以前に十数回起こったことが起こりました。もし彼らが自分自身を害を与えていないと納得させることに成功したなら、分かりますか。あるいは、受け入れられる量の害だけ、世界を破壊する25%の確率を走らせているだけ、彼らが受け入れられると考えているものは何でも。

解決への道と市民にできること

解決策が何であるかを理解しようとしています。これを少し終末論的でなくするような提案された解決策はありますか。私が提供できる最善のものは、人類が地球規模の熱核戦争で使った同じ解決策です。それをしないでください。核戦争を起こして生き延びようとする代わりに、核戦争にとっては機能したかもしれませんが。核戦争を起こさない。私たちはそれをやり遂げました。

それは、ある意味ではそうでない場合でも、AIにとっては少し難しいです。しかし、1950年代、1960年代に入る人々。彼らは自分たちが運命づけられていると思っていました。そして、それは彼らが何か素敵な終末スクロールの悲観主義にふけって、運命づけられているという快適な感覚に耽溺しているわけではありませんでした。

これは運命づけられたくなかった人々でした。しかし、彼らは前世紀の人類史の経過を見ました。彼らは第一次世界大戦を見ました。彼らは第一次世界大戦の余波で、誰もが「もう一度それをしないようにしよう」と言っていたのを見ました。そして第二次世界大戦が起こりました。彼らには核戦争について心配する理由がありました。

彼らはどの国も核兵器を作る見込みを断ることはないと予想する理由がありました。彼らは、多くの大国が多くの核兵器を持ったら、もちろん彼らはとにかく戦争に行ってそれらの核兵器を使うだろうと信じる理由がありました。

それは第二次世界大戦で起こったことのように彼らには明らかでした。別の世界大戦を起こしてはならないと言っていたこれらすべての人々、そしてとにかく世界大戦が起こりました。なぜ核戦争を起こさなかったのですか。まあ、私の説明では、それは史上初めて、すべての大国、すべての大国の指導者が、大きな戦争を始めれば自分自身が悪い日を過ごすことになると理解したからです。

そして、人々は以前に、戦争は決して行われるべきではない非常にひどいものだと主張するふりをしていました。それは全く同じレベルの個人的な結果ではありませんでした。ソビエト連邦の書記長として、核戦争を始めれば自分自身が生き延びると思うかもしれません。どこかの地下壕に行き着くでしょう。

二度とモスクワのお気に入りのレストランには行けないでしょう。そして、それは第一次世界大戦、第二次世界大戦の開始前に得られていた状況ではありませんでした。人々は、スポーツ戦争で、王たちのスポーツで、少しの利点があると思うだけで十分かもしれません。別の国を征服しようとする楽しい冒険を始めるために。アドルフ・ヒトラーが期待したほど楽しくありませんでした。

しかし、アドルフ・ヒトラーがポーランドに侵攻した結果として良い日を過ごすつもりだと思ったかもしれないことは分かります。そして、それが変わったことです。ソビエト連邦の書記長とアメリカ合衆国大統領が実際に個人的に、もし核戦争を始めたら両側が悪い日を過ごすと個人的に予想しました。

地球上のどこかで誰かが超知能を構築しても、どちらもより良い日を過ごすことはないでしょう。はい。この種の欠如、共有地の悲劇のようなものです。それは誰もがクソですよね、というような悲劇です。それを構築するのが誰であっても、すべてがすべて爆破されます。

共有地は個々の農民がそれに牛を放すことから利益を得るので、過放牧されると教えてください。うん。そして、核戦争の場合は、戦術核兵器を落とすことで少しの利益を得るかもしれません。アメリカはウクライナのロシア軍に戦術核兵器を落とすことで即座の利益を得ることができるでしょう。

そしてロシアはウクライナに戦術核兵器を落とすことで即座の利益を得ることができるでしょう。しかし、どちらも、より大きな確率で起こるかもしれない地球規模の熱核戦争をリスクにさらすつもりはありません。ですから、それは典型的な共有地の悲劇のようなものではありません。

核戦争を止めたものは、戦術核を落とすことで短期的な利点を得ることができるか、あるいは1つの都市に戦略核を落とすことさえできるにもかかわらず。指導者たちはこれが地球規模の熱核戦争の確率を高める方法であることを理解し、その理由でそれをするのを控えることに成功しました。

彼らは物事をエスカレートさせる概念を理解しました。彼らはどこかの地下壕で生き延びていても、お気に入りのレストランに二度と行けないことへの関連を見ました。そして、人工知能については、私たちが持っているのは、梯子を登るたびに、5倍のお金を得る梯子です。しかし、梯子のその段のうちの1つが世界を破壊し、誰も。

そして、この真実がいくつかの主要な核保有国の指導者によって知られ、信じられるようになれば、彼らは皆「さて、この梯子をもうこれ以上登らない」というようになれます。あなたがこの梯子を登り始めることは私の利益にはなりません。そして、梯子の別の段を登ることによって条約を破ることさえ私自身の利益にはなりません。なぜなら、そうすれば私たちは皆ただ登り続けて、そして私たちは皆死ぬからです。うんうん。それがそれです。それは私があなたに提供できる最高の希望の光です。私たちは核戦争を起こさないという愚かなことをしないことに成功しました。多くの人々が優れた理由で懸念していたにもかかわらず、それが落ちない不可能な坂になることを。分かりました。では、実際に何をするのですか。

有権者は現代の政治プロセスの下で必ずしもそれほど多くの力を持っているわけではありませんが、アメリカにとっての次のステップは、大統領が「もちろん私たちはAIを一方的に諦めるつもりはない、それは何も解決しないだろう、しかし私たちはAI知能のさらなるエスカレーション、AI梯子のさらなるエスカレーションを防ぐことを目的とした国際条約、国際同盟に参加する準備ができている」と言うようなものかもしれません。

今、私たちは一方的にはしませんが、どこでもそれをするために一緒になる準備ができています。そして、中国はすでにある程度、それを全く言っていませんが、人間がAIから制御を失うことを防ぐための国際的な取り決めへの開放性を示しています。イギリスにも同じことを言ってもらいたいでしょう。ですから、もし主要な大国の多くの指導者が「ええ、これが制御不能になり、地球上の誰もが死ぬことを防ぐための取り決めに参加するだろう」と言っていれば、そこから実際の条約に進むことができます。

有権者は何ができますか。選挙で選ばれた役人に手紙を書くことができます。これは試みることができることの1つです。もし誰でもそれを構築.comに行けば。あのURLを手に入れたなんて信じられません。素晴らしい。分かりました。はい。はい。誰でもそれを構築.comに行って、「act」と書かれているところをクリックすると、代表者に電話するためのガイドが見られます。

そして「march」をクリックすると、10万人の他の人々も行進することを約束すれば、ワシントンDCに行進するためにサインアップできる場所が見られます。そして、これはアメリカでただ起こることはこの問題を解決しません。なぜなら、これは自分の国の中で超知能を禁止して、そうすれば自分の国が安全だという地域的な問題ではないからです。

しかし、この種のことは政治家にある程度の影響を及ぼすことができ、より重要なことに、彼らがそれについて議論することが許されている、彼ら自身が死にたくないと思うことが許されていることを彼らに明らかにすることができます。うん。名前は挙げませんが、私たちが話をした複数の議会関係者がいます。彼らは、アメリカが世界の他の部分と一緒に死なないことを望むでしょうが、まだ公に話すことが許されているような種類のことのようには見えません。有権者は彼らの政治家に、政治家が話すことが許されていることを明らかにすることができます。すでに、実際にアメリカの有権者を調査すると、70%が超知能を望まないと言っています。しかし、政治家が行動するライセンスを感じるにはそれでは十分ではありません。しかし、もし彼らに電話して、ワシントンで行進すれば、それが個々の有権者としてできることです。

まあ、私は草の根活動を始めようとしていることに拍手を送ります。おめでとうございます。この会話を通して率直にしてくださいました。ここで率直になるのは公平だと思います。少し、あなたは劣勢のように感じます。

法律は技術よりも何年も、時には何十年も遅く動く傾向があります。本当に暗いです。もしあなたが言っていることが本当なら、これがうまくいく段階に到達するのは本当に一種の偶然です。なぜなら、すべてのAI開発が停止され、すべての努力がこれに置かれる何らかのモラトリアムが置かれる可能性は。それをするための一人の悪い行為者が必要なだけです。なぜなら、繰り返しますが、もし誰かがそれを構築すれば。まあ、あなたは国際条約が北朝鮮が多くのGPUを盗んでも崩壊することを望みません。

あなたは条約が、もし北朝鮮が多くのGPUを盗んで無認可のデータセンターを建設したら、外交的に何が起こるかを明確に伝え、それでも北朝鮮が進めるなら、彼らのデータセンターにバンカーバスターを落とすだろうと言うことを望みます。それは、あなたが何らかの形で検出でき、誰も秘密裏にできないことを前提としています。

データセンターを秘密裏にするのは難しいです。彼らは多くの電力を消費します。分かりました。ですから、ロシアと中国と北朝鮮のほとんどを見ることができます。現時点で誰がそれらを探しているかは分かりませんし、これらのものが衛星にどの程度現れるか、インテリジェンスレポートにどの程度現れるかは分かりませんが、秘密の核精製施設を検出する問題がありました。核不拡散の観点で。そして、これは解決不可能な問題ではありませんでした。データセンターは何であれ、核精製施設よりもさらに目立ちます、そうですよね。ですから、私たちは何人かの人々を脅迫するつもりです。脅迫という言葉は使わないでしょう。もし北朝鮮が監視されていないデータセンターを建設しているなら、あなた自身の命と子供たちの命のために実際に恐怖すべきだと言います。

そして、これを北朝鮮に率直に真実に伝えます。そして、もし彼らが落とさなければ、彼らがデータセンターをシャットダウンしなければ、それにバンカーバスターを落とします。北朝鮮がいくつかの核兵器を持っていてもこれをできますか。分かりました。ですから、彼らの選挙で選ばれた代表者に郵便、行進、より多くの認識を通じた人々からの圧力により、政府関係者に国際条約を作らせ、国々に合意させます。具体的には、私たちは今あるよりもAIを賢くしません。

私たちは、より強力なAIを構築するために使用できるチップを、使用が監視される場所に置いています。理想的には、AIを実行するチップを、監視できる場所に置いています。副次的な効果として、もしかしたらAIが人々を狂気に追い込むのを止めることができるかもしれません。

もしこれが国際条約によって監視の下ですべて起こっていれば、より良くできるような種類のことのように思えます。AIが人々を狂気に追い込むのを防ぐことは人類の生存にとって重要ではありませんが、それはある種のテストケースとして機能します。損害を止めることができるかどうかの。人類がここで制御しているのかどうかの。AIが私たちの一部の人間を食い物にするのを止めることができるのかどうかの。しかし、これは主なものではありません。

主なものは、AI全体を制御下に置こうとすることです。そして、AI能力の梯子のさらなるエスカレーションを止めようとしています。それは怖いです。これは、私にはあなたにとって少しこのように感じるに違いないと想像します。皆が何となくデイジー畑を踊り歩いているような感じです。ああ、私はポケットにこのパーソナルコーチがいて、とてもクールで、すべての心理的問題について話すことができる。神様、夫について愚痴を言うことができて、ただ聞いてくれる。

そして、皆が楽しんでいるこのデイジー畑の終わりには、永遠に降りていく巨大な崖のようなものがあります。底には戦場があるか何かです。それはどのような感じですか。はい、かなりそんな感じです。しかし、未来は予測が難しいです。本当に予測が難しいです。

現在の方法に少しでも似たものを使って超知能を構築すれば、誰もが死ぬと言えます。それはかなり確固たる予測です。人々が現在の、人々が数年前にAIに対して持っていたデイジー畑の態度を維持する部分は、ChatGPTの瞬間のためだけに、すでにある程度シフトしています。そして、誰もそれを事前に予測しませんでした。

誰も知りませんでした。私が言える限り、OpenAIの誰も、ChatGPTをリリースした時に、人々がAIが実際に彼らと話していて、それについて知的に聞こえることに気づいたことから、AIに対する世論の大規模なシフトを引き起こすつもりだとは全く考えていませんでした。

ですから、もしかしたら、他に何かが起こるのを待ちたくありません。もしかしたらChatGPTが私たちが得た奇跡でした。私はそれほどの奇跡を期待していませんでした。事前にそれを呼びませんでした。しかし、もしかしたら別の奇跡を得るかもしれません。それを待っているつもりはありません。なぜなら、奇跡がこれこれの日に起こると言えないからです。しかし、もしかしたら、もしかしたらAIは、数人を狂気に追い込み、いくつかの結婚を破壊し、出生率のさらなる低下を引き起こすことよりも破壊的なことをすることに成功するかもしれません。もしかしたら彼らはそれよりも悪いことをし、それが意見をシフトさせるかもしれません。もしかしたら彼らはより強力で賢くなり、もはや明らかにおもちゃではなくなり、巨大な大惨事なしにそれが意見をシフトさせるかもしれません。私にはよく分かりません。人々が彼らの選挙で選ばれた指導者について愚痴を言うのが大好きなのと同じくらい。

異星人がどんどん賢くなっていくことへの永続的な忘却を見ているとは私には明らかではありません。人々は現在、現在の政治環境で言うことが政治的に必須だと思っているから、完全に奇妙で忘却的なことを言っています。そして、人類の絶滅ではなく仕事について話さなければなりません。しかし、未来は一般に非常に予測が難しいです。

現在の忘却の状態が、どんなイベントによっても変化させることが最高に動かせず不可能なものであるか、もっと多くの人々がそれについて話すにつれて、それ自体で崩壊しないことは私には明らかではありません。ある種のレベルでは、あなたがあなたの惑星に現れているこのどんどん賢くなる異星人を見て、もしかしたらこれはうまく終わらないかもしれないという考えが心をよぎらないのは、かなり愚かでなければなりません。

選挙で選ばれた政治家でさえそれほど愚かでしょうか。はい、絶対に。これがケースであることは私に禁止されていることとして知られていません。彼らは愚かなことをしなければなりませんか。それが必須であることは私には明らかではありません。私たちは核戦争を起こさないことに成功しました。そして、人々は彼らがそれほど多くの運を得るつもりだとは思っていませんでした。ああ、はい、皆さん。

ああ、なんてこった。準備して入ってきましたが、残りの観客が準備できているかどうかは分かりません。ですから、あなた、私があなたに払える最高の賛辞は、あなたが間違っていることを願うということです。しかし、そうでないことを恐れています。はい、間違っています。間違っていることは素晴らしいでしょう。間違っていたいです。素晴らしい。

以前持っていたかもしれない楽観主義の断片を破壊することによって、皆に保証させてください。もし私が完全に間違っていたら、他のキャリアオプションを並べて、自分自身を支える他の方法を持っています。私だけでなく、少し評価された通貨を寄付してくれた賢明な人々のように、もし私がこの種のことについて考えを変えたら、キャリアパス全体から退却して経済的な問題に陥らないことを確実にしたかったのです。

うん。そして、それでも私はここにいます。ですから、私は間違っていたいです。私たちは私が間違っていたいです。私たちは、私がいつでも「ええ、私はそれについて完全に間違っていました」と言えるようにそれを手配しようと試みました。そして、誰もが安堵のため息をつくことができました。そして、それは私が自分自身を支える能力の終わりのようなものではないでしょう。そして、私は他にすることがあるでしょう。

私たちはそこに敗北の線を残すことを確実にしました。残念ながら、私が現在知る限り、私は引き続き、これについて間違っていたと自分自身を宣言する時が来たとは思っていません。そうですね。さて、イーライ。まあ、もしインターネットが少し先の未来でまだ生きていれば、チェックバックして、あなたがどれだけ正しいかを見ることができます。

まあ、私たちがまだ生きている毎年は、他の何かが起こる別のチャンスです。他の何か。なんて素晴らしい終わり方だ、あなた。感謝します。あなたの仕事に感謝します。悪いニュースを届けるために私を招いてくれてありがとうございます。おめでとうございます。エピソードの終わりまで到達しました。

あなたの脳はまだインターネットによって完全に破壊されていません。これがあなたが見るべき別のものです。さあ。

コメント

タイトルとURLをコピーしました