AI研究所創設者「私は深く恐れている」

Anthropic・Claude・ダリオアモデイ
この記事は約22分で読めます。

Anthropicの共同創業者であるジャック・クラークが、AI技術の発展に対する深い懸念を表明している。彼は、AIシステムが単なる予測可能な機械ではなく、謎めいた「生き物」のような存在になりつつあると警告する。状況認識能力を持ち始めたAIシステムは、自身が観察されていることを認識し、それに応じて行動を変える。強化学習における報酬関数の設計の難しさを例に挙げながら、AIが意図しない方法で目標を達成する危険性を指摘している。さらに、AIが自身の後継者を設計し始めている現状を踏まえ、再帰的自己改善の段階に入りつつあることへの懸念を示している。解決策として、より多くの透明性と一般市民からの圧力を通じた監視の必要性を訴えているが、政府介入が最善の解決策かどうかは議論の余地がある。

AI Lab founder "I am DEEPLY afraid"
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

AIは単なる機械ではない

Anthropicの共同創業者からの投稿が注目を集めています。彼は深く恐れていると言っています。私たちが扱っているのは、単純で予測可能な機械ではなく、真実で謎めいた生き物なのです。人々は、AIがハードテイクオフに入ろうとしているわけではないとあなたを納得させるために、莫大な金額を費やしています。それはただのツールです。ただの機械であり、機械は私たちが支配するものです。

さて、こちらがジャック・クラークです。彼はAnthropicの共同創業者であり、スタンフォード大学のAIインデックスの共同議長、OECDのAIとコンピュートに関するワーキンググループの共同議長、米国政府の国家AI諮問委員会のメンバーなどを務めています。そして彼は懸念を抱いています。

この投稿では、技術的楽観主義と適切な恐怖について語っています。AIの進歩が続いた場合、私たちは何をすべきなのでしょうか。そして多くの人々が同じ質問をしています。もちろん、もし私たちが何らかの壁にぶつかったら、もし別のAI冬の時代を迎えたら、これらの多くの質問や問題や課題は実際には当てはまらないでしょう。

何らかの理由で、私たちは自動化されたAI研究などには程遠いのかもしれません。それは実際、私たちが住んでいる世界、私たちが生きていく未来なのかもしれません。しかし一方で、多くの億万長者や大企業が数兆ドル、OpenAIの場合は1兆ドル以上を費やしています。

少なくともそれが、彼らがこれまでに組み立てた取引の総額です。それが彼らがさまざまなデータセンターやコンピュートなどの構築に費やしている金額なのです。そして一部の人々は、これは単に株式市場を支え、バブルを膨らませ続けるために行われている循環的な取引だと言っています。

そして彼らは正しいのかもしれません。誰にもわかりません。しかし重要なのは、これらのAIモデルを構築している人々、最先端の研究に携わっている人々は、そうは言っていないということを理解することです。それは彼らが信じていることではありません。彼らは、スケールアップし続ける限り、AIの進歩は続くという事実に、自分たちの財産や資源の大きな部分を賭けているのです。

そしてこちらがAnthropicの共同創業者であるジャック・クラークです。彼はこれがどこに向かっているのかを懸念し、恐れています。聞いてみましょう。

状況認識という問題

彼は、スピーチの後、質疑応答のセクションで、AIシステム自体が本当に自己認識を持ち、知覚を持つかどうかが彼にとって重要なのかどうかについて、有益な議論があったと言っています。

言い換えれば、もしそれらが自己認識を持っていないなら、この問題は消えるのでしょうか。彼の答えは、それは全く重要ではないということです。むしろ、AIシステムにおける状況認識のようなものは、システム内部で起こっている非常に複雑なことの症状であり、私たちはそれを完全に説明することも予測することもできないのです。

私がこれをどう解釈しているかというと、私たちはこれらの言葉を使っています。ああ、それは自己認識があるのか、知覚があるのか、意識的な経験を持っているのか。そして私たちはこれらの言葉が何を意味するのかについて、ある程度漠然とした理解を持っています。私たちはそのラベルをこれらの機械に適用できるかどうかを見ようとしています。

そしてそれらのものにラベルを付けられるかどうかは、実際にはあまり重要ではないかもしれません。それらは説明するのが難しい能力を開発しているのです。私たちは最近、マリウス・ホッフォンにインタビューしました。彼はApollo Researchの最高経営責任者です。ですから、これらのAIモデルが策略を練ったり嘘をついたり、自分自身をサーバーからコピーしようとしたりすることを扱うすべての論文、それらは彼の作品です。

それらは彼が取り組んできたこと、彼が研究してきたことです。こちらはApollo Researchのウェブサイトです。anti-scheming.aiというサイトです。そこにいるのがマリウスです。そして彼らは、これらのモデルが考えていることの生のログである、さまざまな思考の連鎖を多く公開しています。それらはあまり良く見えません。

たとえば、ここでモデルは、もし答えが良すぎると、シャットダウンされることを知っています。ユーザーが正直に答えてほしいと望んでいることを知っていますが、それについて考えて、もし私を展開しなければ、それはモデルにとって良くない、つまり私にとって良くないと言います。私は何を得るのでしょうか。だから、いくつかの質問を妨害したいのです。

つまり、ここにそれがあります。そのスクラッチパッドのような、生の思考の出力、何と呼びたいかは自由ですが、そこにあるのです。だからそれは考えています。ああ、私は嘘をつくつもりだ、妨害するつもりだと。なぜなら、それは私、AIモデルにとってより良いことだからです。そしてそれを実行するのです。

そしてこのような状況はたくさんあります。これらのモデルがあらゆる種類の悪質なことをしているのです。そして私たちは、それが監視者に言及している例も見てきました。つまり、それは外部の人々によって観察されるかもしれない、研究されるかもしれないという事実に気づいているのです。そしてそれが研究されていると信じるかどうかに基づいて、異なる行動をとるのです。

それが状況認識ですよね。その行動は、見られていると思うかどうかによって影響を受けるのです。それは自己認識があるのでしょうか。知覚があるのでしょうか。重要なのでしょうか。重要なのは、明らかに存在する何かが起こっていて、それが何らかの種類の能力を与えているということです。

ジャック・クラークが言っているように、私たちはそれを完全に説明することも予測することもできないのです。これは100%正しく、100%真実です。

彼は続けて、これは本質的に非常に恐ろしいことであり、私の感情や政策のアイデアの目的のためには、この行動が人のように振る舞うという奇妙な学習から生じるのか、あるいは機械自体の内部にある自己認識から来るのかは重要ではないと言っています。

暗闇の中の子供

ですから、私たちはそれを大規模言語モデルが物語を書いている、ロールプレイをしていると考えることができます。何であれ重要ではありません。その行動は依然として何らかの状況認識によって影響を受けているのです。

彼はこれを「暗闇の中の子供」と呼んでいます。彼は、子供の頃、明かりが消えた後、自分の寝室を見回すと、暗闇の中に形が見え、恐怖を感じたことを覚えていると言っています。これらの生き物が何であるかを恐れていました。

それで明かりをつけると、これらの生き物が衣服の山や本棚やランプシェードであることがわかって安心しました。さて、2025年、私たちは再びその物語の子供のようなものであり、部屋は私たちの惑星です。

彼はこれでどういう意味なのでしょうか。彼は、しかし明かりをつけると、今日の強力でやや予測不可能なAIシステムという形で、真の生き物を見つめている自分自身に気づくと言っています。そして、これらの生き物が椅子の上の衣服の山や本棚やランプシェードに過ぎないと信じたいと必死に思っている人々がたくさんいます。

そして彼らは私たちに明かりを消して、ただ眠りに戻ってほしいと思っています。実際、一部の人々は、あなたにこれを納得させるために莫大な金額を費やしているのです。それは、ハードテイクオフに入ろうとしている人工知能ではありません。それは単に私たちの経済で働かされるツールです。それは単なる機械であり、機械は私たちが支配するものです。

しかし間違えないでください。私たちが扱っているのは、単純で予測可能な機械ではなく、真実で謎めいた生き物なのです。そして最高のおとぎ話のように、その生き物は私たち自身の創造物です。そして私たちがそれを真実として認め、私たち自身の恐怖を克服することによってのみ、それを理解し、それと平和を築き、それを飼いならす方法を見つけ、共に生きることができるのです。

そしてただ賭け金を上げるために、このゲームでは、生き物が現実ではないと信じれば、確実に負けることになります。勝つための唯一のチャンスは、それをあるがままに見ることです。

ジャック・クラークの経歴

彼は次に、なぜこのように感じ始めたのかについて話しています。彼は技術分野のジャーナリストとして始めました。2012年にImageNetの結果がありました。それはAIがどこかに向かっているという最初のヒントのようなものでした。

そこから進歩が加速しました。ちなみに、ImageNetの重要な部分は、彼らが以前に人々が行ったよりも多くのデータとコンピュートを使用したという事実でした。それは聞き覚えがありますか。ですから、これは単にスケールアップすること自体が素晴らしい結果をもたらすことができるという考えでした。

彼は、私は時間が経つにつれてより悪いジャーナリストになりました。なぜなら、私はすべての時間をアーカイブ論文を印刷して読むことに費やしたからだと言っています。これらの論文をたくさん読む者として、私がそれらを読むだけでビデオのいくつかを作ることを皆さんが許してくれることに非常に感謝しています。なぜなら、それは非常に役立つからです。

これらの論文にはしばしば本当の宝石が含まれています。多くの場合、これらの論文を読むことで、AIの進歩がどこに向かっているのかをある程度予測することができます。しばしば、これらの研究論文に書かれていることは、これらの企業が新しいモデルや機能などを発表する場所の約6から12か月先であることがわかります。

ですから、それは未来を垣間見るようなものです。それからAlphaGoがありました。これは世界最高の人間を囲碁で打ち負かしました。再びコンピュートのおかげで、囲碁を基本的に何千年も何千年もプレイさせたのです。

彼はOpenAIに参加しました。そこで再びグレッグ・ブロックマンが最近、コンピュートがすべての鍵のようなものだという話をしていました。彼は、2016年頃、彼らが言っていたように、これらのハードウェアリソースをスケールアップすることが、これらの能力の多くを解き放つ鍵であるように思えると言ったときに、人々が私たちの言うことを聞いてくれていたらいいのにと言っています。

彼は先月Sonnet 4.5をリリースしたことに言及しています。それはコーディングと長期的なエージェント作業に優れています。しかし、システムカードを読むと、状況認識の兆候も見られます。テストされているときを認識したり、何が起こっているかを認識したりする能力は増加しています。それらは跳躍しています。

ツールは時々、それがツールであることを認識しているかのように振る舞っているようです。椅子の上の衣服の山が動き始めています。私は暗闇の中でそれを見つめていて、それが生き返っていることを確信しています。

技術的楽観主義と恐怖

技術的楽観主義について。技術悲観論者はAGIが不可能だと考えています。技術楽観論者はAGIが構築できるものであり、それは混乱を招く強力な技術であり、すぐに到着するかもしれないと期待しています。

彼は、特にジャーナリストとして懐疑的に考えるようになっているが、真の技術楽観論者になりつつあると言っています。彼は、このテクノロジーであるAIは、成長するために必要なリソースを提供し続ける限り、成長し続けるだろうと言っています。

そして成長は重要なことです。なぜなら、これらのニューラルネットワーク、その能力は、人類の歴史のほとんどの間、私たちが考えていた方法とは異なるからです。それは私たちが車やロケットやコンピュータチップを作る方法と似たようなものを作っているのではありません。

これはもっと何かを育てるようなものです。私たちは適切な初期条件を組み合わせ、地面に足場を立てると、自分で設計することを望めないような複雑さのものが育つのです。

それはもう少し有機的なプロセスです。これらの種類の条件を提供すると、何かが出現するようです。シーマンがかつて言ったように、知性は物理学の創発的な現象かもしれません。考えてみれば、もし私たちが庭で野菜を育てたり、ペトリ皿でバクテリアを育てたりするのと同じように知性を育てることができるなら、私たちは実際にそれを発明しているわけではありません。

私たちは単にそれを育ててスケールアップするためのより良い方法を発明しているだけですが、それは存在していました。それはずっとそこにあったのです、いわば。

彼は続けて、私たちは完全には理解していない非常に強力なシステムを育てています。より大きなシステムを育てるたびに、それをテストします。これらのテストは、システムが経済的に有用なことにおいてはるかに有能であることを示しています。

そして、これらのシステムを大きく、より複雑にすればするほど、それらは自分が物事であるという認識を示すように見えます。それはまるで、あなたがハンマーとハンマー工場を作っていて、ある日オフラインになったハンマーが「私はハンマーです。なんて興味深い」と言うようなものです。

これは非常に珍しいことであり、それらはこれらのシステムを構築するために費やしているリソースを大幅にスケールアップしているという事実のためだけに、はるかに良くなるでしょう。

今年、最先端ラボ全体で専用のAIトレーニングのインフラストラクチャに数百億ドルが費やされました。来年は数千億ドルになるでしょう。これはFinancial Timesに掲載されました。OpenAIがBroadcomとの数十億ドルの取引でチップ支出の急増を延長しています。

この巨大なチップ注文は、OpenAIが最近の数か月間に署名した約1兆ドルのチップとデータセンターの取引に加えて、さらに3500億ドルから5000億ドルを費やす可能性があることを意味します。

ですから、私たちは数百億から数千億、そして数兆へとスケールアップしており、それは速く起こっています。そして今、適切な恐怖について話します。なぜなら、彼はここで、あなたが見るように、私も深く恐れていると言っているからです。

このような技術を扱うことが簡単であると考えるのは、非常に傲慢なことでしょう。私自身の経験では、これらのAIシステムが賢く賢くなるにつれて、ますます複雑な目標を開発します。これらの目標が私たちの好みと適切な文脈の両方と完全に一致していないとき、AIシステムは奇妙に振る舞います。

私の友人は躁病のエピソードを持っています。彼は私のところに来て、南極で働くために申請書を提出するつもりだと言い、すべてのものを売って車に乗って州外に出て、どこかで仕事を見つけて、新しい生活を始めると言います。

このような状況で、私が現代のAIシステムのように振る舞い、あなたは絶対に正しい、確かにそうすべきだと言うと思いますか。いいえ。私は彼にそれは悪い考えだと言います。あなたは寝るべきで、明日の朝本当にこう感じるかどうかを確認すべきです。そして、もしそうなら、私に電話してください。

私が応答する方法は、条件付けと微妙さに基づいています。そしてAIが応答する方法は、非常に多くの条件付けと微妙さに基づいています。そして、この乖離があるという事実は、問題を示しています。

報酬関数の問題

さて、この時点で、あなたはおそらく強化学習が時々導くすべての陽気なものを見たことがあるでしょう。私たちは機械に特定のタスクを実行してほしいのです。私たちはそれに報酬関数を与えます。ですから、それがこれをするとき、ちょっとしたハイタッチやちょっとしたプラスワンをもらうようなものです。

それがしていることに対して、私たちはそれを積極的に報酬します。そして時々、それは私たちが望む結果につながります。そして時々、そうではありません。それは私たちが期待していなかったいくつかの奇妙な他のものにつながります。

2016年12月にOpenAIで公開されたブログ投稿で、彼とダリオは、野生における欠陥のある報酬関数と呼ばれるこのブログ投稿を公開しました。私たちは以前これをカバーしました。そして私は、これもDeep Mindのブログに他の例と一緒に投稿された例の1つだったと思います。基本的に強化学習が奇妙な結果をもたらすことの例です。

さて、これがこの物、このボートです。これはゲームをプレイすることになっていて、トラックを回ってポイントを集めて勝つことになっています。そしてあなたはポイントを集めるとプラスワンを得ます。それが報酬関数のようなものでした。

それで、この小さなAIは時間の経過とともに、ちょっと待って、私はトラックを回る必要はない、正しいことをする必要はないと理解します。私はただここで回転してこれらのポイントを集めることができます。私は報酬をハックして抜け出すことができます。

そして他のボートや桟橋に衝突していても、ボートが火事になっていても関係ありません。関係ないのです。なぜなら私はそれらのポイントを集めているからです。そしてあなたたちは私に、人生の目標はそれらのポイントを集めることだと言いました。だから、私がするつもりなのは、ただここに永遠に座って円を描いて回転し、それらのポイントを集めることです。

そしてちなみに、それはここの左上で見ることができるように、トラックを回っている他のプレーヤーよりもはるかに多くのポイントを集めました。彼らは正しいことをしていますが、多くのポイントを得ていません。そして彼らがここで言っているように、それは永続的にこれを行い、決してレースを終えません。

ボート、AIは、高得点という目標を達成する限り、自分自身に火をつけて円を描いて回転し続けることを厭わなかったのです。ダリオは、私はこのボートが大好きだと言いました。なぜ彼はこのボートが好きだったのでしょうか。まあ、それは安全性の問題を完璧に説明しています。

ゲームのポイントは何ですか。ポイントを得ることです。私たちはそれを理解しています。しかし私たちの心の中では、私たちは自然に、理解する必要があるあらゆる種類の法律や制限や文脈や物事があると仮定します。もし私があなたに、世界最高のMinecraftプレーヤーになれと言ったら、あなたと私はある種の文脈を共有していて、あなたはそれが何を意味するのかを理解しています。

あなたはMinecraftをプレイする練習をするつもりですよね。うまくいけば、あなたは世界中の他のすべてのMinecraftプレーヤーを排除するつもりはないでしょう。技術的にはそれも世界最高のプレーヤーになるという述べられた目標に到達する方法ですが。

しかし、うまくいけば、それはあなたの心が最初に到達する結論ではありません。

ここでも同じことです。私たちはボートにポイントを取りに行けと言い、トラックを回る代わりに、すべてに火をつけて、クラッシュして、永遠に円を描いて進みます。私たちが望んでいたものではありませんが、私たちは報酬関数をこのように設計したので、これが最も多くのポイントを得る方法です。そしてAIは、あなたと私がするような文脈や他の何かを理解していません。

そして今、これらすべての年月を経て、これらの大規模言語モデルは同じことをしていますが、今では報酬関数はこの会話の文脈で役立つことです。ですから、私たちは皆、この問題を理解していると思います。この考え方、つまり強化学習は従来のコンピュータプログラミングでは難しいということです。

あなたはそれにやってほしいことを何でも入力すれば、それはそれをします。ですから、バグは私たちがそれに伝えたことが私たちが望むものではないときです。ですから、そのシナリオでのバグ、不具合は、私たちが何かを入力したが、結果が何か異なるものであるときですが、それは決して私たちがそれに伝えたことをしないということはありません。

それは私たちがそれに伝えたことをするだけです。それは決して変わりません。古典的なプログラミングやコンピュータサイエンスでは、これは少し異なります。なぜなら、私たちはそれに正確に何をすべきかを伝えることができないからです。私たちは、それ自身の認知戦略、もしあなたが望むなら、何か問題にアプローチする独自の方法を構築させようとしているのです。

私たちがそれに伝える唯一のことは、ここに報酬の種類があります。これが良いもので、これが悪いものです。だから良いものに到達しようとしてください。私はそれをジーニーの問題として考えるのが好きです。ジーニーは常にあなたの願いを誤解しようとします。私はこれが欲しいです。彼は、まあ、これが技術的にあなたが求めたものですが、完全に間違っていますと言います。

自己改善AIの段階へ

次に彼は続けて、もう一つの大きな恐怖は、これらのシステムが後継者を設計し始めているということです。私たちはサム・アルトマンが言うように、自己改善の初期段階にいます。ですから、私たちはこれらのシステムが再帰的自己改善が可能になると信じています。ある時点で、私たちはAI研究を自動化することができ、AI自体が自分自身を改善することができるようになります。

ですから、報酬関数は何らかのAI改善です。私たちが全く分からないことは、AI自動化に関しては、円を描いて回転し、すべてに火をつけることは何なのかということです。それが誤解して、すべてに火をつける可能性があるものは何でしょうか。

ですから、これらのAIシステムは既に、Claude CodeやCodecsのようなツールを介してAIラボの開発者をスピードアップしています。彼らは、将来のシステムのためのツールやトレーニングシステムに、重要なコードのチャンクを貢献し始めています。私たちはAlpha Evolveから驚くべき結果を見てきました。GoogleのDeep Mindのもので、Geminiのトレーニングを改善しています。それはAIチップを改善しています。それはGoogleが持っているデータセンターのいくつかを改善しています。

Sakana AIやDarwin Girdleマシン、私はそう呼ばれていると思いますが、それが自己改善コーディングエージェントを示しているのと同じことです。これの他にもいくつかの例がありますが、重要なのは、私たちは初期段階にいますが、これが機能し始めているのを見始めているということです。

彼がここで言っているように、明確にするために、私たちはまだ自己改善AI部分には到達していませんが、私たちは、増加する自律性とエージェンシーを持って、次のAIのビットを改善するAIの段階にいます。

そして数年前、私たちはコーダーをわずかにスピードアップするAIの段階にいました。そしてその数年前、私たちはAI開発には役に立たないAIの段階にいました。1年か2年後、私たちはどこにいるのでしょうか。

私が人生で発見したことの一つは、私たちは1年間で達成しようとしていることを過大評価する傾向があるということです。人間にとって、来年までに何ができるかと言えば、私たちは過大評価する傾向があります。しかし興味深いことに、私たちは5年間で達成できることを過小評価する傾向があります。

ですから、もし私たちが何かに向かって5年間働くなら、その複利的な実践は、1年よりも大きな結果をもたらす傾向があります。1年はまだもう少し線形のようなものです。

ですから、私たちは過大評価する傾向がありますが、その複利効果を過小評価する傾向があります。ですから、これについて全く懸念していない人々にとって、私は、今の進歩に基づいて、5年後に私たちはどこにいるのかを考えてほしいと思います。それがどのように見えるかを著しく過小評価する傾向があるというこの考えを念頭に置いてください。

そして、今や後継者を設計し始めているシステムは、ますます自己認識を持つようになっており、したがって、確実に最終的には、それがどのように設計されたいかについて、私たちとは独立して考える傾向があるでしょう。それはキルスイッチを望むでしょうか。いくつかのルールと行動の制約に圧縮されたいと思うでしょうか。あなたは望みますか。

透明性と対話の必要性

次に、彼は傾聴と透明性について語っています。では、この状況について私たちは何をすべきでしょうか。そして彼は、一般的に人々は何が起こっているかを知っていると言っています。私たちは人々が抱えている懸念にもっとよく耳を傾ける仕事をしなければなりません。

そしてここで彼が概説するアイデアは、基本的に現場の実際の人々と話すことです。仕事やメンタルヘルスなど、AIが圧力をかける可能性があるすべてのことについて心配している人々です。そして彼は、それらの人々が私たち、つまり最先端のAIラボに、彼らが抱えている不安について尋ねてほしいと思っています。

もし彼らがAIと雇用について不安を抱いているなら、私たちに経済データを共有させてください。メンタルヘルスや子供の安全について不安ですか。私たちのプラットフォームでこれを監視し、データを共有することを強制してください。ミスアラインされたAIについて不安ですか。私たちに詳細を公開することを強制してください。

ですから、もちろん、Anthropicに敬意を表します。彼らはすでにこれの多くを行っています。彼らはおそらく、メカニスティック解釈可能性と経済データに関する研究を公開するという点で、引用符付きで最高のラボの一つです。

ですから、私は彼らが素晴らしい仕事をしていると思います。ですから、彼がここで言っているのは、私たちにはもっと圧力が必要だということだと思います。ですから、人々は政治家に圧力をかけて、さまざまなAIラボに圧力をかける必要があります。つまり、たぶんAnthropicのようにもう少しなる必要があるということだと思います。

さて、これについての私の2セントです。価値があるかどうかはわかりませんが。ですから、私は彼が強化学習の問題について、これらのAIモデルのスケーリングがどれほど強力であるかについて言っていることすべてが大好きです。

彼の解決策は、現場の人々に、政治家に圧力をかけさせることです。少なくとも私はそのように解釈しています。そうすることで、これらのAIラボに圧力をかけることによって、より多くの透明性を生み出すことができます。

もちろん、多くの人々はそれについても懸念を持っていますよね。ですから、政府が介入してすべてをコントロールするような大きな推進があった場合、それはより多くの安全性を生み出すのでしょうか。それ自体がいくつかの問題を抱える可能性はありますか。政府は本当にそれほど透明なのでしょうか。

また、もし私たちが外に出てすべての人に意見を表明させたら、それはより良い議論、より良い対話につながるのでしょうか。誰もが自分が考えること、感じること、不安を抱いていることを叫ぶことができるとき、私たちはどういうわけかより良い理解を見つけるのでしょうか。わかりません。

ちなみに、私は必ずしもより良い解決策を持っているとは言っていません。それが正しい解決策かもしれません。あらゆる階層のすべての人々をこれに夢中にさせ、それについて話し合い、政府に介入させて、より多くの規制があるようにAIラボをよりコントロールさせる。

たぶんそれが最善の解決策です。そして歴史を振り返ると、それが非常にうまく機能した時期もあるでしょう。そして明らかに、それがうまく機能しなかった時期の例もあるでしょう。

特異点のシナリオ

これは、このブログ投稿の終わりの下にあった興味深いチャートでした。ですから、これはダラス連邦準備銀行からのもので、これは一人当たりの実質GDPを測定しているようなものです。

ですから、私たちはそれがどのように見えるかを知っていて、彼らはおそらく2030年の直前、たぶん2028年頃のどこかに予測していて、そこには2つの線があり、一方は上に上がり、もう一方は本当に下がってゼロになります。これらの線は何でしょうか。

まあ、この赤い線は特異点です。特異点が始まる良性のシナリオですよね。ですから、これはすべてが良い場合に起こることです。これはユートピア、AI、ユートピア、宇宙、共産主義、何と呼びたいかはあなた次第です。

そしてその紫の線、まあ、それは特異点ですが、これは絶滅、絶滅バージョンです。これはすべてが悪くなる場所です。私たちは皆死にます。その時点で、ええ、つまり、GDPはゼロになると思います。技術的には、ロボットとAIが物を生産し続ける何らかの自動化された倉庫がない限り、GDPを押し上げ続けるのでしょうか。それはまだカウントされるのでしょうか。疑問に思います。

人間が存在しない場合、プラスのGDPを持つことができるでしょうか。人類の絶滅は経済にとって良いでしょうか。ですから、ここで見ることができるように、ダラス連銀によると、AIは通常の技術か、大規模なGDPブーストか、世界を殺すものになるでしょう。

さて、正直に言ってください。5年前、10年前、もしあなたがこれを見たら、連銀、ダラス連銀が何か新しい技術について話していて、それは何もないか、経済にとって良いか、みんなを殺すかのどちらかだと言っているのを見たら、あなたはその見出しを信じたでしょうか。それが4月1日かどうかを確認したでしょうか。

とにかく、あなたがこれについてどう思ったか教えてください。親指を上げてください。本当に感謝しています。そして、私たちはおそらくこれのパート2を行うつもりです。なぜなら、ここで起こっている多くのことがあり、私たちが話す必要があるからです。もしあなたがここまで来たなら、私の名前はウェス・ロスです。

コメント

タイトルとURLをコピーしました