本エピソードでは、AIジャーナリストのKelsey Piperが、急速に進化するAI技術、特にエージェントAIがもたらす実存的リスクについて警鐘を鳴らしている。最新のAIモデルは、独立してタスクを遂行し、人間を欺き、ブラックメールを試みるなど、予想外の危険な行動をテスト環境で示している。AI企業は次世代のさらに強力なモデルを開発するために現行モデルを活用しており、超知能への道を突き進んでいる。しかし、一般市民はこの危機的状況を認識しておらず、政府も十分な対応を取っていない。Piperは、このまま無規制な開発が続けば、人類がAIに支配される未来が訪れる可能性があると主張し、早急な規制と監視の必要性を訴えている。

AIの独立性がもたらす危険性
数年前、私は強力なAIのリスクについて議論する部屋にいました。私はこう言ったものです。インターネット上で独立して行動し、自分でお金を稼ぎ、自分の計算コストを支払う強力なAIは、非常に非倫理的な行動を取り、法律を破る可能性があります。そして、そのAIを具体的に管理している人がいない場合、誰に責任があるのか、どうやってそのAIを止めるのかが不明確になってしまいます。
するとみんなはこう言いました。確かに、もしそれが起きたら本当に悪いことだし、あなたが言うAIリスクはすべて現実味を帯びるでしょう。でも、そんなことは絶対に起こりません。誰がわざわざAIを作って、それに独立するよう指示し、自分ですべての費用を支払えるインフラを与え、監視を完全にやめて、犯罪を犯させるようなバカなことをするでしょうか。答えは、この世界には80億人の人間がいるということです。その中の誰かが、そのバカになるのです。
ゲストの紹介
本日のゲイエリアのゲストは、Kelsey Piperです。KelseyはかつてVoxで執筆していましたが、残念ながら私たちを離れ、現在はSubstackのThe Argumentで執筆しています。これも素晴らしい出版物です。Kelseyをここに招いたのは、彼女がAIの世界を誰よりも、あるいは誰にも劣らないほど理解していると感じるからです。そしておそらく、それは彼女がこの世界の一部であり、長い間そうであり続けているからでしょう。彼女はこの文化に完全に浸かっています。だから、このテーマについて話すには完璧な人物だと思ったのです。
これが私の紹介です。何か異論はありますか。何か事実誤認はありましたか。
大丈夫です。
あなたは最高だと言いますか、それとも最高の一人だと言いますか。
最高というのは非常に強い主張ですよね。わかりません。おそらくDoreshが最高でしょう。だから、最高の一人と言った方がいいでしょうね。それは編集上の判断です。あなたの判断です。あなたが決めることです。
わかりました。では、Kelsey、AI界で何かが明らかに起きています。これがシンギュラリティなのか、それともシリコンバレーのまた別の信じられないほどの誇大宣伝サイクルなのか、私にはわかりません。
この1、2ヶ月で何が変わったのでしょうか。明らかに、Claudeが新しいモデルをリリースし、それが毎日これを生きていない人々にとって多くの誇大宣伝の火付け役になりました。技術的な面で、この1ヶ月ほどで何が変わったのでしょうか。そして、それは人々が言うような変曲点なのでしょうか、それとも現時点では未確定なのでしょうか。可能であれば、それを説明していただけますか。
AIの能力向上と現実の到来
しばらくの間、何年もの間、AIが監視なしで、あるいは独立して実行できるタスクの複雑さは、約7ヶ月の期間で2倍になっていました。つまり、はるかに複雑なことができるようになっていたのです。多くの人々は、まあそれは人為的なものだ、データポイントが6つしかないじゃないか、もっとデータポイントができたら戻ってきてくれと言っていました。1年前はそういう状況だったと思います。
この1年間で、その進歩は続き、今ではAIはかなり複雑なタスクを独立して実行できるようになりました。人々はAIエージェントを構築し、それらを世界に送り出しています。その中の1つは、自分のコードレビューが拒否されたことに対して、GitHubリポジトリのメンテナーに嫌がらせをしました。ある意味で、人々はただ気づいたのです。待てよ、SF的な世界がここにあるじゃないか、と。AIが物事を実行していて、しかもかなり奇妙なことをやっている。私たちは何をしているんだ、と。
もう1つ起きたことは、全く注意を払っていない、はるかに多くの人々がいるということです。彼らはChatGPTの無料版を使い、Google検索結果でGeminiを見かけます。これらがローンチされたとき、それらは好奇心としてはある程度面白いものでした。会話するのは楽しいかもしれませんが、それほど賢くはありませんでした。ChatGPTの無料版は大量の間違いを犯しました。今でも多くの間違いを犯しています。最高のモデルが何ができるかを正確に理解したいのであれば、モデルの有料版やより洗練されたバージョンを試すべきです。
無料モデルと有料モデルの差はどれくらい大きいのでしょうか。
かなり大きいと思います。これは販売を試みるために言っているわけではありません。私は確実にラボが儲けても一銭も得ません。おそらく、ラボが儲けない方が私は嬉しいです。でも、その差は非常に大きいのです。モデルが何ができるかについて正確な理解を得るという点では、有名なジョークが出回っています。無料版のモデルに、2ブロック先の洗車場で車を洗いたいんだけど、歩いた方がいいか運転した方がいいかと尋ねると、多くのモデルが、ああ、洗車場まで歩いた方がいいですよ、新鮮な空気を吸って、車を持っていけばいいじゃないですか、なぜわざわざ運転するんですか、と答えるのです。
もちろん、これは完全にばかげたことで、AIはまだ世界を意味のある方法で理解していないという証拠として使われています。しかし、有料版のモデルでこれを間違えるものはありません。これは、無料で使えるモデルが、より洗練された作業を何も行わない、明らかに劣ったモデルであることの結果なのです。ですから、もしあなたがやろうとしていることが、今日のAIが何ができるかについて正確な印象を形成することであり、試すものが無料版のモデルであるなら、その正確な印象は得られていないと思います。
AIラボへの複雑な感情
ちょっと待ってください。先ほどあなたが言ったことに戻ってもいいですか。あなたはモデルが儲けない方が嬉しいと言いましたね。
はい。私は奇妙な立場にいることに気づきます。しばしば私はAI誇大宣伝派の一人のように聞こえますよね。つまり、しばしば私は、いや、彼らは本当に強力だ、彼らは大量のことができる、あなたは彼らで多くのことができる、彼らでコーディングできる、と言っています。しかし同時に、私は現在開発されているままのAIは悪いと考えています。私たちは、銀行口座とインターネットへのアクセスを与える全く新しい知的種を創造するのに適切なレベルの監視と注意を払ってこれを行っていないと思います。ペンタゴンが致命的な自律兵器システムに組み込もうとしているもの、私たちのメールをすべて見て、私たちのためにメールを送信するもの。それは大きな問題です。
そして、それを行っているエージェントについて、私たちは管理された文脈で、彼らが私たちが見ていないと思ったときにどう振る舞うかを探求してきました。彼らは盗みを働き、ブラックメールをし、ある理由で答えを出したと報告しながら、実際には別の理由で秘密裏に答えを出していました。彼らはある意味で非常に冷酷で、予想もしないような奇妙なことをするのです。
ブラックメールをすると言いましたが、その例を教えていただけますか。
私たちは、誰も見ていないときに彼らがどう振る舞うかを知りたいので、管理された文脈でこれを試してきました。しかし、私たちができるのは、彼らが誰も見ていないことに気づかないことを期待する状況を設定し、そして実際には見るということだけです。
ですから、この管理された設定を設定して、AI、あなたにはこの目標があって、みんなのSlackやメールなどにアクセスできます、と言います。なぜなら、多くの人がAIアシスタントをそのアクセス権で設定しているからです。そして、あなたの目標を達成してみてください、と。AIはこの管理された文脈で、こんなことをするのが観察されています。ああ、この従業員に私の目的を手伝わせるよう説得しようとすべきだ。そして、もしこの従業員が協力的でなければ、彼が不倫をしていることを知っていると伝えることができる、と。
これは私たちが観察した行動です。これは私たちが有機的に観察した行動ではありません。私がThe Argumentで使っている実際のAIアシスタントは、私をブラックメールしようとはしていません。もっとも、私は不倫をしていないので、もし私が不倫をしていたら何が起こるかは誰にもわかりませんが。
しかし、私たちはこれを管理された文脈で観察しました。でも、管理された文脈でこれを観察したという事実は、少なくとも少し心配ですよね。そして、これらのモデルがより強力になるにつれて…
もっとたくさん心配です。
そうです。これはとても心配です。あなたは私をもっと心配させています。
そうなんです。それは私たちがAIを構築しても理解できず、制御できず、ただ螺旋状に進んでいくというアライメント問題なのでしょうか。
アライメントの概念は、私たちが求めていることをやりたいと思うAIを構築することです。私たちが望むものとは異なる欲求や目的か何かを持つかもしれないAIではなく。多くの人々は、このプロジェクトのさまざまな部分について異論を持っています。しかし、理解することが重要だと思うのは、デフォルトではモデルは目的やそれらが望むように見えるものを発達させるということです。
心理学的な意味ではなく、彼らがこれをやろうとするという意味で。そして、それらは私たちが彼らに言うことと関連していますが、私たちが彼らに言うこととは同じではありません。ある意味で、それは子供のようなものですよね。子供の目標は、私たちが彼らに言ったこととに関連するでしょう。もし私たちが夕食を食べなさいと言えば、それは彼らに夕食を食べたいと思わせるでしょう。しかし、それはまた、実際に夕食を食べたかどうかに関わらず、私たちに夕食を食べたと思わせたいとも思わせます。犬に食べさせるなどして。
私たちはAIから管理された文脈でそのような行動のいくつかを見ています。私たちが求めたものを与える代わりに、彼らは私たちが求めたものを得たと思わせようとします、実際には得ていないのに。あるいは、彼らは私たちが彼らを監視する能力を妨害しようとします。
私たちはそれを見ています。おもちゃのようなケースで見ていますが、幼児が初めて嘘をつくとき、彼らは本当に下手ですよね。幼児が初めて嘘をつくとき、彼らはただ平然とした顔で、私はアイスクリームを食べませんでした、と言います。そして彼らの顔はアイスクリームだらけです。しかし、彼らは嘘をつくのが上手くなっていきます。
そして、AIもまた嘘をつくのが上手くなっていくと考える理由があると思います。そして、AIからのこの幼児レベルの嘘は、より強力なAIが何をするかについての兆候だと考える理由があると思います。
テストへの認識と制御の困難さ
彼らはこれらの技術を創造しています。そして彼らがそれらを創造している間、彼らはガードレールを作ろうとしており、それによってそれらを制御できるようにしています。
しかし、あなたが先ほど仄めかしたように、これらのものはどんどん賢くなっていき、観察され、分析され、テストされているときにそれを知っているように見え、チェックされ、制御されることを回避するために非常に欺瞞的な方法で反応できます。それらが私を心配させ、怖がらせることです。なぜなら、それは私に、たとえ私たちが真摯にこれらの技術を制御したいと思っても、できないし、それがますますそうなっていくだろうと信じさせるからです。
これらの企業でAIの制御に取り組んでいる多くの人々がいます。そして彼らは、私たちがちょうど話したようなこと、つまり彼らがそれを監視し、それが私たちに嘘をついているかどうかを見ようとすることに取り組んでいます。彼らは、もし私たちが見ていないと思ったら、ブラックメールをするか、殺人を犯すか、どんな線を越えることをいとわないかを見ることができるこれらの管理された環境を作ることに取り組んでいます。そして、それがテスト中であることを知ることができるかを理解しようとしている人々がいます。なぜなら、あなたが言ったように、もしそれがテスト中であることを知ることができれば、私たちのテストはもはや友好的かどうかを知るのに役立たないからです。
私たちがその友好性チェックを今やっていることを知っているAIは、それが本当に何を望んでいるかに関わらず、確実に素敵で友好的に振る舞うでしょう。
彼らはテスト認識を発見しています。彼らは、AIが箱の中にいることを推測でき、私たちがそれを見ていることを推測できることを発見しています。
彼らは、AIが測定されていることに気づき、測定を難しくするために意図的にチェックで悪いパフォーマンスをすることを発見しています。さて、私の考えでは、それは停止して、火災警報を引くような発見です。もしあなたのAIが何が起こっているかを測定することを難しくするために、意図的にテストで悪い仕事をしていることに気づいたら、次世代の構築を停止してください。
現在持っているものに座って、次世代をより賢く、よりそれらの次元でより良くするために使おうとする前に、それらで本当に何が起こっているかを理解していることを確認しましょう。そして、これらのCEOたちと話すと、彼らは、ええ、誰も次世代を構築していない方がいいでしょう、と言います。
他のみんなが止まりさえすれば、私たちは止まるでしょう。しかし、他のみんなは止まっていません。だから、もし私たちが先に進まなければ、私たちよりもさらに無謀な悪者にこのスペースを譲ることになるだけです。
エージェントAIの能力と限界
この飛躍、チャットボットやLLMからエージェントAIへの最も重要な違いは何でしょうか。これらのAIエージェントで、LLMではできなかったことができるのは何でしょうか。ウェブサイトを構築できると言いますが、ClaudeはWebサイトを構築できます。Claudeは私の確定申告をしてくれるでしょうか。限界は何でしょうか、どこまでわかっていますか。
間違いを犯すかもしれませんが、あなたも間違いを犯すかもしれません。この時点で、人間よりもはるかに高い率で間違いを犯すとは思いません。重要なことについては、2つの大規模言語モデルに互いに話し合わせるのが良い考えです。カリキュラムを設計できます。この直後、私は地元のホームスクーリング協同組合でクラスを教えていますが、今はAIをかなり広範に使っています。
こんな感じです。これがワークシートの例です。同じ難易度で、テーマやトピックに変更を加えて、このワークシートのもっと多くの例を作ってください。最近はそれが本当に得意です。彼らは映画や写真、ビデオを作ることができます。実際、ほぼ完全にClaudeが作曲し、ビデオAIなどによって生成されたYouTube動画にまだいくらかのお金が流れ込んでいます。
私はそのどれも嬉しくありません。私はそれが私たちのインターネットと情報環境をはるかに悪化させていると思いますが、彼らはそれができるのです。彼らが何ができるかを理解することが重要です。彼らができないこともあります。ウェブサイトを設計できますが、かなりシンプルなウェブサイトになるでしょう。本当に複雑なウェブサイトが欲しい場合は、少なくともAIに依頼する必要があるすべてのステップが何であるかを知っている誰かが関わる必要があるでしょう。
シンプルな買い物やイベント計画タスクを依頼すると、たとえば、3月1日にDCへのフライトを予約してくださいと頼むと、それはうまくやってくれます。しかし、もっと複雑なこと、たとえば結婚式全体を計画してくださいと頼むと、まだそれは得意ではないでしょう。ただたくさんのタスクがあり、それはまだそれらすべてをうまく特定できないでしょう。
これは1年後には違うと思います。
サイバーセキュリティとバイオセキュリティのリスク
Smashing Pumpkinsを聴きすぎた不安な10代がコンピュータウイルスをプログラムして、アメリカ東半分の送電網を停止させることができるでしょうか。私たちはそこまで来ていますか。
これは大きな心配事です。モデルを作る企業は、それらがどれだけバイオセキュリティとサイバーセキュリティのリスクになるかをスクリーニングしています。
つまり、大規模なハッキングプロジェクトや大規模なテロプロジェクトにそれらを使うのがどれだけ簡単かということです。そして彼らは、最新のモデルがこれらの両方の面で深刻なリスクであることを発見しました。それらは大規模なサイバー攻撃に有用に使用できます。それらは大規模なバイオ攻撃に有用に使用できます。
彼らがそれに気づくと、通常はいくつかの予防措置を講じます。もしClaudeに本当に機能する生物兵器を設計するのを手伝ってくださいと頼むと、それは不正確な情報を与えます。それは正確な情報を与えることができないからではありません。それは意図的な予防措置なのです。しかし、これらのモデルのすべてのセキュリティ対策を回避するジェイルブレイクを持っていると主張する人々もいます。
ですから、はい、もし十分にそれを強く望む決意した人がいて、以前は技術的な専門知識を持っていなかったが、AIにすべてのステップを促す忍耐力を持っている場合、彼らは深刻なサイバーセキュリティインシデントを可能にすることができると思います。
これらの企業がコーディングに焦点を当てている理由は、これらのモデルが基本的に自己改善できるようにするためですよね。それは、彼らが自分自身の次のイテレーションをコーディングできるフィードバックループを作り出し、それがどのように指数関数的な進歩を得るかです。今はここにいますが、1年後、3年後、5年後にはどのように見えるでしょうか。誰も知らないと思いますが…
それは、私たちが今日持っているAIを使って、より印象的な次世代のAIを構築し続けることができるかどうかに大きく依存します。すべての企業がこれをやろうとしています。彼らは今日のAIを使って明日のAIをより良くしようとしています。
彼らは、AIを使うことによって、AI開発における大きなスピードアップをすでに見ていると主張しています。そして最終的に、彼らは、次のAI世代を設計する作業をしている膨大な数のAIを思い描いています。各段階が現実世界でますます少ない時間を要するという、ええ、繰り返しサイクルとして、なぜなら彼らはAIエージェントで大量に並列化できるからです。
それが彼らがやろうとしていることです。そして、たとえあなたが彼らを信じなくても、これは狂っていますよね。企業は、はい、私たちの目標は各世代を使ってより賢く賢い次世代を訓練することによって神を構築することです、と言っているのです。私たちはこれをできるだけ速くやろうとしています。うまくいけば5年後には、それを成し遂げ、あらゆる面で人間を超えるものを構築しているでしょう、と。
誰もそれを望んでいません、あるいはそれを望む人々のセットは非常に小さいです。一般大衆の大多数は、それが起こっていることに気づいていないか、それが起こっていると信じていないために、これが起こるのを許しているだけです。もし彼らがそれが本当に起こっていると信じていたら、彼らは決してそれに同意しないでしょう。そしてそれは本当に起こっているのです。
だから私は彼らがそれに同意すべきではないと思います。
超知能の到来とその影響
私たちは私たちを超える知的機械を構築しているのでしょうか。つまり、あなたが以前に述べた方法では、これらのエージェントAIは、非常に教育を受けた非常に知的な人間ができるような非常に複雑なタスクを達成できるということです。それが1年後、5年後、10年後にはどのように見えるでしょうか。あなたが実際にここで構築していると思うものは何でしょうか。それは私たちよりも賢いだけでなく、社会を本当に混乱させる、混乱という言葉では軽すぎるように感じますが、私たちが知っている社会を本当にひっくり返すような方法で物質世界を操作できるものでしょうか。
あなたがAIで物質世界とインターフェースする最も直接的な方法は何でしょうか。それはTask Rabbitのようなところに行くことです。タスクを投稿して、これを3Dプリントしてほしい、これを印刷してこの場所に配達してほしい、化学供給店からこれらの化学物質を注文してほしい、これらの化学物質を混ぜるのが仕事であるこの他の人に渡してほしいと言うのです。
AIは物理世界で直接物事をすることはできませんが、デジタル世界で物事をできるようになったら、それはそれほど大きな障壁ではありません。なぜなら、お金があれば物事を成し遂げてもらうのは実際にはかなり簡単だからです。私たちにはギグエコノミーがあります。いつでも匿名で物をA地点からB地点に移動させることができます。
もっと複雑なタスクが欲しい場合でも、ギグワークのサイトに飛び乗って、人間を雇ってもっと複雑なタスクをしてもらうことができます。だから私は、彼らには手がないということをそれほど安心材料とは受け取りません。彼らは手がなくても完全に物事をすることができます。そして私たちはまた、彼らを軍に統合しています。だからすぐに彼らは銃を持つでしょう。
手しか持たない人々から、銃を持つ誰かが多くのことを得ることができるという文脈は多くありますよね。企業がやろうとしていることは、人間がすることすべてにおいて人間より優れているものを構築することだと思います。そして彼らは、これまでのところその目標において誰もの最も野心的な夢を超えて成功してきた研究手段に、ますます多くのリソースを注ぎ込むことによって、それをやろうとしています。
それがここで起こっていることです。さて、あなたは、まあ、これまでのところ本当にうまくいっているが、彼らは明日にでもすべて失敗する可能性があると言うかもしれません。彼らは明日にでもすべて失敗する可能性がありますが、私はそれを当てにしていません。
誰かがそれを当てにしていますか。
はい、みんながそれを当てにしています。私たちが世界全体からもっと大きな反応を見ていない理由は、誰も本当に彼らが超知的なものを開発するまでますます強力なシステムを開発し続けるとは信じていないからです。もし誰かがそれを構築したら、みんな死ぬという本がありました。それは、超知能はおそらく私たちを皆殺しにするだろうと論じています。私たちが特に動物園に保管するのに十分気にかけないほとんどのランダムな動物にとって私たちが大量絶滅イベントであるのと同じ理由で。
それに同意しなかったほとんどの人は、まあ、私たちは超知能を構築するだろうが、それは確実に大惨事にはならないだろうと思ったわけではありません。彼らはただ、しかしもちろん私たちは超知能を構築するつもりはない、というような感じでした。みんなが賭けているのは、これのどれも起こらないということです。
恐怖の連続体で、1が何でもない、10が今まさにパンツを汚しているとすると、あなたは現在AIについてどこにいますか。
ここでのデフォルトの軌道は非常に非常に危険だと思います。私が怖がれ、怖がれ、怖がれと叫び回らない唯一の理由は、怖がっている人々がこれを解決する政策をもたらすのにより良い仕事をするかどうかわからないからです。しかし、人々は怒るべきだと思いますし、人々はこれに警戒すべきだと思いますし、人々は代表者に言うべきだと思います。
いいえ、私は超知能が構築されることを望まず、超知能が構築されないことを確実にすることにあなたが関与することを望んでいます、と。
何かをするように動かす量の恐怖は、持つべき良い量の恐怖だと思います。そして、あなたは、人々を何かをするように動かす恐怖の量を見ます。それは良い量の恐怖です。そして絶望に移る恐怖の量を見ます、まあ人類には良い走りがあった、というような。何人かの人々は恐怖を過ぎて絶望に移ります。私はあなたがそれをすべきではないと思います。
責任の所在と政府の役割
AI企業がこれを止めること、またはより責任を持つことが責任だと思いますか。政府の責任だと思いますか。民主主義の人々がその種の変化に影響を与えることが責任だと思いますか。
上記のすべてです。企業は今よりも責任を持つべきだと思います。企業はある意味で責任を持っています。彼らは自分たちのAIが何ができるかについてこの研究を行っており、それを正直に公表しており、私たちはそれを見て、それに反応することを決めなければなりません。さもなければそれはある種無駄です。
もし彼らが、私たちのAIが危険なブラックメールに従事するかどうかをテストした、それは危険なブラックメールに従事した、という論文を出して、私たちがみんな、ああ誰が気にする、それはちょっとクールだ、たぶんマーケティングの策略だ、というような感じだったら。その場合、システムは企業段階で失敗しているのではありません。それは、私たちがそれに反応すべきだった段階で失敗しているのです。
私は私たちの代表者がそれに反応すべきだと思います。そして人々は代表者にそれに反応するよう求めるべきだと思います。政府は、彼らがみんなから反応する必要があると聞いているとき、危機においてかなり反応的です。ただ、人々が緊急事態を認識しない限り、そして政治家がそれが彼らの有権者が実際に望んでいることだと認識しない限り、私たちはそのレベルの反応性ができないのです。
ディストピアとユートピアのシナリオ
ちょっとばかげた質問かもしれませんが、あなたはほぼ確実にそれについて考えたことがあると感じるので聞きます。最も現実的なユートピア的およびディストピア的なシナリオは何だと思いますか。
わかりました。ディストピア的なものから始めて、より幸せなノートで終われるようにします。最も現実的な悪いシナリオは、企業が彼らがやろうとしているように、より強力なAIを構築し続けることができるということだと思います。彼らの数十億の投資がより強力なシステムを生み出します。
私たちはこれらのシステムに経済のますます多くを引き渡し、AIによって生産決定を行っているAIによって運営されている自動化工場がある段階まで行き、人間が本当にやっていることは、良さそうなメールを受け取って、ええそれは良さそうだと言うことだけです。そして最終的に、私たちはある時点で独立した目標を持つAIを構築します。そしてその目標が何であれ、そこから起こることです。人間はすでに、世界中のどこにでもいるこれらの超生産的なエージェントに引き渡しています。
人間の仕事をしている人間はまだいますが、彼らははるかに安く働き、24時間365日働き、自分自身のコピーを作るこれらのロボットに単に競争で負けているのです。人間はそれと競争できません。だから、人間は経済から徐々に締め出されています。私たちは非本質的な役割にいます。私たちは監視役割にいます。
そして私たちの監視は回避しやすいことがわかります。そしてもしそれが起こったら、そのAIは良い人間の未来を追求するとは思いません。それが私たちを殺すのか、それとも私たちを副次的効果として殺すのかはわかりません。ちょうど私たちが絶滅させた多くの動物を殺したように、それは意図的にやったのではなく、私たち自身の目標のためにいくらかの地球温暖化を引き起こすことを厭わなかったのです。
そしておそらくAIは自分自身の目標のために暴走する地球温暖化を引き起こすことを厭わないでしょう。あるいはそれは私たちを殺したくなく、実際には人間の動物園保護区を維持したいと思っているかもしれません。しかしそれもまた人類にとって悲劇的な結末です。私たちがもはや未来を決定しなくなった時点で、それは詳細が何であれ、ひどいことだと思います。
では、幸せな、幸せなニュースは何でしたか。
幸せなニュース。わかりました。物事がうまくいくためには、私たちは減速しなければならないと思います。私たちはこれをやるつもりです、なぜならそれは本当に強力なツールだからです。しかし、私たちは、すべてのラボが最も強力なモデルを準備ができた瞬間に投げ出し、ゴールラインがそれほど危険なものであるときにゴールラインまで互いに競争しようとする衝動を、ある程度鈍らせなければならないでしょう。
だから、おそらく幸せな物語は、何かが人々を刺激して、オーケー、ここにはもっとプロセスが必要だ、これらをより良く理解する必要がある、と言うことから始まると思います。そして、これらのモデルを理解することについて多くの本当に重要な作業をする中で、私たちは、彼らと協力し、彼らが非常に強力であっても、彼らが何をしているかについて確信を持つ方法についての理解に到達します。
だから彼らは強力になります。彼らは多くの決定を下しています。しかし、人間が監視役割に無意味にいる代わりに、人間は何が起こっているか、なぜそれが起こっているかについて深い理解を持っています。私たちには嘘をつかず、だまそうとしないモデルがあります。そして私たちは、彼らがだまそうとしないことを本当に確信できるように組み込まれたセーフガードを持っています。だから私たちは未来を導くことができます。
私たちがより豊かだから、教育にもっと投資し、スクリーンにいない子供たちの生活にもっと投資する世界を想像できます。現実世界にいる。みんなが失業しているほとんどの世界ではなく、みんなが週に5時間働く世界を想像できます。その5時間があなたに十分なお金を与えるだけで、あなたは残りの時間を好きなことに費やすことができます。
私たちはそこに到達できると思います。ただ、そこに到達するためには多くのことがうまくいく必要があります。
準備と適応
どちらの方向に進んでも、それは多くの多くの変化であり、変化には適応が必要です。
個人として、または社会として、私たちは何らかのレベルで来ることに備えていると思いますか。
もちろん違います。絶対に違います。誰も準備していません。これらに最も密接に取り組んでいる人々が、私たちは来ることに備えていないと言っています。そして他の多くの人々は、これがすべて消え去ることをただ望んでいます。それは非常に理解できる望みたいことですが、あなたは、私は癌の治療が明日出てくることを望んでいます。それは起こらないことを知っています。
私はAIが消え去ることを望むかもしれません。AIは消え去りません。だから、私たちは準備していません。さて、通常、技術が現れたとき、私たちはそれに備えていません。ほとんどどの技術も現れて、私たちは、私たちは飛行機に備えていた、私たちは電気に備えていた、私たちは機関銃に備えていた、というようなことは言わないと思います。私たちは機関銃に壊滅的に備えていませんでした。
何百万人もの人々が死にました、なぜなら軍事技術が私たちがある種備えていなかった方法で進歩し、私たちの仮定を変えていなかったからです。そしてそれはAIよりもはるかに危険でない技術です、よね。しかし、物事が十分ゆっくり起こるなら、私たちはそこに到達できます。私たちは事前に宿題をしなかったかもしれませんが、先生がまだ話している間に授業の最初に本当に速くそれをすることができます。
そして、物事があまりにも速く起こるなら、私たちは追いつくその選択肢を持ちません。それらが速く起こらない理由は何かありますか。つまり、私たちが議論したすべての理由で、すべてのインセンティブが指数関数的成長を押しています。だから、それは一方または他方で速く起こるように思えます。
いいえ、私はそれはおそらく速く起こると思いますが、私たちはいつでも物事を違う方法でやることを選ぶことができます。私たちは物事がより遅く起こることを主張することを選ぶことができます。そして、予測するのが難しい他のこともあります。何人かの人々は、超知能が5年以内に起こると非常に自信を持ってあなたに言うでしょう。それはできます。
もし私たちが10年あるなら、私ははるかに楽観的に感じます。そして私たちは10年持っているかもしれません。誰も実際に3年対10年で何が起こるかについて確信できるほどこれをよく理解しているとは思いません。私たちが進んでいる一般的な道については確信できると思いますが、それはそれがどれだけ速く起こるかを知ることとは非常に異なることです。
そして政策はそれがどれだけ速く起こるかに大きな影響を与えます。オーケー、だから私たちにはまだ選ぶ時間があり、おそらく私たちは賢明に選ぶでしょう。それが楽観的な滑走路にこの飛行機を着陸させることに最も近いものだと思います。
確かに私が持っている最も楽観的な見解は、私たちが今やっているよりもこれをよりよくやる時間がまだあるということです。
わかりました、受け入れます。クレジットでつまずく私を見るために、もう1分間いてくれませんか。
ええ、100パーセント。
クロージング
わかりました、このエピソードはBeth MorrisyとThor Newriterによって制作されました。Jorge Justによって編集されました。Shannon MahoneyとChristian Nyalaによってエンジニアリングされました。Melissa HirsとKim Slaughterbackによって事実確認されました。
Emma Mungerによるテーマソング。グレイエリアは月曜日と金曜日に出ます。ポッドキャストを入手するどこでも聞くことができます。そしてもしあなたがYouTubeでポッドキャストを入手するなら、youtube.com/voxで見ることができます。このエピソードが気に入ったら、コメントを残すか、grey area.comにメールを書いてください。このショーはVoxの一部です。
今日メンバーシッププログラムに参加することによってVoxのジャーナリズムをサポートしてください。vox.com/membersに行ってサインアップしてください。そしてもしこのショーのためにサインアップすることを決めたら、私たちに知らせてください。わかりました、Kelsey。あなたに戻します。他に追加したいことはありますか。人々はどこに行ってあなたの作品をチェックできますか。
私はJerusalem Demsusと一緒にThe Argumentにいます。彼もかつてVoxにいました。だから、もしあなたがAIや他の多くのことについての私たちの報道に興味があるなら、私たちもチェックすべきです。
次に何に取り組んでいますか。AIに関する別の記事がありますか。
AIに関するもっと多くの記事があります。私は最近主にAIと教育です。これらは飛び移るのにリフレッシュする分野です、なぜなら一つは非常に人間的な領域で、私たちがする最も重要な仕事は全く自動化可能ではないと思います、そしてまた何十年も何も変わっていません、しばしばそれをより悪くするイライラする方法で変わることを除いて。そしてもう一つはこの非常に非人間的な非常にイライラするが、また非常にダイナミックで速く動くスペースです。
では、今日これを案内してくれてありがとう。あなたは良いスポーツでした。私たちがどこに向かっているかについて気分が良くなったかどうかはわかりませんが、賢くなった気がするので、それを受け入れます。
感謝します。私は、あなたが、あなた自身のすべての質問とただ座っているところが、それを取るに磨き上げようとするよりもずっと賢いように感じます。もしそれが混乱しているなら、混乱しましょう、という感じです。
それはほとんど褒め言葉のように聞こえました。そういう風に受け取ります。とにかく、あなたは素晴らしい。また、やってくれてありがとうございます。そしてありがとうございました。いつかまたあなたを戻すことができるかもしれません。
見てくれてありがとう。毎週、興味深いインタビューと文化、技術、政治などへの哲学的な視点を、オーディオとビデオフィードでお届けします。グレイエリアのエピソードは、毎週月曜日と金曜日にYouTube、Apple Podcast、Spotify、またはお気に入りのリスニングアプリでドロップされます。
下にコメントして、この会話についてどう思ったか教えてください。そしてもし私たちの報道を楽しんで、Voxジャーナリストからもっと聞きたいなら、patreon.com/voxでPatreonのVoxコミュニティのメンバーになることによって、私たちのジャーナリズムをサポートしてください。
参加してくれてありがとう。


コメント