この動画は、LinkedIn共同創設者でベンチャーキャピタリストのリード・ホフマンが、AI技術が人間の能力を置き換えるのではなく拡張する「スーパーエージェンシー」という概念について詳しく解説している。ホフマンは、AI悲観論者(ドゥーマー)に対抗する楽観的な視点を提示し、AI医療アシスタントの可能性、データ規制の課題、AI開発における地政学的競争、そして西側民主主義国家がAI分野でリーダーシップを維持する重要性について論じている。

- AIの未来に向けた舵取り
- 番組紹介
- 本の対象読者について
- 人間エージェンシーの重要性
- ドゥーマー視点への批判
- データ規制への懸念
- データ所有権の複雑さ
- 欧州のAI競争力
- データ規制の実用的課題
- グローバルな文脈での規制
- 技術変化への適応
- 実用主義的アプローチ
- スーパーエージェンシーの具体例
- AIエージェントの概念
- 具体的な応用例
- 集合的なスーパーエージェンシー
- ネットワーク自律性と自動化への懸念
- 良い社会構造の設計
- 監視技術と良いガバナンス
- 選択の幻想について
- 技術採用の社会的プロセス
- 規制の役割と安全性のイノベーション
- 市場メカニズムと政府の役割
- 人間とAIの協働の課題
- 研究への批判と訓練の重要性
- AIシステムとの効果的な協働
- AIの信頼構築
- 専門知識への信頼の重要性
- AI活用の実際的な懸念
- 特別なパラドックス
- AIの地政学
- アメリカの地政学的戦略
- ヨーロッパの選択肢
- 中国のAI戦略
- AI投資の戦略
- 投資の視点と AI プラットフォーム
- 最後の質問:AI未来への期待
AIの未来に向けた舵取り
私たちが望む未来に到達する唯一の方法は、望まない未来から舵を切ることではなく、望む未来に向かって舵を切ることです。現在、私たちは平均的な一般開業医よりも優秀で、24時間365日利用可能で、おそらく1時間あたり5ドル以下のコストで提供できる医療アシスタントを構築できます。
しかし、AIは完璧ではありません。間違いを犯すでしょう。完璧を待つことは、実際には多くの人間の苦痛を引き起こすということに、私たちは同意していると思います。
あなたは幸せにされるでしょう。あなたが望むかどうかに関係なく、私たちはあなたのエージェンシーを向上させます。なぜなら、これがあなたにとってより良いことだからです。
実際、今日ではインターネットからオプトアウトすることはできません。高速道路からオプトアウトすることもできません。選択肢があるか、実際には選択肢がないかのどちらかです。
では、例えばアフリカの農村部やその他のコミュニティにAI医師を提供すべきでしょうか。そして、あなたは上から目線だと言われるかもしれません。はい、私たちは彼らに尋ねるべきです。心配事が何かを伝えるべきです。しかし、彼らが関与することを選択するなら、それは彼ら自身の大人としての決定です。なぜなら、彼らは自分たちの幸福を知っているからです。
番組紹介
こんにちは、アレクサンダーです。Before AGIへようこそ。AIはただ来るだけではありません。既にここにあります。
AIの変革力についての議論は、良い面も悪い面も含めて不足していませんが、そうした会話はしばしば抽象的なところに浮遊しています。私たちがめったに探求できないのは、具体的なシナリオ、詳細です。AIによって形作られる未来は実際にはどのようなものなのか、そしておそらくさらに重要なのは、なぜ私たちは今日それを受け入れたいと思うかもしれないのか。今日はより具体的になります。
今日は、リード・ホフマンをお迎えする喜びがあります。リードは以前にもこの番組に出演していますが、前回の会話以来、忙しく過ごしています。特に、グレッグ・バトーと共に「スーパーエージェンシー」という新しい本を共著しました。挑発的なサブタイトルは「AIの未来で一体何が良くなる可能性があるのか」です。
サブタイトルが示すように、この本は肯定的なAIの未来、私たちが心から楽しみにできる未来の鮮明な絵を描いています。今日、リードと私はこのビジョンを深く掘り下げ、スーパーエージェンシーが私たちの生活、社会、そして未来にとって何を意味するかを解き明かします。
本の対象読者について
リード、おかえりなさい。ここにいられて嬉しいです。
前回お話しして以来、忙しく過ごしていらっしゃいますね。特に新しい本「スーパーエージェンシー」を書かれました。お聞きしたいのですが、あなたはいつもAIについてかなり楽観的でした。その時、なぜそう言っているのかと尋ねたところ、AIについてのいわゆるドゥーマーの物語に対するカウンターウェイトになりたいとおっしゃっていました。しかし、それ以来、物語は大きく変わったと思います。AIについて楽観的な人ははるかに多くなりました。では、この本は誰のためのものですか。楽観主義者のため、悲観主義者のため、この本の読者は誰ですか。
2つの読者層があります。依然として多くの読者が必要以上に悲観的だと思います。本の中で、ご存知のように、私たちは分類しています。ドゥーマーはAIがすべてを破壊すると考え、できる限りそれを遅らせようとします。グルーマーはAIは避けられないが悪いものになると考えています。ズーマーはAIは魔法だと考え、目を閉じてアクセルを踏めば全てうまくいくと思っています。
そしてブルーマー、私があなたと私を分類するところですが、AIの未来は非常に良いものになり得ると考えています。賢く運転しましょう。リスクをナビゲートする方法としてリスクに対処しましょうなどです。これが私の立場です。
しかし、依然として他の3つのキャンプを支持する人々が多くいます。ドゥーマーキャンプ、グルーマーキャンプ、ズーマーキャンプ。ブルーマーはこれらすべてに反対しています。
人間エージェンシーの重要性
さらに、あなたのような、AI革命の創造の中心にいる人々にとって、より微妙なことがあります。それは人間エージェンシーに焦点を当て、設計の見通しとして考えることです。
これは、AIが多くの人間のタスクを置き換えない、一部の人間の仕事を置き換えないということを意味するものではありません。人間エージェンシーに焦点を当てることが防ぐものではありません。ツールセットが私たちの生活と社会を変革している時、その反対側で人間エージェンシーが大幅に向上しているというのが、すべての技術革命が導いてきたものであり、私たちがここでやるべきことです。
スーパーエージェンシーは、個人が得る超能力だけではありません。私たちが得る超能力です。つまり、個人エージェンシーとしての人間エージェンシーだけでなく、チーム、企業、産業、社会、そして人類としての人間エージェンシーでもあります。
ドゥーマー視点への批判
これは素晴らしい説明でしたが、ある意味で私の質問を回避しましたね。あなたは全員のために書いていると言っていますが、明らかにブルーマーの視点から書かれています。そして、時にはドゥーマーの視点に対して少し軽蔑的でさえあると言えるでしょう。なぜそうなのですか。
4つの中で、おそらく私はドゥーマーの視点に最も否定的です。それは部分的に、望む未来に到達する唯一の方法は、望まない未来から舵を切ることではなく、望む未来に向かって舵を切ることだからです。
例えば、この数年間に何度も交わした典型的な会話は、「ターミネーターロボットを作らないと証明できますか」というものです。もちろんできません。愚かな人間が故意にそれをするかもしれないし、愚かな人間が偶発的にそれをするかもしれません。そして彼らは「ああ、では予防原則により、私たちはこの作業をすべて停止し、あなたが証明できるまで大幅に遅らせるべきです」と言います。
実際には、証明できないことがたくさんあります。愚かな人がパンデミックを生物学的なもので作らないと証明することはできません。すべての生物学的作業を停止すべきでしょうか。いいえ。ちなみに、将来のパンデミックをナビゲートする方法は、良い生物学的作業をしてそれをナビゲートすることです。
同様に、キラーロボットをナビゲートする方法は、良いAI作業をしてそれをナビゲートすることです。未来がリスクフリーだと言っているのではありません。ナビゲートについてのブルーマーの視点であり、ドゥーマーの提唱は実際には彼らの提唱が望む成果を生み出さないということです。
データ規制への懸念
あなたは確実に礼儀正しいですが、やはり少し軽蔑的です。特に予防原則について話し、なぜそれがAIの文脈で一部の人によって少し強く取られすぎる可能性があるかについて話しています。
しかし、データの使用について話す時、あなたはGDPRのアイデアについてあまり肯定的ではなく、「規制は実際に何か悪いことが起こるまで待つべきだった」と言います。
しかし、これらのもののいくつかには一方通行のドアがあるとは思いませんか。これらのもののいくつかでは、巻き戻すことができるなら試してみて、何かが間違っていることがわかったら巻き戻すべきですが、これらのもののいくつかでは、データが一度外に出てしまえば、それは外に出たままです。
私は大きな破滅的影響を持つ一方通行のドアについての予防原則は確かに考えています。例えば、不正国家、テロリスト、その他の人々がバイオテロリズムなどにこれらのものを使用する可能性があることを防止しようとするのは価値があり、事前に防止する価値があります。
しかし、GDPRについては、AIシステムが学習する多くの方法でのデータは、ハッキングシステムではありません。インターネット上で利用可能なデータを取得しているのです。データは既に外に出ています。そして問題は、この種のことにそれを使用できるかということです。それは必ずしも完全に一方通行のドアではありません。
データ所有権の複雑さ
さらに、バイオテロリズムのような大きな害を考える時、それはあまり対処しにくいものではありません。「この個人は自分のデータがインターネット上にあることを知らず、学習に使用されることを望まず、チャットボットで回答できることを望まなかった」と言う場合でも、個人をより良く参加させる方法、自分のデータに対する著作権と制御の概念とは何か、そして完全に許可すべき意味は何かについて、いくつかのナビゲーションがあります。
なぜなら、ほとんどの人について、例えばヨーロッパ内での典型的な議論は「私は自分のデータを所有している」というものです。実際には、それが正しいメタファーかどうか明確ではありません。
それでは、ここは私たちが借りたスタジオで、私たち二人の写真が撮られたとします。スタジオがそれを所有しているのか、写真を撮っている人が所有しているのか、あなたが所有しているのか、私が所有しているのか、私たちがいる都市が所有しているのか。
データの所有権という概念は、実際にはしばしば単純すぎるのです。実際、データを見始めると、私たちが持っているのは、個人の福祉と社会の福祉のためにデータをどのように使用できるかについての一連の原則であり、それは「アレックスがこのデータを所有している」というような単純な決定ではありません。
欧州のAI競争力
GDPRのやり方で本質的に未来を妨げているのは、これらの破滅的な悪いことだけでなく、どのような種類のツール、増幅知能、どのような場所に行けるかについての多くのイノベーションも妨げているのです。
ヨーロッパで話している文脈で、価値のあるセットをこのAIに埋め込みたい多極的世界でAIの主要な創造者と発明者の一つになるよう彼らを励ましようとしている時、彼らに問題を指摘する正確な理由は、彼らの規制スタンスがゲームにいない、ゲームから大きく遅れることをほぼ確実にしているからです。
実際、私たちのポッドキャスト聞き手の娯楽のために、彼らを味方につけるために私が構築したメタファーをお話しします。AIをワールドカップサッカーの試合として考えると、アメリカのリスナーの皆さん、それはサッカーです。しかし、世界の他の地域にとっては、足で蹴るのでサッカーの方が論理的です。
AIを中国とアメリカ間のワールドカップマッチとして考え、ヨーロッパが審判になろうとしている場合、2つの問題があります。第一に、審判は決して勝たないこと、第二に、誰も審判を本当に好まないことです。フィールドにいることが本当に重要なのです。
データ規制の実用的課題
これは非常に興味深い立場で、多くのスレッドに触れましたが、今のところデータについてだけ話しましょう。これは非常に微妙で複雑な問題だということに完全に同意します。
ここで私が抱えている問題は、あなたのスタンスを少し誇張すると、「複雑なので単純な解決策は持てない、そのままにして様子を見よう」と言っているように聞こえることです。しかし、ある時点では、「データへのアクセスがどのような問題になる可能性があるか、どのような規制が必要かを理解しよう」という微妙な見解を持ちたいでしょう。これは起こっていません。これが起こるために何が必要だと思いますか。
それを整理する微妙さが主導的なものではなく追従的なものになり得ると思う理由の一部をお話しします。別の会話を振り返ってみましょう。私がハリウッドの人々との会議に招待された時の話です。彼らは「ディズニーのキャラクターを作ることは、ディズニーの著作権IPにアクセスできる場合にのみ可能だと思う」と言いたかったからです。
ディズニーはそこにいなかったので、例としてディズニーを使います。「AIはこれしかできないと思うし、私たちから盗んでいる。西側企業は関与しようとして、どうやって支払うか、どうやって関与するかを言っている」と。
私は言いました。「あなたの考えに入れるべき2つの事実をお教えしましょう。事実その1は、今日存在してほしいものが、すべての訓練会社、AI モデルを訓練する会社が、あなたとの明示的な合意でのみ訓練や推論で使用するIPデータベースだとしても、AIモデルは依然としてディズニーキャラクターを作成できるということです。
さらに、それが存在したとしても、彼らは同じように良いディズニーキャラクターを作成できるでしょう。なぜなら、ミッキーマウスがどのように見えるか、ミッキーマウスの作り方、様々な方法でそれを行う方法を教えてくれる、あなたのIPデータベースにない多くのコンテンツがウェブにあるからです。
せいぜい、これらのAIは非常に優れた汎化器、多くのデータセットからの非常に優れた学習者であるため、訓練を少し遅らせるだけです。したがって、商標や著作権などを持っているすべてのものを除外したとしても、実際には彼らはそこに到達してそれを行うことができ、ただ少し遅くなるだけです。
さらなる問題は、中国人は気にしないということです。中国人はすべてを使用してオープンソースモデルやその他の種類のものやそれらへのアクセスを作成するつもりです。
グローバルな文脈での規制
データについて考える時、そしてこのメタファーの例でディズニーのことを考える時、それがそこにあってそれを行うつもりです。クリエーターに対する良い役割があってほしいと思います。それが私がIPと著作権などを信じている理由の一部です。
時には、物事が著作権にある時間の長さが実際に成長し続けており、本当にそうあるべきかどうか不明であるなど、行き過ぎることもあります。しかし、私がデータについてのこの全世界に到達する時の意味は、個人と社会の幸福の両方のためにデータがより良くナビゲートされる方法を見つけるべきかということです。答えはイエスですが、グローバルな文脈内でそれを行わなければならないということは、それを行うためのツールが非常に限られているということを意味します。
将来に入ると、その構成の実際の形がどのようなものかについてより良い感覚を持つでしょう。それは今いくつかの害が行われないということを意味しません、途中でいくつかの害が行われ、それは起こるでしょう。
物事に対して著作権を所有する著者として、私はそれを理解し、それに参加しています。しかし、社会にとって、これらのAIを作成して私たちにスーパーエージェンシーを与えることは非常に良いことになると思います。私たちが確実にしたい部分は、様々な西側社会が最前線にいることです。中国のような専制的で異なるアジェンダを持つ社会との競争において、私たちがそれに遅れをとらないことを確実にしたいのです。
技術変化への適応
これは非常に興味深い立場で、その多くの部分に共感します。しかし、少し解体したいと思います。現在のAI世界で私たちが経験しているものを適切に規制することの効果性について質問があります。
あなたがIPで例を挙げたように、AIの力、そして実際にはインターネットとデジタルデータの力があります。例えば、以前は町役場に歩いて行って出生証明書やその他のものへのアクセスを得ることができました。今はもうそうではありません。人々がこのデータを集約し、データをデジタル化し、期待以上に多くのことを推測できることに気づいたからです。
これはディズニーのコンテンツで明示的に訓練したことがなくても、ディズニーキャラクターを再現できるという質問に戻ります。それが現実です。今、完璧な世界とはどのようなものかという質問があります。西側諸国にここでリーダーシップを取ってもらい、この社会に利益をもたらしてもらうというビジョンを持つことは重要です。そのビジョンに同意します。
しかし、個人や特定のグループの利益が必ずしもこの方法と一致しない可能性があり、そこに到達する過程について質問があります。これらすべてを一緒に調整することは困難で、時には「この世界は少なくとも爆発していないと分かっているので、この世界に大きな変化を加える前に注意深くあろう」と本当に言う人々にはいくらかの価値があると心配します。
実用主義的アプローチ
私も、私たちの社会を含むこの世界、主要なものを壊すことは避けたいと思っています。しかし、それは何が最良の方法かという問題でもあります。単純に言えば、遅くて慎重であるために可能な限りのことをしようと言うことができます。対決の最前線にいようとする対慎重で遅い。
これが多くのX-リスクの人々、多くのドゥーマーなどとの私の正確な問題です。80億人が集まって、これは重要なリスクだと思い、全員が遅くしようと同意し、全員がそうしようと全員が提唱しないという論文が正当にあるなら、そこには可能性があります。
しかし、実際の害が実際に示されていない抽象的なことについてそう言うと、それが実行可能な論文だったなら、気候変動についてそれが見られると思うでしょう。はるかに具体的なことについてそれが見られると思うでしょう。つまり、X億人をそれについて一致させることができるという論文に私は同意しません。
スーパーエージェンシーの具体例
実用性について完全に同意しています。あなたのような実用的な理想主義者であることを本当に尊敬しています。これは実際に私と似ています。今は完全に歩調を合わせており、特に良い未来を確保する最良の方法、悪い未来を防ぐ方法は、良い未来を構想し、それに向かって導くことですという原則に非常に共感します。
それについて話すと、あなたは既にタイトルがすべてを語っていると述べました。あなたの本は、AIが人々にどのようにパワーを与え、より多くのエージェンシーを与えるかについてです。もう少し具体的にできますか。あなたが念頭に置いているエンパワーメントの例を説明できますか。
ポッドキャストでは、本でやったよりも少しニュアンスがあるのですが、エージェンシーは変換されるのです。事実は、AIのような主要な技術革命の反対側では、以前に持っていたエージェンシーの中には、後に持たなくなるものがあります。
単純にエージェンシープラスプラスではありません。変換ですが、全体的なエージェンシーを成長させる変換です。例えば、私のエージェンシーが馬車の馬の運転手として働くことだったとして、車が登場すると、もうそのエージェンシーはありません。車の運転やその他の種類のことをするために、エージェンシーを変換しなければなりません。
AIエージェントの概念
エージェンシーが大幅に向上する方法の一部は、エージェントについて考えることです。人々は「技術がエージェンシーを持ち、それが私のエージェンシーを奪うと言っているのですか」と言いますが、実際には、英語の言語におけるエージェントという言葉、エージェンシーという概念の美しさの一つは、私はエージェントを持つことができるということです。
旅行代理店を持つことができます。エグゼクティブアシスタントを持つことができます。本のエージェントを持つことができます。エージェンシー内には、実際に私の旅行代理店が私のエージェンシーを向上させ、私の本のエージェントが私のエージェンシーを向上させ、私のエグゼクティブアシスタントが私のエージェンシーを向上させる役割があります。
自律的な目標を持ち、物事を行うことができるエージェント技術を作成している時でも、人間のエージェンシー内でこれらの異なる種類のエージェントを持っているのと同じように、それは実際に私のエージェンシーを向上させることができます。
このエージェント世界でこれらの超能力を持つ時、これがエージェント設計原則、つまり人間エージェンシーを向上させる方法を考えるということです。旅行代理店や本のエージェントを持つのと同じように、人間がすべてをしなければならないということではありません。私の表現、能力などにおける私の能力を向上させるのです。
具体的な応用例
では、ChatGPTが私のためにこのエッセイを書くことは、私がエッセイを書くエージェンシーを奪っているのでしょうか。必ずしもそうではありません。それをどのように見るか、それをどう扱うかによります。
「このエッセイを書くのに3時間しかない。白紙のページから始めてそこに行くこともできるし、それから始めて反復することもできる。同じ3時間をやる。私がすることの質は非常に良くなる。そこに到達する方法、白紙ページ問題の解決策」と言います。
これが私と私たちにとって何を意味するかと言えば、物事を行う際の私の能力の多くの向上を持つということです。私の代わりに物事を行うエージェントを持ち、物事で私を助けるために利用可能なエージェントを持つでしょう。
人々にとって非常に具体的にするために、現在、平均的な一般開業医よりも優れた医療アシスタントを構築できます。これは一般開業医が去る必要があるということを意味しません。医療アシスタントプラス一般開業医ははるかに良い未来ですが、24時間365日利用可能で、おそらく計算推論コストが1時間あたり5ドル以下で誰でも利用できます。
1時間あたり5ドル以下を余裕がある場所なら、ユニバーサル医療、ちなみに弁護士も、教師も、チューターなどもです。これは私の利用可能性、能力、エージェンシーなどの大幅な向上です。
集合的なスーパーエージェンシー
スーパーエージェンシー側に入る最後の部分は、私が超能力を得るだけでなく、あなたも超能力を得ることが私のエージェンシーも向上させるということです。
医療アシスタントに戻ると、車が発明された時、私が医者に会いに行くために運転できるだけでなく、例えば私が本当に病気の場合、医者が私に会いに来るために運転できました。私が医療アシスタントに相談できるだけでなく、医療アシスタントを使用している医者が、自分自身のためや私の医療アシスタントエージェントと話すためにも、はるかに良い仕事をはるかに迅速に行うことができます。
「いや、これはエージェントが見逃したかもしれないと思うものです」や「あなたにとって本当に重要な方法で人間的なタッチを加える方法です。私があなたを見ている事実と、しばらくの間あなたを知っているかもしれないこと」などです。これがこのスーパーエージェンシーの向上の一部です。
ネットワーク自律性と自動化への懸念
これらのことをすべておっしゃる時は完全に賛成ですが、あなたの本を読んでいて、あなたが考え出したネットワーク自律性という概念について話していました。19世紀のドナー党の例を挙げて、彼らはより多くの自律性を持っていた、法律がはるかに少なく、西部開拓時代のようで、ほとんど何でもできたが、もちろん東海岸からオレゴンまでの旅は今よりもはるかに困難な旅でした。
今では電話を充電し、クレジットカードを持っていれば、どこでもはるかに簡単に行くことができます。これはすべて説得力がありますが、その後、交通がAIによって自動的に実施されることについて話していました。どこかに駐車すると、自動的に駐車料金を識別し、駐車後であれば自動的に罰金を科すなどです。
そして私は「待って待って」と言い始めました。これらすべてに接続されることは不快になり始めます。このようにAIが背後で多くのことを行う未来は、私たちの社会の働き方を実装することは、ユートピアなのかディストピアなのか。正直に言って、決められません。
良い社会構造の設計
実際には、ユートピアとは異なる言葉が必要だと思います。ポトピアや何かポジティブトピアのような。なぜなら、ユートピアは文字通りギリシャ語で「どこでもない場所」を意味するからです。
これが人間エージェンシー設計と人間の幸福、人間の向上設計がその原則である理由です。なぜなら、私たちは既に今日、社会の働き方の一部である背景で働いている多くのものを持っているからです。
エージェンシーの一つの質問は、Uberライドを取るアプローチをどうするかです。それを呼び出すと、そこにあり、来て、私が求めるところに連れて行ってくれるので、私のエージェンシーと移動性の向上を与えてくれます。
または、そこに行く唯一の方法で、運転がどれくらい上手かわからない人を呼び出し、知らない人の車に乗ることを恐れているなどの場合です。そうすると、それに閉じ込められているように感じますが、やらなければなりません。
エージェンシーはマインドセットの一部でもあります。ほとんどの人は、私のエージェンシーの拡張としてこの方法でUberを取るか、やらないで他の何かを見つけるかのどちらかを採用します。
しかし、Uberがどのように動作しているかの全体的な背景は、私のエージェンシーの向上です。これについて考える方法は、社会の構造をどのように設定するかです。頻繁に言われるのは、「構造の設定は規制機関、古典的なヨーロッパのGDPRなど、中央の意思決定者が決定している」ということです。
実際には、ネットワークの適応は本当に良いのです。顧客のネットワーク、従業員のネットワーク、株主のネットワーク、ビジネスを行う企業のネットワーク、調査を行い、特定のブランドシフトを引き起こす報道のネットワークなど。
これらすべてが実際に正しい場所に到達するための適応です。あなたが望むのは、人々がAIが彼らのためであり、それがどのように動作しているかについて彼らの利益のためであると感じる場所です。
監視技術と良いガバナンス
例えば、現代技術の頻繁な批判の一つは監視資本主義です。なぜなら監視が悪いと言うからです。しかし、実際には私は監視医学が好きです。なぜなら、私に何かが間違っている場合にそれを知ることは、病院に行く時、Whoop、Oura ring、Apple watchなどを着用する理由だからです。それは私のためだからです。
人々が「監視は本当に悪い」と言う時、例えばロンドンのCCTVを忘れています。アイルランドの爆撃事件などのために、ロンドンは広範囲で集中的なCCTVプログラムを採用しました。これをロンドン市民は本当に好んでおり、訪問者も本当に好んでいます。なぜなら、それは彼らに対してではなく、彼らのためにのみ使用されているからです。
それは東ドイツのようではありません。一部の人は同意しませんが、大多数は同意します。それはロンドンをより安全な都市にする一部であり、その他多くのことの一部です。なぜなら、犯罪である事柄、医療緊急事態である事柄など、そのようなことのみを探しているからです。それがすべてで、他には何も使用しません。それ以外には使用せず、それがすべてに使用されることを確実にするための健全なガバナンスシステムがあります。
不健全なガバナンスシステムに移行する時には常に危険があります。何が起こる可能性があるかわかります。技術的な政府の制限を頻繁に主張する人々は、政府が常に悪くなる可能性があるため、彼らの力を奪うべきだと考える傾向があります。
問題は、政府が悪くならないようにエネルギーを注ぐべきか、政府の技術的能力を制限することにエネルギーを注ぐべきかということです。一般的に言えば、良いガバナンスにエネルギーを注ぐ方が実際にはエネルギーを注ぐより良い方法だと思います。
AIのことに戻ると、もちろん私が完全に気づいていないAIのことが多く起こっているでしょう。会社が透明で、やっていることについての原則を公表し、報道や従業員、ガバナンス機関などとの関係があったとしても、多くのことが起こっています。
しかし、システムがより良い個人の人間エージェンシーと社会により良い集合的な社会エージェンシーと幸福に向けて広く学習し適応していることを確実にする必要があります。それは反復的なプロセスです。
選択の幻想について
いつものように、これらのことについて少し押し返すことを本当に嬉しく思います。なぜなら、あなたが書いたことをさらに興味深い洞察を得ているからです。
ここでもう一つの不一致を見ているかもしれません。見かけ上のものかもしれませんが、本当の不一致ではないかもしれません。あなたは、与えられた自動化が私のエージェンシーを向上させているか奪っているかを理解する方法は、私のフレーミング、私の扱い方、私の選択、私の情報に基づいた選択の問題だとおっしゃっています。
しかし、あなたの本でも、実際には今日インターネットからオプトアウトすることはできない、高速道路からこの方法でオプトアウトすることはできないとおっしゃっています。選択があるか、実際には選択がないかのどちらかです。
Uberの世界でも同じです。すぐにどこでも方法を取らなければならなくなるかもしれません。この選択は少し幻想的で、また、あなたが既に示唆している情報に基づいた部分も、誰もがAIがどのように動作するかを正確に洞察することを期待していません。
ある意味で、私はあなたのアイデアや私たちがいたい場所に非常に合致していますが、あなたが望むかどうかに関係なく、あなたは幸せにされ、これがあなたにとってより良いことだからですという感覚が少しあります。
技術採用の社会的プロセス
確実に、大多数の人々などと言った理由があります。なぜなら、「これは私が選択することではない」と言うさまざまな形の異常値が常にあるからです。テッド・カジンスキーは電気が好きではありませんでした。それは本当です。
「電気を現代社会によって私に強制されている。電気は欲しくない」と言って、そうです、現代社会に住みたいなら強制されています。私たちがすることのほとんどすべて、私たちがすることのほぼすべてに電気のバックボーンが必要です。
何が起こるかというと、一般的に大多数の私たちがこの方法で参加し、大多数の私たちがこの方法でより良い社会を得て、それが大多数に対して本当に選択しようとしている場合、それはあなたを極端な異常値に置き、それは作るのが非常に困難な選択になります。
車に乗りたくないと言う場合、電気を使いたくないと言う場合、高速道路を使いたくないと言う場合などに起こります。さらに具体的なものがあります。例えば、私が非常に規制に肯定的で、物語を与える場所の一つは車とシートベルトです。
車の多くのイノベーションは、道路に出る前に3,000ポイントのチェックリストに答えなければならないというGDPRのような中央規制機関があることによって起こるのではありません。車の周りすべてにバンパーと、車が来る車が来ると警告する小さなライトなどを含む。いいえ、車を道路に出させました。いくつかの事故などがありました。ちなみに、車の多くは市場自体によってイノベーションされました。
しかし、シートベルトに至ると、人々はシートベルトを望まず、製造業者はシートベルトをやりたがりませんでした。しかし、社会として「いいえ、シートベルトの方が良い。なぜなら産業を大幅に減らし、入院などで私たちが抱える社会的コストを大幅に減らすから」と言いました。
そして、シートベルトを義務付けるつもりです。安価なものです。人々は車がビープ音を鳴らすまで少し不機嫌になりますが、持っていることは良いことです。しかし、それを旅の中で発見するのです。それをやるアプローチとして始めるのではありません。
ちなみに、人々はそれについて不機嫌ですが、それは大丈夫です。それは規制の例です。そうは言っても、私たちは集合的に私たちの技術の社会構造がある場所に到達します。
ちなみに、その一部は集合的に私たちが未来をあまりよく想像しないということです。車が最初に発明された時、それらがどのようなものかを想像しません。車が最初に展開された時、規制の一つは非常に危険だったので、オレンジの旗を振りながら人がその前を歩かなければならないというものでした。
私たちはこれらの未来をよく想像しません。本の全体的な要点の一部は、未来についてのあなたの個人的またはグループの集合的な想像を過度に信頼してはいけないということです。実際にそれに入り、そして反復する必要があります。
簡単なリストとして持つべきいくつかのことは、非常に破滅的で事前に本当に予想する必要があるということですが、他のすべてのデフォルトでは、それに入り、それについて学び、進みながら調整しましょう。
規制の役割と安全性のイノベーション
GDPRが敵として現れたことに気づいたので、リスナーに説明する必要があります。これは本質的に、インターネット上で私たちについて収集されたデータをどのように処理できるかについてEUが課したかなり包括的な規制セットです。
特に、ヨーロッパのウェブサイトに行く時にクッキーについて尋ねられる時、それが実際に起こっていることです。ヨーロッパのIPから行くと思います。それがアメリカのウェブサイトでも表示される場所です。この規制の成功については確実に意見が分かれており、これは明確な利益なしに行き過ぎた規制の例としてしばしば使用されます。
車のアナロジーに戻ると、これは本でも使っていて、私も好きですが、そこでは少し違うことをおっしゃっていました。「イノベーションは安全性です」と言い、この点に同意します。安全であるために、安全性を助ける技術を開発する必要があるからです。
しかし、本では、基本的に安全性は顧客が望む機能になるため、とにかく起こると示唆されているようでした。これは車の開発の初期には確かに当てはまったと思います。車がただ故障したり爆発したりしていた時、明らかに誰もそのような車を買いたがりませんでした。
しかし、時間が経つにつれて、50年代と60年代にシートベルトの状況が展開した時には、顧客と企業の利益が分岐し、実際に私たちが現在持っている安全レベルに車を到達させるには規制が本当に必要でした。
アメリカの自動車会社の一人の幹部と話した人がいると思い出しますが、その幹部は「この規制のせいで、研究開発予算の80%が安全性と排出削減に費やされている」と不満を言っていました。その人は「ああ、無駄ですね。車をより速くできるのに、それをしなければならない」と言っていました。その人は「80%を90%にできませんか。これこそ実際に私たちが気にかけるべきことだから」と言っていました。
それが規制の成功で、必要でした。だから、未来をそれほどよく想像できないので反応的であるべきだということに確実に同意しますが、規制もここに現れる必要があると言っているのです。
市場メカニズムと政府の役割
実際に、それがシートベルトを持ち出した正確な理由です。なぜなら、それは安全性のイノベーションの主要なポイントであり、ちなみに継続しているからです。クランプル、エアバッグなどは、政府主導の安全規制によって出てきたのではなく、私の車は安全だから私の車対あなたの車を買うべきだとして出てきました。
しかし、それはしばらくしてから現れました。安全性の物語が現れ、星評価などができてから。しかし、これが全体的な要点です。一般的に、悪意ある批判的な対話と呼べるものは、企業自体が実際に安全市場を構築せず、実際に市場が安全性を構築しないということです。
答えはイエス、継続的にそうしますが、私が同意するのは、それは完全ではなく、政府の役割があるということです。安全機関の役割があります。しかし、最良の場合、それは破滅的なものを防ぐようなものであるべきで、破滅的とは「ああ、AIエージェントがアレックスを中傷した」ようなものではありません。
それは確実に私にとっては破滅的でしょうが、実際には破滅的ではありません。本当の破滅的なもの、そして私たちが学び進んでいる時の反復的なものです。なぜなら、私が議員さえもドゥーマーなどに指摘する部分は、私たちが入ろうとしているものの正確な形についていくらかの認識的謙虚さを持つことです。
答えは、私たちの中で最も賢い人でさえ、それを非常に間違えるだろうということです。ちなみに、私もそれに含まれるので、ユートピア、ディストピア、ポトピアなどについて非常に具体的な予測をすることができますが、その認識的謙虚さのため、すべての答えに常にいくらかの懐疑を持っています。
本当に興味深い質問は、進行中にポジティブトピアを選択する能力を向上させるツールセットをどのようにネガティブトピアよりも選択するようにナビゲートするか、そしてデータからだけでなく、学習する生き物として自分自身を考えることです。
人間とAIの協働の課題
確実に、反復的展開について私を説得する必要はありません。私はそれの大ファンです。OpenAIは初期の採用者だったと思いますし、私もそれを信じています。
気候変動について言ったように、来ることを知っており、すべての人が同意するわけではありませんが、ほとんどの人は同意しています。しかし、同意する人々の中でさえ、今やっていることと変化との関連性について、常にこの消極性があります。ある意味で悲劇の商取引のようで、集合的行動をまとめるのが難しいのです。
原因と効果がより遠いほど、この反復的展開でさえそれに考慮することが難しくなると思います。
私が触れたかった他の側面に戻りたいと思います。エージェンシーについて話す時、自動化だけでなく、私たちと協働し、私たちのエージェントになることについて話す時によく現れる概念は、ヒューマン・イン・ザ・ループという概念です。
正直に言って、この概念に少し懸念を抱いています。なぜなら、誰もがヒューマン・イン・ザ・ループということを投げ出し、あなたでさえ医師とAIアシスタントがいる時、明らかにこれはより良いと言っているからです。実際にはそれは真実ではありません。
実際にいくつかの研究で、AIモデルと人間を組み合わせても、どちらかより良くなるとは限らないことが示されています。時には最悪になります。人々がAIに延滞し始める過度の依存の問題があります。ヒューマン・イン・ザ・ループをどのように考えているか、成功する方法でどのように設定するか、ここでのレシピは何ですか。
研究への批判と訓練の重要性
これらの研究に対する私のイライラから始めましょう。それらの特定の研究を見たところ、「ああ、面白い」と思いました。問題は、彼らが測定したものが、「今、AIをほとんど経験したことのない医師に、AIを注入した」ということでした。
それはほとんど「新しいツールセットを持ってきたが、なんと、パフォーマンスが劣っている」と言っているようなものです。それは予測可能だったからです。なぜなら、興味深い質問は、コールドスタートをした場合ではないからです。
医師グループA、AIの経験なし、通常のことをしている。医師グループB、AIの経験なし、今AIを注入している。医師グループAの方が医師グループBよりも成績が良い。それは予測可能です。
しかし、私が話している研究は実際にはそれらではありません。しばらく前、まだ新しいものではなく専門家システムの前のAI時代にあったものです。
最近のものもあります。現代のシステムについて話すことができます。
しかし、依存の問題は、医師プラスエージェントのパフォーマンスを向上させるために、AIシステムをどのように構築すべきかを見ることになります。AIシステムを構築する方法は何か、医師を構築する方法は何か。ちなみに、それらは変わるでしょう。
古典的なチェスのアナロジーを使う多くの人がいるように、最初はコンピューターが人間を打ち負かし、次に人間プラスコンピューターが人間とコンピューターを打ち負かし、次にコンピューターがすべてを打ち負かします。チェスでそれが展開したからといって、すべての領域でそれが最終状態だと確信しているわけではありませんが、そのメタファーを理解します。
例えば、実際にAIが人間の介入によって妨げられることなくより良い医療決定を行うと言うとします。「いいえ、私の方が知っている、私は自分の価値を証明しなければならない」と言う利己的な人間によって。
それでも人間がそこにいると思いますが、実際には、より良いインパルスを得るために、人間は多くの再訓練を受けなければなりません。これらのことでは私が実際により良くないだろうし、そこに到達できるなら、AI エージェントがばかな人間は私の決定に疑問を持つなと働くようにしたくないからです。
エージェント設計で欲しい部分は何かです。これはスーパーエージェンシーが技術者のために書かれている部分ですが、人間エージェンシーについて考えることです。私は人間プラス機械に対してだけでなく、オリンピアードでいつも勝つから、よりよくやっているだけかもしれません。
しかし、ここでの私の機能の一部は、人間を連れていき、成長し進化するのを助けることです。それがエージェントの機能の一部であり、これらすべてのものに欲しい設計の一部です。
人間プラスAIに到達する時、人間が変わらなければならないので、それを単純な意味で言っているのではありません。時には人間は変わらなければならないでしょう。実際に、おそらくすべての場合で人間は何らかの変化をするでしょう。それは10%の変化か98%の変化かという問題です。
時には、最良の医療アドバイスだけでなく、医師と患者の両方を含む全体システムがどのように働いているかのフィットネス機能のためにAIを訓練する方法を具体的に微調整し変更しなければならない場合もあります。これがその種の設計フォーカスの意味です。
私たちが人間を完全に置き換える場所がないとは思いません。多くのことでそうするでしょう。ちなみに、このAItopiaの種類のものでさえ、多くのことになるでしょう。しかし、ちなみに、スタートレックの未来もナビゲートできると思います。移行は依然として困難ですが、それは抱えるべき良い問題です。
AIシステムとの効果的な協働
ここでは完全に同意していると思います。聞きたかった点は、人間と効果的に働くようにAIを設定することは困難な作業になるという認識でした。
その一部は、時間が経つにつれて、これは短いメールなら私が書いたメールをチェックして修正できるが、長いものなら、しばらくして、300通のメールをチェックしたが良かった、これもおそらく良いだろう、読まずに送ってしまうという過度の依存です。
また、会社がこのAIシステムを購入し、CEOが数億ドルを支払って実装することに興奮している時の他の質問もあります。私はこのプロセスのどこかにいて、AIを監督することになっていますが、時には電話があって確信が持てません。
実際に、このAIはOpenAIによって訓練されたと思うと、私が誰だと言って二番煎じするのでしょうか。90年代に「IBMから買えば誰も首にならない」という言葉があったように、「AIに従えば誰も首にならないが、それに逆らって間違えば首になる可能性がある」という話もありました。
これらすべての組織的、技術的、心理的側面に対処する必要があります。だからこそ、私の懸念があったのです。あなたがそれを理解し、文字通りそれを機能させるために多くの困難な作業があることを聞いて嬉しく、驚きはしません。
AIの信頼構築
このスレッドで最後に聞きたいのは、AIへの信頼構築についてです。AIは素晴らしく、公開および OpenAI で起こっている進歩に驚いています。素晴らしいことが起こっています。
しかし、AIは完璧ではありません。間違いを犯します。現在、私たちはAIが犯すどんな間違いにも非常にアレルギーがあります。通常の手法は、人間がこれについてとにかくはるかに悪いことを示すことですが、どういうわけか、人間が間違いを犯し、差別的で完全に不可解な時は問題ありませんが、AIがこれらのいずれかを行うと大きな問題になります。
信頼構築の展開はどうあるべきか、不完全なAIへの信頼を構築し始めるべきか、それとも本当に受け入れる前にAIは完璧でなければならないのでしょうか。
完璧を待つことは、実際に多くの人間の苦痛を引き起こすということに私たちは同意していると思います。なぜなら、「これらの医療アシスタントを今すぐ展開できる。医師にアクセスできない、医療アシスタントにアクセスできない多くの人々」と言えるからです。
実際に彼らの生活は改善され、子供たちとのナビゲート、子供たちに起こっていること、家族の他のメンバーなどがすべてはるかに良くなる可能性があります。いくつかの不完全さを受け入れ、それが起こるようにするために、説明責任と責任システムをその周りに構築する必要があります。
現在、それらはそのために設定されていません。なぜなら、現在、基本的に他の人間の説明責任と責任の限界は理解しているが、機械についてはそうではないからです。それは多くの人間の苦痛と死などを費やしている間違いです。だから、それを修正すべきです。
ワクチンの論争で起こることのように、技術のいくつかの場所でさえそれを見ます。時にはワクチンに有害反応を起こす人がいて、「ワクチンに有害反応を起こす人になることを恐れる」と言います。しかし、集合的に、私たちが何かに対して集団予防接種を受ける時、私たちは皆はるかに良い状態にあります。
一部の人が副作用を持つ宝くじの分類があったとしても、それはこの種の技術の別のバージョンです。私は完璧を期待しません。私たちがグループとしてより良くなり、それが起こる時により良いグループに参加し、賢い人々がそれを研究していることなどを確実にする必要があることを学ぶことを期待します。
専門知識への信頼の重要性
これは、おそらくアメリカ社会の過去数十年で最も間違った方向に進んだと思うことの一つです。それは専門知識の過度に批判的な解体です。専門家がすべてについて100%正しく、黄金として扱われるべきだということではありませんが、実際には専門知識を通じて多くの進歩を遂げてきました。
細菌理論についての科学者のパネル、ワクチンについての科学者のパネル、技術開発についての科学者のパネル、そして司法制度での陪審員などです。実際に、専門知識は本当に重要で、専門知識システムが良く機能し、私たちが進んでいく時に改善し学習しているため、私が専門知識に従う時があります。
これが、私たちのワイルドウェスト開拓者フロンティア リバタリアンが実際に非常に間違う可能性がある場所です。それは、専門家についてすべてを信頼するという意味ではありません。専門知識を埋め込み、進行中に改善し学習している良く機能するシステムを持つことです。
AIで起こっていることについて、私たちが望む類似点だと思います。なぜなら、ほとんどの人がAIを理解するかと言えば、実際にほとんどの人がしません。現代の大規模AIシステムについて当惑することの一つは、自然科学のようにそれを転換した複雑なものだということです。私たちは発見しているだけのものです。私たちが知らなかった権利です。
数学の科学ほどではありません。多くの数学がその中にありますが、自然科学ほどです。では、これらのものへの信頼をどのように構築するかは、質問に答え、精査と赤チーム化テストなどを生き残っている厳密な人間専門知識プロセスがあるからです。
実際にこれについて非常に良いものがあります。信頼を構築したい場所は、これが適切な種類のものに公開され説明責任を負うスマートで健全な科学的プロセスだと思うということです。
ちなみに、それらも発展しています。あなたの日常の市民が信頼に到達する方法は、システムへの信頼と、結果として見るものへの信頼の一種です。政府関係者に話していることの一つの理由は、医療アシスタントをできるだけ早く取得しようとすべき事柄です。
なぜなら、病院の救急科に行く以外に、非常に少数の人しかアクセスできない非常に少数の人が金曜日の午後11時に医療的質問があることを突然認識するからです。それが緊急かどうかわからない。私の赤ちゃんの腕のこの発疹は、病院に連れて行くべきか、医師に連れて行くべきものなのか、それとも少しベナドリルクリームを塗って大丈夫なのか。
それをどのようにナビゲートし、人々の手に入れるか。なぜなら、すべての人が突然「これは私にとって本当に魔法的なものです」と言うからです。「これはAIのためです」と言い、「ああ、AIがどのように魔法的かの一部を見ます」となります。それが最終的に信頼を構築する方法です。
AI活用の実際的な懸念
この視点に確実に共感します。繰り返しますが、過度の依存について呼びかけるだけです。時には人々はAIのことをやめます。実際に、OpenAIの同僚の一部は医師に行くのをやめました。
医師に行くのは非常に面倒で、私たちも忙しく、ChatGPTを使うだけで、彼らには効果があるようです。彼らは健康に見えます。しかし、非常に便利で良いように見えるので、良いに違いないという少し過度の依存があります。
専門家の重要性について確実に同意します。システムとしての専門家、単一の専門家ではなく、私たちが今いる場所について少し心配しています。そして、ベンチマークの問題もあります。これの例の一つは、あなたが医師を取り除くべきだと言っているのではなく、医師が利用できない場所、特に医師に加えてこれらのものも持つべきだと言っていることです。
MITでのパネルを思い出します。西側諸国の人が一人いて、「AIが医療アドバイスを提供することを許可できません。これとこれとこれがチェックされるまで、それは非常に高い基準です」と言っていました。
そして、そこにアフリカの人がいて、「待って待って。あなたの大きな都市で最高の医師がいるあなたにとって、これは非常に合理的なバーです。アフリカの私たちにとって、医師がいないよりもAI医師をいつでも取ります。だから、私たちのために決めないでください」と言っていました。
ベースラインの問題もありますが、繰り返しますが、人々がいくらかの信頼を構築する必要があるため、情報に基づいている必要があります。
特別なパラドックス
ところで、リベラルが頻繁に結び目に縛られる特別なパラドックスがあると思います。彼らは「例えばアフリカの農村部やその他の種類のコミュニティにAI医師を提供すべきか」と言います。
彼らは「いいえ、これらの壊れたシステムで彼らの苦痛から学ぶべきではない」と言います。あなたは上から目線です。はい、私たちは彼らに尋ねるべきです。心配事が何かを伝えるべきです。しかし、彼らが関与することを選択するなら、彼らは自分たちの幸福を知っているため、それは彼ら自身の大人の決定です。
私は文字通りこの種のことについてアカデミックな左派リベラルとの議論にありました。私は想像できます。彼らのエージェンシーを現実として扱うようにです。
確実に。起こっていることを説明し、リスクが何かを説明しますが、彼らに選択を与えます。それは非常に重要だと思います。
AIの地政学
グローバルな絵について話すと、前回話した時、AIの地政学について少し話しました。ここで各国が達成しようとすべきことについて興味深い考えがありました。この本でもこれについて話しており、機会について、しかしこれらの機会を取らないことの費用についても話しています。
イギリスのラッダイトの例ですね。イギリスが産業革命中に、ラッダイトが実際に勝った場合を想像してください。彼らは実際にリーダーだったのに、リードすることの重要性について話しています。
前回話してから、地政学的空間でどのように展開したと思いますか。アメリカ対中国のサッカー試合で、ヨーロッパが審判、中東はどこにいるのでしょうか。現在の状況についてのあなたの考えは何ですか。
シリコンバレーの多くの人々が、トランプが選挙に勝つ可能性の利益の一つがAIレースで有利になるだろうと合理的に主張しました。彼らが主張していた利益の種類は、実際に絡み合った悪いエネルギー規制があり、これを行うための一般的な目的のためにさえ十分なエネルギーを構築していないということです。
許可と土地とデータセンターがあり、遅くて困難です。頻繁な議論は、橋を建設するのに数年かかっていたのが、今では11年かかり、100倍の費用がかかるということです。これらはすべて非常に良い点で、それらは良い点だと言いました。
もしトランプ政権が実際にインテリジェントなガバナンスにコミットし、AI能力を加速しようとしていたなら、彼らはエネルギー規制、土地利用に取り組んでいたでしょう。私たちがこれを可能にする方法は何かと言って、それは私が良い産業政策だと思うものでしょう。
しかし、代わりに、大多数のアメリカ人の生活を損傷するであろう無駄な関税戦争に従事しているようです。AIの重要なことが「woke AI」だと考えているようで、その主張にはほとんど証拠がありませんが、困難な政治的ポスターを可能にしています。
明らかにこの政権の批判者であり、ハリスを当選させようとした人として、この政権から得られる利益があることに実際に心を開いてオブジェクティブでした。私は彼らが実際にアメリカ社会、西側社会をAIでフォアフロントのループに保つのに役立つ実際のAI産業政策に焦点を当てることを歓迎します。
アメリカの地政学的戦略
確実にエネルギーの前進は、地政学的観点からアメリカが前進するために重要でしょう。アメリカがすべきことはそれだけですか。
例えば、関税姿勢がアメリカにとって損害である理由の一つは、私が3月にヨーロッパを回っていた時、既にヨーロッパが「アメリカは信頼できないパートナーです。おそらく中国が信頼できるパートナーになるでしょう」と言い始めているのを見たことです。
「だから、中国人とはるかに多く働くべきかもしれません」と。パラドックスは、中国との競争でこれらすべてを行っていると言っている政権があることです。実際に中国と競争するつもりなら、アメリカオンリーで中国と競争するのではありません。
友人や同盟国やパートナーすべてに棒で打つためにそれを行うのではありません。いいえ、同盟とパートナーシップを形成し、これらの種類のことで私たちがあなたと働く方法です、これは肯定的なことになりますと言うべきです。
アメリカのAIについての否定的なことは、私が参加した多くの会話で、様々なビジネス人々とヨーロッパの政府関係者の両方が、民主主義などでより多くの価値を共有することに同意しますが、信頼できないランダムな関税を課し、これらの技術への信頼できないアクセスなど、アメリカンオンリー政策に見えることを進めるつもりなら、彼らとは価値が少ないとしても、おそらく中国人とよりパートナーすべきだと言っています。
成功することになる一連のことが起こっており、私たちは世界で人工知能のリーダーでありたいと言う上でよりパートナー志向であるべきです。アメリカンインテリジェンスにしますが、それはよくパートナーすることによってのみできます。
ヨーロッパの選択肢
アメリカはこの西側または西側以上の価値のようなAIの連合を構築すべきで、私たちが民主主義にAIでリーダーシップを取ってもらいたいのは、彼らがこのエージェンシー向上バージョンのAI未来を実現することに既得権益を持っているからだと本で指摘していると思います。それに同意します。
ヨーロッパについてはどうですか。ヨーロッパは今、サッカーのアナロジーに戻ると、アメリカまたは中国とボールをプレイできます。それが彼らの唯一の選択ですか。
いいえ、実際に私たちがアメリカ市民として、また人道主義者として望むのは、実際にヨーロッパが様々な独自のイニシアチブAI努力を行うことです。AIヨーロッパがスケール計算努力に到達できるかどうかはTBDですが、そこに到達しようとする様々な方法がありますが、多くのパスがあります。
最大のモデルを構築する者がすべての終わりとすべてではありません。最大のモデルにはさまざまな方法でいくらかの有用性がありますが、起こっている多くのことがあると思います。DeepSeekを見て、それを興味深い希望の概念として考えてください。
なぜなら、DeepSeekには明らかに蒸留があり、明らかに完全なストーリーと作成でわからないことがありましたが、早期バージョンのDeepSeekに「あなたは誰ですか」と尋ねると、ChatGPTだと言います。なぜなら、それは蒸留プロセスがそこに到達することにつながったという明確なサインだからです。
しかし、それはヨーロッパもできる種類のことを意味します。DeepSeekが独特に中国的で、中国だけができる唯一の種類のことではありません。GDPRと他のAI法規制のためにそこでそれができなかったかもしれませんし、それは残念です。
しかし、実際にDeepSeekのようなものを作ることは実際に有用です。フランス版、ドイツ版、イギリス版、ポーランド版を見たいです。これらすべてのことが起こるのを見たいし、単一版でも協力するのを見たいです。
ヨーロッパがゲームに参加し、ゲームから大きく遅れるのではなく、レフェリーをしようとするだけでなく、フィールドにいることで、私たちはアメリカ人として、人道主義者としてより良い状態になると思います。
中国のAI戦略
これは完全に理にかなっており、ヨーロッパ人として、戻るたびに送る同様のメッセージに再び共感しました。何が起こるかはTBDだと思います。才能があり、何かをするための意志があると思います。
しかし、中国についてはどうですか。DeepSeekのリリースは確実に、中国がAIについて本当に真剣で、AIでのリーダーシップの競争で良いポジションにいるという見解を支持しました。そこで次に何が展開することを期待しますか。
数年前、中国は2030年までにAIリーダーシップを持ちたいと発表したと思います。それはそれほど遠い未来ではありません。私たちはそれを真剣に受け止めるべきだと思います。中国の起業家や技術者や発明者だけでなく、彼らが会社を運営する方法、政府からの特定のことからも多くを学んだと思います。
彼らは賢く、意欲的で、有能で興味深い人々であり、私が西側民主主義スタンスと呼ぶものを提唱する主要な理由は多極的であることです。なぜ私が資本主義を好むか、私たちは同じ社会で一緒にいます。なぜ私が民主主義を好むか、私たちは同じ社会で一緒にいます。私もその種の価値のセットを共有する様々な国家間の多極性を望みます。
私が抱えている課題は、中国共産党は「私たちは民主主義だった、一度選挙があった」と言う傾向があることです。しかし、それは民主主義ではありません。それは、リーダーが投票で追い出す人々の能力に対して責任を負う人々の継続的な選挙権です。
私はそれが多極性の重要な部分だと思います。それが私が西側民主主義と私たちが持っている価値システムの強力な提唱者である理由です。アメリカだけでなく、アメリカはその一つですが、この一次AIリーダーの一つであることです。
しかし、これは再び、アメリカオンリーの姿勢を採用すると、実際に私たちのそれを行う能力を損なうという点の一部です。実際にヨーロッパと協力し、カナダと協力し、日本と協力し、他の多くの国々と協力し、アメリカのリーダーシップポジションでさえ、これについて多極的であることは非常に重要です。それの否定は、実際に私たちの失敗の可能性を高めています。
私たちは中国の競争をこれについて非常に真剣に受け止めるべきだと思います。
AI投資の戦略
地政学から離れて、あなたは偉大なAI思想家であるだけでなく、投資家、おそらく最初の投資家でもあり、起業家でもあり思想家でもあります。言うまでもなく、AIは過去10年間、投資家から多くの注意を引きました。
数十億ドルがこの事業、AIラボ、データセンターの構築に注がれたと思います。しかし、最近のAIにおけるスマートマネーはどこにありますか。投資に値すると思うAIのあまり明白でない方法は何ですか。
私は常にそれらのスマートなことを探しています。それが起業家との出会いの理由の一部です。なぜなら、200番目のコーディングエージェントを構築することを考えていない起業家、非常に異なる視点を持つ何かが、Airbnbの人々に会った時と同じだからです。「世界について全く異なる方法で考えている」のようなものです。
私がそれを例示している方法の一部は、いくつかの会社を共同設立することに行きました。なぜなら、エージェント革命が始まる前の非常に早い時期に、エージェントは非常に大きくなるので、Mustafa Sulleyman と一緒にInflectionを共同設立したからです。
そこでのアイデアは、EQがIQと同じくらい重要であることを訓練することでした。そのアイデアは今、システムでより広く始まっていると思います。それは人間エージェンシーと人間とのパートナーシップに役立ちます。
最近、薬物発見を加速し、癌を治癒する方法として、Manas AIを行いました。なぜなら、ほとんどの人々がシリコンかそれとも生物学プラス何でもコンピューターかという間違ったアプローチを持っていると思うからです。それらの間のプロセスを再発明することとは対照的で、それらの間の再発明が本質的に私たちがやっていることです。
最初の数ヶ月でも、いくつかの興味深い進歩を見始めていると思います。それは非常に希望的なサインだと思います。それは何か違うことをする方法の一種です。
スマートマネーがある場所の一部は、最良のリスクあるものを高く売ることで安く買う場所です。単に安く買って高く売るだけではありません。全体のことにリスク係数があります。
ちなみに、例えば非常に高くなる場合、実質的なリスクでさえ非常に安く買うことは非常に良いことができ、非常に低いリスクで中程度またはプレミアム中程度でさえ買うことは、そこに到達するのに非常に良いことができます。
それが主要ショップを選ぶ理由の一部です。スマート投資家も主要ショップを選ぶ傾向がある理由です。OpenAIが印象的なラウンドができる理由、ここはグローバルリーダーだからです。様々な範囲のスマートマネーとスマート投資がありますが、誰かがピッチにAIを入れたからといってではありません。
投資の視点と AI プラットフォーム
15年ほど前にシリコンバレーで起こったより娯楽的なもののいくつかを見ました。そのうちの一つは、Juiceroと呼ぶ非常に娯楽的な会社がいくつかありました。それはジューシングマシンにソフトウェアを適用するつもりだったからです。
「ジューシングマシンがたくさんあるが、これはソフトウェアのことではない。これは特に良い投資だとは思わない」と言いました。AIジューサーロがあったと言うようなものです。それは特定の見方ではありません。
独自のサイズモデルを事前訓練していないAI アプリケーション会社がたくさんあり、いくつかのモデルなどをやっているかもしれませんが、非常に良いアプリケーションを開発することは非常に価値があると思います。
ブレット・テイラーのSierraがその例で、それはその例のトンだと思います。だから、そこに投資するスマートマネーのトンがあると思います。AIが物事を変革する新しいプラットフォームになるという概念があるからです。
今から1年、2年、5年、10年、20年後。それは私が投資すべきトレンドです。AIをスライドデッキに入れたからといってではありません。技術、市場、起業家などのよりスマートな感覚を持つことです。
シリコンバレーの存在が与えるレンズの一つは、それがここでプレイされる非常に競争的で協力的なゲームだからです。
最後の質問:AI未来への期待
これは素晴らしかったです。忙しい一日の中で私たちに多くの時間を割けなかったことをお詫びします。最後の質問で締めくくりましょう。前回も聞きましたし、今回も再び聞きます。私たちのAI未来について、個人的に最も楽しみにしていること、または最も楽しみにしていないことは何ですか。
私たちが西側民主主義として最も台無しにする可能性があると思うこと、ヨーロッパがする傾向があることの一部は、私たちが行っていることの各ステップに70、80%の人々が買い込むことが必要だと言うことです。
そうではありません。シリコンバレーアプローチの天才と知性の一部は、賢い人々に物を作らせ、それを反復することだと思います。それが進歩を作る速い方法です。今、それはすべての議論があったものです。
私の心配は、私たちが集合的にそれを壊すことです。「いいえ、私は飛行機、電車、自動車などの運転手です。自律車両は欲しくない。これに買い込まれなければならない」などと言うからです。
いいえ、それは私たちの未来だけでなく、私たちの子供たちの未来などを壊すことになります。未来に集合的に入りましょう。それが私が心配することです。
希望の点では、より多くの人々がAI好奇心を持ち、参加することを望みます。スーパーエージェンシーで提唱しようとしていることの一部は、私を含むすべての人にとって、毎週これを試みることです。あなたの仕事、あなたの生活で、あなたにとって真剣で良い使用法を試みて、それを使用してください。
ちなみに、いくつかのことで壊れているでしょう。「ここで壊れている」と言う時。学者が行う最も一般的なことを見ると、「論文を書くように頼んだが、この引用が間違っていた。全く役に立たない。何もするつもりはない」と言います。
壊れた引用のために多くのものを見逃しているのです。いいえ、それに関与し、どこにあるかを見てください。数ヶ月前に座る喜びと楽しさがあった例をお話しします。
麻酔学の本を書いていたアトゥル・ガワンディと一緒で、彼は「ChatGPTの使用法があったが、DeepResearchを使ったことがあるか」と言いました。彼は「いいえ」と言い、私は「わかりました」と言いました。プロンプティングが良いことは明らかなので、30秒でプロンプトを書き、10分のDeepResearch結果を生成しました。
彼は「なんてこった、これは素晴らしい。直接引用を与えてくれる」と言いました。「これをあなたの研究アシスタントに送って確認しましょう」と言い、10の引用のうち3つが間違っていることを期待していました。実際には10の引用のうち9つが間違っていました。
「役に立たない」と言うかもしれません。しかし、実際には、研究アシスタントが戻ってきて、「10の引用のうち9つは間違っていますが、これが私を指示した領域は金であり、その領域を見つけるのに何十時間もかかったでしょう」と言いました。
あなたが生成したものでさえ、本当に情報に基づいた本をするために私が必要とするものを見つけるのを加速するのに役立ちました。真剣にそれについて、それに関与し、それを使用し、ちなみに、これは先ほど指摘した依存点ですが、それだけに依存するのではありません。
いいえ、積極的な方法で関与し、それでも高品質の作業を得るための大規模な加速器、大規模なヘルパーであり、それが私たち全員にとってAIが意味することへの私の希望です。
ありがとうございます。これは素晴らしかったです。いつものように、あなたとお話しできて本当に素晴らしかったです。いつでも。
今日は、私たちの代替ではなく、私たちのエネイブラーとしてのAIの提唱者であるリード・ホフマンとお話しする喜びがありました。私と同じようにこの会話を楽しんでいただけたことを願います。そうであれば、このポッドキャストを友人と共有し、購読し、コメントでフィードバックを残してください。


コメント