
私たちはあまり多くのモーターサイクルを持つことはないでしょう。おそらくゼロに近いでしょう。パラメータ数という意味で、以前のものと比べて桁違いに大きく、それゆえにより強力なモデルです。その理由の一つは、データがボトルネックになっているからだと思います。これらのモデルは、企業が手に入れられるほぼすべてのデータで既に学習されています。データがボトルネックになる一方で、より多くの計算能力はまだ役立つと思いますが、以前ほどではないかもしれません。準備はできていますか。
アービンド、とても楽しみにしていました。先ほど言ったように、私はサブスタックニュースレターのあなたの大ファンの一人です。本が出るのが待ちきれません。今日は参加してくださってありがとうございます。
ありがとうございます。とても嬉しいです。この会話がとても楽しみです。
さて、すぐに本題に入りたいと思いますが、サブスタックを読んでいない人のために、60秒程度で自己紹介をしていただけますか。なぜあなたが今日のトピックについて話すのにふさわしいのか、コンテキストを教えてください。
はい、私はコンピューターサイエンスの教授で、主に3つのことをしています。1つは技術的なAI研究、もう1つはAIの社会的影響の理解、そして3つ目は政策立案者へのアドバイスです。
インフラストラクチャーについて深く掘り下げる前に、今日のAIのハイプは、ビットコインのハイプとどのように比較されるのでしょうか。同じ点と違う点を教えてください。
私はこのことに何年も時間を費やしました。分散化が社会に大きな影響を与える可能性があると本当に信じていました。それが私にとって重要な視点でした。社会をより良くするためにこれがどのように役立つのか、というものでした。お金の側面ではありませんでした。しかし2018年頃には、かなり幻滅し始めていました。その理由は主に2つありました。
1つは、クリプトやブロックチェーンが解決策になると思っていた多くのケースで、実際にはそうではないと気づいたことです。例えば、クリプトが世界の銀行を利用できない人々を助ける可能性はありますが、技術が本当のボトルネックではないのです。
もう1つは、このコミュニティの哲学的な側面でした。私は多くの私たちの制度が改革や分散化を必要としていると信じています。それには学術界も含まれます。多くの改革が本当に必要です。理想的な世界では、制度をどのように修正するかについて、難しいけれども重要な会話をするでしょう。しかし、代わりに学生たちはブロックチェーンに夢中になり、これらの制度をスクリプトで置き換えたいと考えています。それは正しいアプローチとは思えませんでした。
技術的な観点からも哲学的な観点からも、私はそれに失望しました。AIには害もありますが、社会にとってはプラスだと思います。ビットコインについては同じことは言えません。
私たちは今、AIのハイプサイクルの中にいるのでしょうか。
それは可能性としてあると思います。AIが今バブルなのかどうかについて多くの議論がありますが、私は予測はしません。ただ、AIの会社、特に生成AIの会社が過去1、2年で深刻な間違いを犯したと思います。彼らがどのように物事を進めたかについてです。
彼らはどのような間違いを犯したのでしょうか、ハリン。
ChatGPTがリリースされたとき、人々は OpenAIが予想していなかったかもしれない1000の新しいアプリケーションを見つけました。それは素晴らしいことでしたが、AIの開発者たちはそこから間違った教訓を得たと思います。彼らは、AIはとても強力で特別なものだから、これらのモデルを出せば人々が何をすべきか理解するだろうと考えました。彼らは実際に製品を作ること、人々が欲しいものを作ること、プロダクト・マーケット・フィットを見つけることなど、テクノロジー業界では当たり前のことを考えませんでした。しかし、なぜかAI企業は、通常のルールは適用されないと思い込んでしまったのです。
最も難しい質問から始めたいと思います。しかし、それは最も重要な質問でもあります。あなたはこれについて書いていて、その記事が好きでした。今、誰もが聞いている核心的な質問は、「より多くの計算能力はパフォーマンスの向上につながるのか、それとも我々は計算能力が適合しなくなった点に達したのか」ということです。より多くの計算能力では、パフォーマンスの大幅な向上は生まれないのでしょうか。マイクロソフトのケビン・スコットは、「絶対にまだ多くの余地がある」と言っています。なぜあなたは懐疑的なのでしょうか。また、我々は計算能力の収穫逓減の段階に達したのでしょうか。
歴史的に見ると、計算能力がモデルのパフォーマンスを向上させた方法は、企業がより大きなモデルを構築することでした。少なくとも私の見方では、GPT-3.5とGPT-4の間で最も大きく変わったのはモデルのサイズでした。また、おそらくより多くのデータで学習され、より多くの計算能力が使われたでしょう。ただし、彼らはその詳細を公開していません。
私はこれが限界に達していると思います。我々は、以前のものと比べてパラメータ数が桁違いに多く、それゆえにより強力なモデルを、あまり多く、おそらくゼロに近い数しか持つことはないでしょう。その理由の一つは、データがボトルネックになっているからです。これらのモデルは、企業が手に入れられるほぼすべてのデータで既に学習されています。
データがボトトンネックになる一方で、より多くの計算能力はまだ役立つと思いますが、以前ほどではないかもしれません。その理由は、おそらく皮肉なことに、より多くの計算能力があれば、同じ能力レベルでより小さなモデルを構築できるからです。これは実際に、過去1年ほどで見られたトレンドです。ご存知のように、今日のモデルは、GPT-4が最初に登場したときと比べて、同じ能力レベルでややサイズが小さくなり、コストも安くなっています。私はこれが続くだろうと思います。
GPT-5は、GPT-4がGPT-3に対して行ったのと同じくらい大きな飛躍を見せるでしょうか。正直なところ、私は懐疑的です。
一つ一つ見ていきましょう。あなたが言った、データ不足がボトルネックになる可能性について、多くの素晴らしいポイントがありました。多くの人々は、まだ採掘されていないデータがたくさんあると言います。明らかな例として多くの人が挙げるのはYouTubeで、明らかに1500億時間の動画があります。次に、人工的なデータ、つまりまだ存在しない人工的なデータの作成があります。これらはどの程度効果的な反論となるでしょうか。
まだ採掘されていないソースはたくさんありますが、そのデータの量を見始めると、つまりそれが何トークンになるかを考えると、少し違う絵が見えてきます。1500億時間の動画は本当に印象的に聞こえます。しかし、その動画を音声認識にかけて実際にテキストトークンを抽出し、重複を除去すると、実際にはそれほど多くありません。今日の最大のモデルの中には、既にそれより1桁大きなデータで学習されているものもあります。
動画から抽出したテキストではなく、動画自体で学習することは、いくつかの新しい能力につながる可能性があると思います。しかし、これまでのような根本的な方法ではありません。以前は、新しい能力の出現がありました。モデルが、人々が予想もしていなかったことをできるようになったのです。
例えば、昔のことを思い出すと、GPT-2だったと思いますが、主に英語のテキストで学習され、他の言語のテキストを除外しようとしていました。しかし、わずかな量の他の言語のテキストが混入していました。そして、それだけで、モデルは様々な他の言語で会話する合理的なレベルの能力を身につけていたのです。
これらの種類の出現能力は、人々を本当に驚かせました。これが、多くのハイプと、より大きなモデルが何をできるようになるかについての多くの恐れにつながりました。しかし、私はこれはほぼ限界に達していると思います。なぜなら、我々は人間が表現した能力、例えば言語間の翻訳など、既にテキストの形で公開されている能力を学習しているからです。
YouTubeの動画でデータセットをもう少し多様にしても、根本的には変わらないと思います。マルチモーダル能力には多くの余地がありますが、新しい出現的なテキスト能力については、私はよくわかりません。
人工的なデータについてはどうでしょうか。まだ存在しない新しいデータの作成については。
これには2つの見方があります。1つは、人工的なデータが今日使われている方法で、トレーニングデータの量を増やすためではなく、実際には我々が持っているトレーニングデータの質の限界を克服するためです。
例えば、特定の言語のデータが少なすぎる場合、それを補強しようとしたり、あるいはモデルに多くの数学方程式を解かせ、それをトレーニングデータに入れることができます。次のトレーニング実行では、それが事前学習の一部となり、モデルはその作業がより上手になります。
人工的なデータを見るもう1つの方法は、1兆トークンを取り、モデルを学習させ、そして10兆トークンを出力させることです。そして、それを使って次のより大きなモデルを作り、さらに100兆トークンを出力させる…といった具合です。
私は賭けますが、これは単に自分の尻尾を食べる蛇のようなものです。過去2年間で我々が学んだのは、データの質が量よりもはるかに重要だということです。そのため、人工的なデータを使って量を増やそうとしても、それは質を犠牲にしているだけです。データから新しいことを学んでいるのではなく、そこにあるものだけを学んでいるのです。
データの有用性について考えている間に、エージェントの効果について見てみましょう。Scale.aiのアレックス・ワンがショーに出演したとき、彼は効果的なエージェントを構築する上で最も難しいことは、組織内で行う作業のほとんどを実際にはデータに符号化していないことだと言いました。例えば、学校で「考えを示せ」や「作業を示せ」と言われたことを覚えていますか。組織ではそうしません。ホワイトボードに書いたり、マッピングしたりして、そして考えたことを文書に書き込みます。ホワイトボードはデータソースとして、文書と相関していないことが多いです。現代の企業でモデルやエージェントが実際に行うための「作業を示す」データを、どの程度持っているのでしょうか。
はい、それは本当に的を射ていると思います。LLMの急速な改善によって、人々の直感が誤った方向に導かれたと思います。これらはすべて、ウェブ上の既存のデータから学習するというパラダイムの中にありました。そしてそれが尽きたとき、新しい種類の学習に切り替える必要があります。
自転車に乗るのと同じようなものです。それは暗黙知で、書き下ろされたものではありません。組織で起こることの多くは、私が思うに、自転車に乗るという物理的なスキルで起こることの認知的な等価物です。
モデルがこれらの多様な種類のタスク、つまりウェブから拾えないものを学習するためには、AIシステムを組織内で実際に使用し、そのやりとりの経験から学習するというサイクルが必要です。受動的に情報を取り込むだけでは不十分です。
現在の企業は、観察し、学習し、テストするために受動的なAI製品を組織に入れることをどの程度許容していると思いますか。本当にその意欲はあるのでしょうか。
私は、受動的な観察以上のものが必要だと思います。ある種の学習に到達するには、AIを実際に展開する必要があります。そして、それはとても遅いプロセスになるでしょう。良い類比は自動運転車です。プロトタイプは2、3十年前からありましたが、これらを実際に展開するには、データを収集しながら、少しずつ大規模に展開していく必要があります。信頼性の次の9(99.99%)から5つの9(99.999%)へと確実に到達するまで。
それは非常に遅い展開プロセスであり、非常に遅いフィードバックループです。組織内のAIの展開においても、多くの場合同じようなことが起こると思います。
あなたは小さなモデルについて言及しました。もう一度、申し訳ありませんが、私のショーが成功しているのは、私が誰もが持っている質問を、実際には答えを知らないことを認めるのを恐れずに尋ねるからだと思います。なぜ小さなモデルへのトレンドが見られるのか、そしてなぜそれがモデルの風景において最も可能性の高い結果だと考えられているのか、理解を助けていただけますか。
私の見方では、多くの場合、これらのモデルの採用を妨げているのは能力ではありません。これらのモデルが今日、できるすべてのタスクを実際に展開したら、それは本当に驚くべき経済的な変革になるでしょう。ボトルネックは能力以外のものです。大きなものの1つはコストです。もちろん、コストはモデルのサイズにほぼ比例します。これがモデルのサイズに大きな下方圧力をかけています。
モデルが十分に小さくなってデバイス上で実行できるようになると、もちろん多くの新しい可能性が開かれます。プライバシーの観点から、人々はオンデバイスのモデルをはるかに快適に感じます。特に、電話の会話を聞いたり、デスクトップのスクリーンショットを見たりするようなものの場合です。これらは、企業が構築し、推進しているまさにAIアシスタントの種類です。
そして、コストの観点からも、そのモデルを実行するためにサーバーを専用にする必要がありません。これらが、企業が能力を大きく損なうことなくモデルを小さくすることに必死に取り組んでいる理由の多くだと思います。
ムーアの法則によって、3〜5年という比較的短期間でコストが劇的に下がることはないのでしょうか。
おっしゃる通り、コストは劇的に下がっています。特定のアプリケーションでは、コストはあまり障壁にならなくなると思います。しかし、すべての分野でそうなるわけではありません。
なぜある分野ではコストが障壁になり、ある分野ではならないのでしょうか。
ジェボンズのパラドックスという興味深い概念があります。これは最初、18世紀のイギリスの石炭の文脈で出てきました。石炭採掘が安くなると、石炭の需要が増え、結果として石炭採掘への投資が実際に増加しました。
モデルでも同じことが起こると予測しています。モデルが安くなると、より多くのものに組み込まれ、結果として企業が推論に使う総額は実際に増加するでしょう。
チャットボットのようなタスク、つまりテキストを入力してテキストを出力するようなアプリケーションでは、大丈夫です。コストは下がるでしょう。誰かが一日中チャットボットと会話しても、おそらくあまり高価にはならないでしょう。
一方で、例えば誰かのすべてのメールをスキャンしたい場合、モデルが安くなれば、常にバックグラウンドで実行させることができます。そしてメールから、その人のすべての文書に移行するでしょう。添付ファイルの中には何メガバイトもあるかもしれません。そのため、ムーアの法則があっても、中期的にはコストは重要になると思います。
そして、コードを書くようなアプリケーションになると、同じタスクを何十回、何千回、時には文字通り何百万回も実行させ、最良の答えを選ぶことが実際に非常に有益であることがわかっています。そのような場合、コストがどれだけ下がっても、より良い品質の出力を得るために、単に再試行の回数を比例的に増やすでしょう。
我々は小さなモデルを持ち、それらはコストの面で効果的で人気があると言いました。これは計算能力の要件にどのような影響を与えるのでしょうか。
開発者がモデルを構築する際のトレーニング用の計算能力と、モデルが展開され、ユーザーが何かを行うために使用する際の推論用の計算能力があります。トレーニングコストを心配すべきだと思うかもしれません。結局、インターネット上のすべてのテキストなどで学習されているのですから。
しかし、モデルの寿命の間に、何十億人もの人々がそれを使用すると、推論コストは実際に積み重なります。多くの人気のあるモデルでは、それがコストを支配しています。
それぞれのコストについて話しましょう。トレーニングコストに関して、同じレベルの能力を持つ小さなモデル、または能力をあまり損なわないモデルを構築したい場合、実際にはより長く学習させる必要があります。これによりトレーニングコストは増加します。
しかし、それは許容できるかもしれません。なぜなら、小さなモデルを持つことで、消費者のデバイスにプッシュできるからです。あるいは、クラウド上で実行する場合でも、サーバーコストは低くなります。つまり、トレーニングコストは増加しますが、推論コストは減少します。
しかし、推論コストが支配的であるため、同じワークロードで小さなモデルを使用すれば、総コストはおそらく下がるでしょう。
計算能力とモデルの整合性について考えるとき、Anthropicのデビッド・クルーガーがショーで言っていたことがあります。彼は、フロンティアモデルを同じデータセンターで2回訓練することはないだろうと言いました。つまり、モデルの開発速度と、新しいハードウェアや計算能力の開発速度の間にミスマッチがあるということです。
これについてどう考えますか。我々は新しいモデルをとても速くリリースしているので、計算能力がそれに追いつけず、結果として18ヶ月前の古いH100ハードウェアで新しいモデルを訓練したくなくなる。新しいフロンティアモデルごとに、常に最新のハードウェアが必要になる、ということですね。
私たちはまだ、これらのモデルが完全にコモディティ化されていない期間にいると思います。明らかに多くの進歩があり、ハードウェアへの需要も非常に高いです。ハードウェアサイクルも急速に改善しています。
しかし、「すべての指数関数はシグモイド関数の変装である」という言葉があります。シグモイド曲線は、初めは指数関数のように見えますが、ある時点で頭打ちになります。Sの字の形を想像してください。すべての指数関数は、ある時点で頭打ちにならなければなりません。
私はモデルでもハードウェアサイクルでも同じことが起こると思います。それがいつになるかは予測できませんが、モデルがコモディティ化される世界に到達すると思います。
そのコモディティ化について話すと、私が興味を持っているのは、それらが突然コモディティ化された、あるいは同等のパフォーマンスを持つと判断するためのベンチマーキングです。あなたは以前、LLM評価は地雷原だと言いました。なぜLLM評価が地雷原なのか、理解を助けていただけますか。
その大きな部分は、「雰囲気」の問題です。LLMをこれらのベンチマークで評価しますが、ベンチマークでは非常に良いパフォーマンスを示すように見えても、実際に使い始めると何か雰囲気が違和感があり、ベンチマークでは捉えられないような多くの間違いをします。
その理由は単純に、これらのベンチマークで良い成績を出すようにという大きなプレッシャーがあるため、開発者は意図的にまたは無意識に、ベンチマークでは良く見えるが、実世界の評価では良く見えない方法でこれらのモデルを最適化しているからです。
GPT-4が登場し、OpenAIが司法試験と医師免許試験に合格したと主張したとき、人々は医師や弁護士にとってこれが何を意味するのかについて非常に興奮し、あるいは恐れました。答えはほぼ何もないことが判明しました。結局のところ、弁護士の仕事は一日中司法試験の問題に答えることではありません。
モデルがテストされているこれらのベンチマークは、実世界で我々が使用するものを本当に捉えていません。これがLLM評価が地雷原である一つの理由です。
また、汚染という非常に単純な要因もあります。モデルが既に評価されている答えで学習している可能性があり、新しい質問をすると苦戦するかもしれません。他にも様々な落とし穴があります。
そのため、ベンチマークにあまり重きを置くべきではないと思います。これらを実際に専門的な文脈で使用しようとしている人々、弁護士や本当に誰でも良いのですが、彼らのこれらのAIアシスタントを使用した経験に基づくべきだと思います。
司法試験に合格するなど、モデルの初期の使用例や、実際の世界でのアプリケーションについて言及しました。製品を構築している企業やそれらの企業のリーダーについて、もう少し深く掘り下げたいと思います。
ヤン・ルカンやデミス・ハサビスは、AGI(汎用人工知能)は我々が考えているよりも遠いと言っています。一方で、サム・アルトマンやダリオ・アモデイ、イーロン・マスクなどは、それが我々が考えているよりも早く来ると言っています。AI、特にAGIに関する企業リーダーの予測について、あなたの考察や分析を聞かせてください。
AGIが何を意味するのかについて少し話しましょう。人によって異なる意味を持っており、しばしば議論がすれ違います。我々が最も関連性が高いと考える定義は、「経済的に価値のあるほとんどのタスクを自動化できるAI」です。
これは非常に実用的な定義です。それが意識を持っているかどうか、人間のように考えるかどうかといった問題は気にしません。そのような質問は率直に言って、それほど興味深くないし、予測や推論も難しいです。
この定義、つまり経済的に価値のあるほとんどのタスクを自動化するという定義によれば、もし我々がAGIを持っていたら、それは本当に社会に深遠な影響を与えるでしょう。
さて、CEOの予測についてですが、心に留めておくべき一つのことは、AIの最初期から、半世紀以上にわたって、差し迫ったAGIの予測があったということです。アラン・チューリングの時代、最初のコンピューターが作られたとき、あるいは作られようとしていたとき、人々は「AIに必要な主な2つのものはハードウェアとソフトウェアだ。我々は難しい部分であるハードウェアを完成させた。あとは簡単な部分であるソフトウェアだけだ」と考えました。しかし、もちろん今では、それがいかに難しいかがわかっています。
歴史的に見ると、山に登るようなものだと思います。どこにいても、あと一歩で頂上に到達できそうに見えます。しかし、少し登ると複雑さが明らかになります。これを何度も何度も繰り返し見てきました。今は「ただモデルをどんどん大きくすればいい」というような馬鹿げた予測もありますが、すぐにその限界が明らかになり、次の複雑さの層が現れます。
これが私の見方です。CEOの過信的な予測にはあまり重きを置くべきではありません。
OpenAIが明らかに行っているように、AGIや超知能を追求しながら、同時に日常で使用できる価値のあるモデルや製品を作ることは可能でしょうか。それとも、そのバランスは相互に排他的なのでしょうか。
確かに、ある程度のバランスは可能だと思います。大企業は皆、ある程度これを行っています。研究所で行われる多くの研究があります。
OpenAIの優先事項が超知能とAGIの達成だとすると、最高の研究者や開発者、予算の中核はそこに向けられます。二つの優先事項がある場合、一方が優先されます。そこには確かに葛藤があります。
それは公平な指摘です。一方の部門が他方の邪魔をしすぎないように、経営陣の規律が必要でしょう。OpenAIでこれが起こっているのを見てきました。超知能に焦点を当てている人々は会社であまり歓迎されていないと感じ、非常に著名な人々の流出がありました。Anthropicは彼らの多くを獲得しています。
そのため、OpenAIが製品により焦点を当て、Anthropicが超知能により焦点を当てるという分裂が起きているように見えます。しかし、これが起こっている実際的な理由は理解できますが、両方の目標に焦点を当てる規律ある経営が不可能だとは思いません。
過去には、AI企業がゴールを作ることからプロダクトを構築することへピボットすべきだと言ったのはどういう意味でしたか。
過去には、彼らはこのバランスを持っていませんでした。AGIを作る見込みに夢中になるあまり、製品を作る必要があるとは全く考えていませんでした。私にとって最も奇妙な例は、OpenAIがChatGPTをリリースしたときに、6ヶ月間モバイルアプリがなかったことです。Androidアプリはさらに時間がかかりました。
ChatGPTは単に、モデルの能力を示すためのデモのようなものだという前提がありました。OpenAIはこれらのモデルを構築するビジネスを行っており、サードパーティの開発者がAPIを利用して製品に組み込むだろうと考えていました。しかし、AGIがすぐに来るので、製品化の概念さえ時代遅れに思えたのです。
これは私の言葉ではありませんが、一貫性はあるものの、私の見解では間違った哲学で、多くのAI開発者が持っていたものだと思います。これは今かなり変わってきていると思います。それは良いことだと思います。
もし一つを選ばなければならないなら、製品を構築することを選ぶべきだと思います。しかし、確かに企業がただのAGI企業になり、製品を作ろうとしない、人々が欲しいものを作ろうとしないというのは理にかなっていません。AIが非常に汎用的になり、人々が欲しいものをすべてやってくれるので、企業は実際に製品を作る必要がないと考えるのは間違いです。
プレイヤーとその投資する意欲を見ると、企業がAGI追求のどのレベルでも競争することは可能だと思いますか。ザッカーバーグは今後3年間で500億ドルを投資すると約束しています。OpenAIが過去3年間で調達した金額を見ると、その調達ペースを続けても、3年間でザッカーバーグの投資額に380億ドル足りません。Google、Amazon、Apple、Facebookのような企業でない限り、AGIのような製品や神のような製品を作ることはできるのでしょうか。
私たちは歴史的に興味深い期間にいます。多くの進歩が、より大きなモデルを構築することから来ています。しかし、これが将来も続く必要はありません。
続くかもしれませんし、あるいはモデル自体がコモディティ化され、多くの興味深い開発がモデルの上のレイヤーで起こるかもしれません。今、AIエージェントでそのようなことが多く起こり始めています。
もしそうなれば、素晴らしいアイデアはどこからでも来る可能性があります。2人のスタートアップから来るかもしれませんし、学術研究室から来るかもしれません。私の希望は、モデルのコモディティ化と、その上に価値を構築できるという認識により、比較的早くAI開発がそのようなモードに移行することです。
しかし、それは私が言ったことに戻るのではないでしょうか。つまり、本当に3〜4の主要なモデルがあり、それらは現金を生む巨大なクラウドビジネスによって資金提供されているということです。明らかにAmazonとGoogle、そしてFacebookにはInstagramとニュースフィードがあります。そして、3つの大規模なモデルプロバイダーが基盤モデルとしてあり、その上にすべての価値が構築されるということです。
それは起こる可能性があります。それは非常に深刻な可能性だと思います。これは実際に規制当局が注目すべき分野の一つだと思います。市場集中や独占禁止法にとって、これは何を意味するのでしょうか。
私の経験では、少なくとも米国の規制当局がこれらのトピックを考慮していることを嬉しく思います。英国のCMA(競争・市場庁)も同様です。そしてもちろんEUでも。考えてみると、多くの管轄区域で、規制当局がこれを懸念しています。
あなたが最初に言ったように、政策に関する仕事について、米国の規制当局やヨーロッパの規制当局に提案するとしたら、AIとモデルに関する米国とヨーロッパの規制について、最も積極的で効果的な政策は何だと考えますか。
ある意味で、AI規制は誤称です。例を挙げましょう。今朝のことですが、FTC(連邦取引委員会、米国の独占禁止法と消費者保護を担当する機関)は、人々が自分の製品について偽のレビューを書くことを心配しています。これはもちろん長年の問題でしたが、AIによってそれがはるかに簡単になりました。
これをAI規制の観点から考える人は、「規制当局はAI企業が偽のレビューを生成するために製品を使用することを許可しないようにしなければならない」と言うかもしれません。しかし、AIモデルがレビューが偽物か本物かをどうやって知るのでしょうか。それは単に誰がレビューを書いているかによります。
しかし、それはFTCが取ったアプローチではありません。彼らは正しく認識しました。AIが偽のレビューを生成しようが、人間が生成しようが、それは問題です。そこで彼らが実際に禁止したのは、偽のレビューそのものです。
AIの規制と呼ばれることの多くは、AIが使用されているかどうかに関わらず、特定の有害な活動を規制することとして理解する方が良いでしょう。AIの規制と呼ばれるものの80%は、このように見る方が良いと思います。
Anthropicのイーサン・モリックがショーに出たとき、彼は「実際に最も良いのは、許可して見守る政策だ」と言いました。彼はそれについて、私が知らない古代の学習教授からの素晴らしい原則を使って、もっと学術的なアプローチを取りました。
しかし、基本的に彼は「すべてを繁栄させ、そこから規制すべきだ」と言いました。結果を知らずに前もって規制するのではなく。これはあなたの考えと一致しますか。
大筋で同意します。ただし、いくつか追加したいことがあります。
1つは、我々が既に知っている多くの種類の害があり、それらは非常に深刻だということです。例えば、AIを使用して非合意の深フェイクを作ること、特に深フェイクのヌード画像です。これは世界中で、主に女性の数千人、おそらく数十万人に影響を与えています。政府はようやく行動を起こし始めています。それは良いことです。
検証の側面について、そして深フェイクについて言及しましたが、最近Twitterで誰かが言っていたと思いますが、AIの最大の危険は、偽のニュースを信じることではなく、本物のニュースを信じなくなり、疑うようになることだと指摘していました。
同意します。これを「嘘つきの配当」と呼んでいます。例えば、AIによってボットが誤情報を作成し、選挙に影響を与えることなどが懸念されてきました。しかし、我々はそれが本当の危険になるとは非常に懐疑的です。
なぜそれが本当の危険にならないと懐疑的なのですか。我々はメディア企業です。毎日AIを使用する素晴らしいメディア関係者がいます。今日、AIを使って人々が信じるような恐ろしいものを作ることができます。
しかし、AIなしでもそのようなものは作れたでしょう。これはAIの問題ではないと思います。トランプの声で中国に宣戦布告するフェイクを作ることはできませんでした。今日、トランプとのフェイクショーを作成し、それが本物だと偽って公開し、彼に中国に宣戦布告させることができます。
はい、それは公平な指摘です。しかし、多くの人々をだますかもしれない理由は、それが正当なメディア企業から来たからだと思います。これを行う能力が強調されることで、信頼できるソースなど、常に重要だったものがさらに重要になります。
そうすると、その世界では、検証済みでブランドの信頼性がある主要な主流メディアにはるかに多くの価値が集まるのではないでしょうか。人々がニューヨーク・タイムズからのものだとわかれば、それを信頼するということですね。
そうですね、それが私たちの予測です。人々は信頼できるソースからニュースを得ることをより強制されるでしょう。
それは心配ではありませんか。私は理解しますが、悲しいことに、人々は私たちが考えるほど賢くないと思います。誤情報の広がりを見ると、大規模な層が誤情報を受け入れる意欲があります。AIで生成された画像を含むツイートは、社会に大きな損害を与える可能性があります。これは本当に心配です。
誤情報は問題です。ある意味で、誤情報は原因というよりも症状だと思います。誤情報は人々の既存の信念に適合し、それを確認するものであり、信念を変えるものではありません。
ここでのAIの影響は、再び非常に誇張されていると思います。確かに、あなたが言及したようなトランプの深フェイクを作ることはできます。しかし、実際に出回っている誤情報を見ると、それはビデオゲームの映像のように粗雑なものです。なぜなら、それは人々が信じたいと思っていることを伝えているからで、そのような状況では人々はあまり懐疑的ではありません。
既存の信念を確認することについて言及しましたが、その区別は重要でしょうか。なぜなら、実際には自然に…例えば、最近の数週間でイギリスで暴動がありました。AIで生成された画像で、実際よりもはるかに多くの移民や暴徒が映っているものを作ることができます。そして、これが起こっているから参加すべきだという扇動と、そのAIで生成された材料による確認が行動を引き起こす可能性があります。つまり、それが信念を変えるかどうかは重要ではなく、行動を引き起こすことが問題なのです。
確かにそうです。しかし、再び強調したいのは、これは本当にAIの問題なのでしょうか。これらは社会の深刻な問題です。
そこにいた人々が実際よりもはるかに多かったように見える画像を作ることは、今日AIでより簡単になりました。しかし、AIが登場する前でも、誰かに100ドル払ってPhotoshopでそれを行うことができました。これは我々が持っていた問題であり、しばしば非常にうまく対処してきた問題です。
私の懸念は、これを技術の問題として扱い、技術に介入しようとすると、本当の問題を見逃してしまうことです。そして、それらの問題に取り組むために必要な難しいことを見逃すことになります。それらは社会の信頼の問題に関連しています。
技術の問題だとしても、それはAIの問題というよりも、むしろソーシャルメディアの問題です。誤情報の難しい部分は、それを生成することではなく、人々に配布し、説得することです。そしてソーシャルメディアはしばしばそのための媒体となります。
そのため、ソーシャルメディア企業にもっと責任を持たせるべきだと思います。これをAIの問題として扱うことで、より重要な介入からの注意をそらしてしまうことを懸念しています。
では、すべてのソーシャルメディア企業、AIの配信プラットフォームは、悪意のあるAI画像とそうでないものの判断者になるのでしょうか。
はい、今日、主な管理はソーシャルメディア企業によって行われていると思います。
コンテンツの誤情報に関して、私はあなたよりもこのことを心配しているようです。そこで、あなたがより緊急の懸念事項だと考えているものは何か興味があります。
深フェイクについて話していたとき、私は誤情報の深フェイクよりも、先ほど言及した深フェイクのヌード画像についてずっと心配しています。これらは人の人生を台無しにする可能性があります。数ヶ月前にテイラー・スウィフトに起こるまで、メディアや政策立案者がこれにほとんど注目していなかったことに驚きました。
テイラー・スウィフトの深フェイクのヌード画像がTwitter(現X)に投稿されました。その後、政策立案者が注目し始めましたが、これは最新の生成AI技術が登場する前から何年も起こっていました。
これは非常に明確な種類の悪用です。そして、同じように危険ではないかもしれませんが、社会に多くのコストを課す他の種類の悪用もあります。
例えば、学生がAIを使って宿題をする場合、高校の教師や大学の教師は皆、学生がこれを行っているという事実を考慮に入れて、教え方を全面的に見直さなければなりません。AI生成のテキストや宿題の答えを捕捉する方法は本当にありません。
これらは社会にコストを課しています。AIの利用可能性が教育を悪化させると言っているわけではありません。必ずしもそうではないと思います。しかし、教育システムに多くのコストを強いています。理想的には、AI企業がそのコストの一部を負担すべきです。
アービンド、私たちはまだ医療について非常に遠いところにいると思います。例えば、「AIによってポケットにGPを持てるようになる」と言う人がいますが、それは馬鹿げています。GPは肘を触診し、X線を見て、耳の中を見て非常に具体的なことを観察し、鼻の中を見ます。スマートフォンを鼻の中に突っ込むわけにはいきません。腕を触ることもできません。なぜ私が間違っているのか、そしてなぜAIが医療革命を起こし、誰もがポケットにGPを持つことになるのか、理解を助けてください。
確かに、あなたは間違っていないと思います。この話題が多く出てくる理由は、医療システムのような制度に問題がある場合、つまり待ち時間が長すぎる、コストが高すぎる、あるいは多くの国では、特に発展途上国では、医師のいない村全体があるような状況で、この種の技術的な応急処置が非常に魅力的に見えるからです。
私はそれが起こっていると思います。医療におけるAIの責任ある使用方法は、医療システムに統合されることだと思います。実際、医療システムは技術、特にAIの非常に熱心な採用者です。
例えば、CTスキャンはある種のAIと考えることができます。特定の画像に基づいて人体の内部で何が起こっているかを再構築する能力です。そして今、生成AIでも、医療システムは診断に役立つか、あるいはより mundane なことでは医療記録の要約などに役立つかどうかを理解しようと、大きな関心を持っています。
この作業は本当に重要だと思います。これは続けるべきです。しかし、より難しい問題が残されています。例えばアメリカでは、GP(一般開業医)の予約に3週間かかる場合、症状についてChatGPTに質問したくなるのは非常に魅力的です。
では、これについてどうすべきでしょうか。適切な保護措置があれば、それは実際に役立つ可能性があるのでしょうか、それとも discourage すべきでしょうか。私にはその答えはわかりません。
私の懐疑論に同意していただいて嬉しいです。教育にも同じことが当てはまります。誰もが「ポケットにチューターがいるのは素晴らしい」と言います。はい、わかります。しかし、家で見られるビデオもあります。チューターは個人的な関係を持ちます。一対一で、私はあなた、アービンドに感銘を与えたいという個人的な欲求があり、能力や可能性を満たしたいと思います。AIにはそれがありません。
AIが教育の未来、一対一の指導、そして学生のレベルアップにどのように影響すると思いますか。
学習者には異なる集団があると思います。非常に自己動機づけができ、物理的なチューターがいなくても非常によく学ぶことができる学習者の小さなサブセットがあります。これは小学校レベルでも、大学レベルでも、専門家レベルでもそうです。すべての異なるレベルでそのような学習者がいます。
そして、学習の社会的側面が本当に最も重要な大多数の学習者がいます。それを取り除くと、彼らは本当によく学ぶことができません。これはしばしば忘れられています。特にAI開発者コミュニティには、これらの自己学習者が多くいるからです。
私もその一人です。学校や大学ではまったく注意を払わず、文字通り私が知っているすべてのことは自分で教えたものです。私はインドで育ちました。そこの教育システムはあまり良くありませんでした。地理の先生は、インドが南半球にあると思っていました。本当の話です。
そのため、文字通り私が知っているすべてのことは自分で教えたと言えます。多くのAI開発者が自分を典型的な学習者と考えていますが、そうではありません。
私のような人にとって、AIは日々学習のための素晴らしいツールです。私は学習のために生成AIツールを使用しています。それは非常に役立ちます。なぜなら、本や他のものと比べて新しい学習方法だからです。もちろん、学習のために本を使用することをやめたわけではありません。しかし、本に質問することはできませんし、トピックについての理解を本に要約して、それが正しいかどうか尋ねることもできません。これらはAIでできることです。
しかし、これらの新しい種類の学習が、人々が学ぶデフォルトの方法になるほど早く到達するとは非常に懐疑的です。
人々は仕事の置き換えの恐れを大幅に過大評価していると思いますか。新しい技術が登場するたびに、常に仕事の置き換えが起こりますが、最終的には以前よりもはるかに多くの仕事を生み出す傾向があります。ここでもそうだと思いますか、それとも仕事の置き換えの恐れは正当化されると思いますか。
今のところ、それらは非常に誇張されていると思います。あなたが言った、技術が仕事を生み出す例の私のお気に入りは銀行の窓口係です。ATMが登場したとき、窓口係がなくなると考えるのは理にかかっていました。しかし、実際には窓口係の数は増加しました。
その理由は、銀行が地域の支店を開設するコストが大幅に下がったからです。そして、それらの地域支店を開設すると、ATMではできないいくつかのことのために人間が必要でした。
より抽象的に言えば、経済学者が言うように、仕事はタスクの束です。AIはタスクを自動化しますが、仕事全体を自動化するわけではありません。ある仕事が20の異なるタスクで構成されているとすると、AIがその20のタスクすべてを自動化できる可能性は非常に低いです。
確かに、翻訳やストック写真のように、AIによってすでに大きく影響を受けている職業もあります。しかし、ほとんどの仕事について、私たちはそこまで近づいていないと思います。
もう一つ私を心配させるのは、実際に防衛です。以前言及したScale.aiのアレックス・ワン氏は、AIは核兵器よりも大きな武器になる可能性があると言っていました。これについてどう考えますか。そしてもしそうだとすれば、本当にオープンモデルを持つべきでしょうか。
それは良い質問だと思います。少しカテゴリーエラーがあると思います。核兵器は実際の武器です。AIは武器ではありません。AIは、敵対者が特定のことをより効果的に行うことを可能にするかもしれないものです。
例えば、重要インフラのサイバーセキュリティの脆弱性を見つけるなどです。これは、AIが「戦場」で使用される可能性がある一つの方法です。
そうであるとすれば、それを武器と類推して考え、閉鎖すべきだと主張するのは大きな間違いだと思います。いくつかの理由があります。
まず、それは全く機能しません。私たちは既に、ほぼ最先端のAIモデルが人々の個人用デバイスで実行できるようになっています。そのトレンドは加速するだけだと思います。以前、ムーアの法則について話しましたが、これらのモデルにもまだ適用されています。
ある国がモデルを閉鎖すべきだと決定したとしても、すべての国がそのような規則を制定する可能性は限りなく低いです。
AIの安全性へのアプローチが、「悪い人々」がアクセスできないようにすることに基づいているとすれば、我々は既に負けています。なぜなら、それが不可能になるのは時間の問題だからです。
その代わりに、AIが非常に広く利用可能になる世界で、安全のためにAIをどのように使用するかを理解する必要があります。AIは広く利用可能になるからです。
過去にどのようにそれを行ってきたかを見ると、実際にはとても安心できる話です。サイバーセキュリティの例に戻ると、10年か20年の間、ソフトウェア開発コミュニティは、AIと呼べるような自動化ツールを使用してサイバーセキュリティを向上させてきました。
なぜなら、ソフトウェア開発者はそれらを使用して、ソフトウェアのバグを見つけて修正し、ハッカーが攻撃する機会を与える前に修正できるからです。
私の希望は、AIでも同じことが起こることです。AIが広く利用可能になることを認識し、防御のために使用することを形作ることができるでしょう。攻撃よりも防御に使用されることを。
アービンド、過去2年間のAIの発展について、あなたが以前信じていたが、今では信じなくなったことは何ですか。
多くの人と同様に、私もGPT-3.5の後、GPT-4がどれほど早く登場したかにだまされました。わずか3ヶ月ほどでしたが、実際には18ヶ月間トレーニングされていたことが後で明らかになりました。
これにより、私を含む多くの人々に、AIが急速に進歩しているという誇張された考えを与えました。しかし、GPT-4が登場してから1年半近く経った今、それを意味のある方法で超えるモデルは実際には登場していません。
これはベンチマークに基づくものではありません。再度言いますが、ベンチマークはあまり有用ではありません。むしろ、人々がこれらを使用する際の「雰囲気」に基づいています。彼らは何と言っているでしょうか。モデルはGPT-4を質的に大きく改善していないと思います。12ヶ月前に考えていたほど、物事は速く動いていないと思います。
その進歩の欠如の理由は… モデルをより大きくすることがもはや機能しなくなったようです。新しい発展は、異なる科学的アイデアから来る必要があります。エージェントかもしれませんし、他のものかもしれません。
今日の社会におけるAIについての最大の誤解は何だと思いますか。
私たちの直感はSFのAI描写によって強力に形作られすぎていると思います。それは本当に大きな問題だと思います。
AIが自己認識を持つ可能性があるという考えは、今日のAIのアーキテクチャを見ると、そのような恐れには現実的な根拠がありません。
おそらく将来的には、人々がそのようなことが少なくともある程度可能なAIシステムを構築するかもしれません。我々は、開発者がそうしないように、これらのシステムの可視性、透明性、監視、規制を持つべきです。
しかし、それは選択です。社会が選択できる選択肢です。政府や企業が選択できる選択肢です。我々の最善の努力にもかかわらず、AIが意識を持ち、主体性を持ち、人類に有害なことを行うようになるという恐れの全体的な流れは、完全に根拠がないと思います。
アービンド、クイックファイアラウンドをしたいと思います。一日中あなたと話したいのですが、クイックファイアラウンドをしたいと思います。短い文を言うので、すぐに思いついたことを言ってください。よろしいですか。
はい、やりましょう。
なぜAIのリーダーボードはもはや有用ではないのですか。
ベンチマークと実世界のギャップが大きく、AIがより有用になるにつれてそのギャップはさらに広がっているからです。これらの人工的な環境に基づいて、どれほど有用かを判断するのは難しくなっています。
もし一日だけOpenAIのCEOになれたら、何をしますか。
私は辞任します。良いCEOにはなれないと思います。しかし、OpenAIについて一つ変えられるとしたら、AIの開発で何が起こっているかを公衆が知る必要性は、どの企業の商業的利益よりも優先されると思います。もっと透明性が必要だと思います。
エージェントの未来についてのあなたのビジョンは何ですか。
映画「Her」で見られたような、SF的な側面ではなく、より mundane な側面を希望しています。デバイスにコマンドを与え、それがかなりニュアンスのある方法で解釈し、あなたが望むことを行うようなものです。
例えば、フライトチケットを予約したり、本当に望む外観に基づいてアプリを構築したりするようなことです。これらは潜在的に自動化可能で、非常に疑わしい社会的結果を持たないものです。これらのことが起こることを希望しています。
企業はますますチップと計算レイヤーに移行し、NVIDIAと競争するようになるでしょうか。それとも、継続的なNVIDIAの独占で、みんながNVIDIAから購入し続けると思いますか。
NVIDIAが自社をハードウェアからサービス企業に移行しようとしていることは興味深いですね。そして、みんなが彼らのビジネスに移行しようとしています。
テクノロジー政策が90%の時間で frustrating なのはなぜですか。
多くの技術者は政策を軽蔑しています。政策立案者を率直に言えば「愚か者」と見ています。しかし、そうではないと思います。政策が非常に遅く、技術専門家が望むような方向に進まないことには、多くの正当な理由があると思います。
これが90%の frustration です。90%と言ったのは、残りの10%は本当に価値があるからです。我々は本当に政策が必要で、frustrating であるにもかかわらず、多くの技術専門家が政策に関わる必要があります。
どの国がAIのリーダーになり、どの国がAIで遅れをとるでしょうか。
生成AIに関しては、米国のアプローチが気に入っています。規制の必要性を理解しつつ、技術の発展を妨げるほど早急にならないようにしています。他の国については詳しく見ていませんが、米国でのAI開発の将来に楽観的です。
ヤン・ルカンとジェフ・ヒントンのどちらの立場に賛成しますか。
ヤン・ルカンの様々な視点、特にLLMが「超知能から遠い」という見方が本当に好きです。つまり、私たちはまだ多くの科学的なブレークスルーが必要で、超高度なAIへの恐れを抑える必要があるということです。
あなたが決して尋ねられないが、尋ねられるべき質問は何ですか。
これを言うのは奇妙ですが、「子供たちのことを考えてください」と言わざるを得ません。それが意味するのは、今日生まれる子供たちの生活におけるAIの役割は非常に profound になるということです。
技術者は考えるべきですし、すべての親が考えるべきですし、政策立案者も考えるべきです。なぜなら、それは非常に良いものにも、非常に悪いものにも、またはその中間のどこかにもなり得るからです。
技術者として、また親として、私はそのことをよく考えています。
アービンド、私の脱線した質問に付き合ってくださってありがとうございます。とても楽しかったです。
これは本当に楽しかったです。時々長々と話してしまって申し訳ありません。放送されたときに聞くのが楽しみです。


コメント