現代AIの巨匠たち:ジェンスン・フアン、ヤン・ルカン、フェイフェイ・リー、そしてAIが描く未来のビジョン | FT Live

ノーベル賞・巨匠
この記事は約26分で読めます。

本動画は、2025年のクイーン・エリザベス工学賞を受賞したAI分野の6人の先駆者たちによる歴史的な対談である。ジェンスン・フアン、ヤン・ルカン、フェイフェイ・リー、ジェフリー・ヒントン、ヨシュア・ベンジオ、ビル・ダリーという現代AIを形作った巨人たちが一堂に会し、彼らのキャリアにおける決定的瞬間、深層学習の誕生から現在のLLMブームに至るまでの道のり、そしてAI投資バブルの真偽について率直に語る。特に注目すべきは、現在のAIブームが過去のドットコムバブルとは本質的に異なること、LLMが既に人間レベルの知能に到達している側面がある一方で、空間知能やロボティクスなど未解決の課題が残されていること、そして人間レベルのAGI到達時期について専門家間でも見解が分かれることである。この対談は、AI技術の現在地と未来を理解する上で極めて貴重な記録となっている。

The Minds of Modern AI: Jensen Huang, Yann LeCun, Fei-Fei Li & the AI Vision of the Future | FT Live
Six of the most influential minds in artificial intelligence joined FT Live for an exclusive conversation on how their b...

AI革命を牽引した6人の先駆者たち

皆さん、こんにちは。午後の方も、朝の方も、こんにちは。そして私は、ここにテーブルを囲んで座っている本当に卓越した人々のグループを皆さんに紹介する役割を選ばれたことを大変嬉しく思います。今日この地球上で最も聡明で、最も影響力のある6人の方々だと思います。これは決して大げさな表現ではありません。

この方々は、2025年のクイーン・エリザベス工学賞の受賞者です。この賞は、今日の人工知能技術に対する卓越した影響力について、ここにいる受賞者の皆さんを称えるものです。先進的な機械学習とAIにおける皆さんの先駆的な業績、そして皆さんが構築を支援したイノベーションが今日の私たちの生活をどのように形作っているかを考えると、これが本当に稀有で刺激的な機会であることは誰の目にも明らかだと思います。皆さんがこのテーブルに一堂に会しているわけですから。

個人的には、私たちが今いるこの瞬間、誰もが先取りして理解しようとしているこの瞬間について、皆さんがどう振り返るのか、そして今日ここに至るまでの旅路について聞くことを本当に楽しみにしています。しかしまた、皆さんの仕事と個人として、お互いに、そして皆さんが構築した企業や技術にどのように影響を与え、インパクトを与えてきたのかを理解したいと思っています。

そして最後に、皆さんに先を見据えていただき、これから何が起こるのかをもう少し明確に見る手助けをしていただきたいと思います。その点において、皆さんは最適な立場にいらっしゃいますから。ですので、今日皆さんが私たちと一緒にいてくださることを大変嬉しく思いますし、この議論を楽しみにしています。

研究者たちの「目覚めの瞬間」

では、大きな視点から非常に個人的なところまで、話を始めたいと思います。皆さんそれぞれから、キャリアにおける個人的な「アハ体験」の瞬間について聞きたいと思います。皆さんが行ってきた仕事に影響を与えたり、今日ここに座っている理由につながる転機となった瞬間です。それがキャリアの初期や研究の初期だったのか、あるいはもっと最近のことだったのか。この技術に影響を与えた皆さんの個人的な目覚めの瞬間とは何だったのでしょうか。こちらのヨシュアさんから始めましょうか。

ありがとうございます。喜んでお話しします。私は2つの瞬間を挙げたいと思います。1つは、私が大学院生だった時、研究すべき面白いものを探していて、ジェフ・ヒントンの初期の論文をいくつか読んだ時です。そして思いました、「すごい、これは本当にエキサイティングだ。物理学の法則のように、人間の知能を理解し、知的な機械を構築するのに役立つ、いくつかのシンプルな原理があるかもしれない」と。

そして2つ目の瞬間についてお話ししたいのは、2年半前、ChatGPTが登場した後のことです。そして私は気づきました。「おっと、私たちは何をしているんだ?」と。言語を理解し、目標を持つ機械を構築したら何が起こるのか、そしてその目標を私たちがコントロールできなかったら?もし機械が私たちより賢くなったら何が起こるのか?もし人々がその力を悪用したら何が起こるのか?だから私は、研究アジェンダとキャリアを完全に転換し、それについて自分にできることは何でもしようと決めたのです。

それは2つの非常に対照的なことですね。大変興味深いです。ビル、私たちが今持っているものを動かしているインフラの構築について教えてください。

私も2つの瞬間をお話しします。1つ目は、90年代後半、スタンフォードで当時「メモリウォール」と呼ばれていたものをどう克服するかを考えていた時です。メモリからデータにアクセスすることが、その上で演算を行うよりもエネルギーと時間の面ではるかにコストがかかるという事実です。そして、ストリームで接続されたこれらのカーネルに計算を組織化するというアイデアがひらめきました。そうすれば、多くのメモリアクセスを必要とせずに、多くの演算を実行できます。

これが基本的に、ストリームプロセッシングと呼ばれるものへの道を開き、最終的にはGPUコンピューティングにつながりました。そして私たちは元々、GPUをグラフィックスだけでなく、一般的な科学計算にも適用できると考えてそれを構築しました。

深層学習とGPUの出会い

2つ目の瞬間は、スタンフォードの同僚アンドリュー・エンと朝食を共にしていた時です。当時、彼はGoogleでニューラルネットワークと呼ばれる技術を使って、16,000台のCPUでインターネット上の猫を見つける仕事をしていました。これはフェイフェイが何か関係していた技術です。彼は基本的に私を説得しました。これは素晴らしい技術だと。そこで私はブライアン・カテンザロと一緒に、Nvidiaの48台のGPUでその実験を繰り返しました。

その結果を見た時、私は完全に確信しました。これがNvidiaがすべきことだと。深層学習を行うためにGPUを構築すべきだと。なぜなら、これは猫を見つけることを超えて、あらゆる分野で巨大な応用があるからです。そしてそれが、深層学習のためにGPUを専門化し、より効果的にするために本当に一生懸命働き始めるきっかけとなった「アハ体験」のようなものでした。

それはいつのことでしたか?何年ですか?

朝食は2010年で、実験を繰り返したのは2011年だったと思います。

なるほど。ジェフ、あなたの仕事について教えてください。

非常に重要な瞬間の1つは、1984年頃、私が逆誤差伝播法を使って単語の並びの次の単語を学習させようとした時でした。つまり、それは小さな言語モデルで、単語の意味のための興味深い特徴を学習できることを発見したのです。

つまり、単に記号の列を与えて、記号の列の次の単語を予測しようとするだけで、単語を単語の意味を捉えた特徴のセットに変換する方法を学習でき、それらの特徴間の相互作用で次の単語の特徴を予測できるのです。つまり、それは実際には1984年後半の小さな言語モデルで、これらの大規模言語モデルの前駆体だと私は考えています。基本原理は同じでした。ただ小さかっただけです。トレーニング例は100個でした。

でもここに至るまで40年かかりました。

そして、ここに至るまで40年かかりました。40年かかった理由は、計算能力がなかったからですし、データもなかった。そして当時はそれが分かりませんでした。なぜ逆誤差伝播法ですべてを解決できないのか理解できませんでした。

そこで話はすっきりとジェンスンさんにつながります。40年間計算能力がなかったのに、今あなたがそれを構築しているわけですから。本当に明確になった瞬間について教えてください。

私のキャリアにおいて、私は高レベルの表現とデザインツールを使ってチップを設計できた最初の世代のチップデザイナーでした。その発見は、2010年頃に新しいソフトウェア開発方法について学んだ時に役立ちました。同時に3つの異なる研究室から起こっていたことについてです。トロント大学の研究者が私たちに連絡してきたのと同時に、NYUの研究者も連絡してきて、スタンフォードの研究者も同時に連絡してきました。

私は同じ頃に、フレームワークと構造化された設計を使ってソフトウェアを作成するという、後に深層学習となるものの初期の兆候を見ました。そのソフトウェアは驚くほど効果的であることが分かりました。

その2つ目の観察、つまり深層学習ネットワークのような高レベルの表現や構造化された構造といったフレームワークを使うことで、ソフトウェアを開発できるということは、私にとってチップを設計することと非常に似ていました。パターンが非常に似ていたのです。そしてその時に気づきました。もしかしたら、長年チップ設計をスケールさせてきたように、非常にうまくスケールするソフトウェアと能力を開発できるかもしれないと。それは私にとって非常に重要な瞬間でした。

チップが本当に今日のようなLLMのスケールアップを助け始めた瞬間はいつだったと思いますか?2010年と言いましたが、それでもまだ15年ありますから。

そうですね。Nvidiaのアーキテクチャについての重要な点は、並列化できるようになったことで、1つのGPU上でうまく動作するようにできれば、複数のGPU上でもうまく動作させられるということです。

1つのGPU上の多くのプロセッサで動作するようにアルゴリズムをスケールさせるという同じ感覚は、複数のGPUでも、そして今では複数のシステムで、実際には複数のデータセンターでも実行できるという同じロジックと同じ推論なのです。それが効果的にできることに気づいた時から、残りの部分は、この能力をどこまで外挿できるかを想像することです。

どれだけのデータがあるのか?ネットワークはどれだけ大きくできるのか?どれだけの次元性を捉えられるのか?どんな種類の問題を解決できるのか?そのすべては、その時点では本当にエンジニアリングなのです。

深層学習モデルが非常に効果的であるという観察が、本当に火花なのです。残りの部分は本当にエンジニアリングの外挿です。

フェイフェイ、あなたの瞬間について教えてください。

ImageNetの誕生とヒューマンセンタードAI

はい、私も2つの瞬間をシェアします。2006年と2007年頃、私は大学院生から若い助教授に移行していました。そして私は、ヤン、ヨシュア、ジェフの論文を読んでいた最初の世代の機械学習大学院生の一人でした。そして私は、日常的な写真の中の物体に意味を見出す機械の能力である、視覚的認識の問題を解決することに本当に夢中になっていました。

私たちは機械学習における汎化性と呼ばれる問題に苦戦していました。つまり、ある数の例から学習した後、新しい例や新しいサンプルを認識できるかということです。私はベイズ、サポートベクターマシンからニューラルネットワークまで、あらゆるアルゴリズムを試しました。そして私の学生と私が気づいた欠けているピースは、データが欠けているということでした。

人間のような知的な動物の進化や発達を見ると、発達の初期にデータに圧倒されていましたが、私たちの機械はデータに飢えていました。そこで私たちは当時狂気じみたことをすることに決めました。インターネット規模のデータセットを3年間かけて作成することです。ImageNetと呼ばれるもので、22,000のカテゴリーにわたって、世界中の人々によって手作業でキュレーションされた1,500万枚の画像を含んでいました。

ですから、私にとってその時点での「アハ体験」は、ビッグデータが機械学習を駆動するということでした。そしてそれは今や、私たちが目にしているすべてのアルゴリズムの構成要素であり、限定要因なのです。

それは今日のAIのスケーリング則の一部ですね。

そして2つ目の「アハ体験」は、2018年、私はGoogle Cloudで最初のAI担当チーフサイエンティストでした。私たちが行う仕事の一部は、ヘルスケアから金融サービス、エンターテインメントから製造業、農業からエネルギーまで、あらゆる垂直産業にサービスを提供することです。

そしてそれは、私たちがImageNet AlexNetの瞬間と呼ぶものの数年後、AlphaGoの数年後でした。

AlphaGoは中国のボードゲームである囲碁で人間を打ち負かすことができたアルゴリズムですね。

はい。そしてGoogleのチーフサイエンティストとして、私はこれが文明レベルの技術であり、すべての人間個人とビジネス部門に影響を与えるだろうと認識しました。そして、人類がAI時代に入るのであれば、イノベーションするだけでなく、この強力な技術を通じてすべての人に慈善をもたらすための指針となる枠組みは何か。

それが私がスタンフォードに教授として戻り、ヒューマンセンタードAI研究所を共同設立し、ヒューマンセンタードAIフレームワークを提案した理由です。この技術の中心に人間性と人間の価値観を保つことができるように。

つまり、開発するだけでなく、影響と次に何が来るかを見ているわけですね。それは私たち残りの者が入ってくるところです。ヤン、ここで締めくくっていただけますか?あなたのハイライトは何でしたか?

ええ、おそらくずっと昔に遡るでしょう。私が学部生だった時に気づいたのは、AIと知能全般の問題に魅了されたということです。そして50年代と60年代の人々が、機械をプログラミングするのではなく訓練することに取り組んでいたことを発見しました。

このアイデアに本当に魅了されました。おそらく、私が実際にゼロから知的な機械を構築するには愚かすぎるか怠惰すぎると思ったからでしょう。だから、機械自身に訓練させる方が良い、つまり自己組織化させる方が良いのです。それが生命における知能が自己構築する方法ですから。それは自己組織化されているのです。

このコンセプトが本当に魅力的だと思いました。そして工学部を卒業した時、これに取り組んでいる人を誰も見つけられませんでした。大学院に行きたかったのですが。これに興味を持っている何人かの人々とつながることができ、例えばジェフの論文を発見しました。

彼は1983年に大学院を始めた時に、私が世界で最も会いたいと思った人物でした。そして最終的に2年後に会いました。

今日、あなたたちは友人と言えますか?

はい。ああ、私たちは1985年に一緒にランチをして、基本的にお互いの文章を完成させることができました。彼はフランス語で書かれた論文を持っていて、私が会議でキーノートスピーカーだった時に、実際に数学を解読することができたのです。それは逆誤差伝播法のようなもので、多層ネットワークを訓練するためのものでした。

60年代から、機械学習の限界は、複数の層を持つ機械を訓練できないという事実によるものだと知られていました。だから、それは本当に私の執着であり、彼の執着でもありました。そして私は、それを行う何らかの方法を提案する論文を持っていて、彼は数学を読むことができました。

それが私たちがつながった方法で、それがあなたをこの道に進ませたのですね。

そうです。そしてその後、このような複雑なシステムを訓練できるようになると、自問自答するのです。どうすれば画像を認識するとか、そのようなタイプのことのような有用なことをするようにそれらを構築できるのか、と。

そして当時、ジェフと私は80年代後半、私が彼のポスドクだった時にこの議論をしていました。私は、よく定式化された唯一の機械学習パラダイムは教師あり学習だと思っていました。機械に画像を見せて、答えが何であるかを教えるのです。そして彼は、いやいや、進歩を遂げる唯一の方法は教師なし学習を通じてだ、と言いました。私は当時それを却下していました。

そして2000年代半ば、彼とヨシュアと私が集まり始め、コミュニティの深層学習への興味を再始動させた時に何が起こったかというと、私たちは実際に教師なし学習、つまり自己強化学習に賭けをしたのです。

これは強化学習ではありませんね。

そうです。これは基本的に、機械を特定のタスクを実行するように訓練することなく、データの構造を発見することです。ちなみに、これがLLMが訓練される方法です。LLMは次の単語を予測するように訓練されますが、それは本当にタスクではありません。システムが良い表現を学習したり、構造を捉えたりする方法にすぎません。

教師あり学習から自己教師あり学習へ

そこには報酬システムはないのですか?すみません、専門的な話になりますが、これは正しいから続けなさいと言うものは何もないのですか?

まあ、次の単語を正しく予測すれば正しいですよね。強化学習の報酬とは違います。強化学習では、それは良いと言いますが。

はい。分かりました。そして実際、これはあなたのせいにしますが、ImageNetと呼ばれるこの大きなデータセットを作り出し、それはラベル付けされていたので、教師あり学習を使ってシステムを訓練することができ、それは予想よりもはるかにうまく機能することが分かりました。

そこで私たちは、自己教師あり学習、教師なし学習に取り組むプログラム全体を一時的に放棄しました。教師あり学習が非常にうまく機能していたからです。いくつかのトリックを考え出しました。ヨシュアはそれを続けました。

あなたは続けなかったと言っているのですか?

私も続けませんでした。でも、それは基本的に、業界全体と研究コミュニティ全体を深層学習、教師あり学習などに再焦点化させました。

そして、これは私たちを望むところに連れて行かないと人々に伝えるのに、さらに数年、おそらく2016年、17年頃かかりました。今は自己教師あり学習をする必要があると。それがLLMが本当にその最良の例なのです。

しかし、今私たちが取り組んでいるのは、これをビデオやセンサーデータのような他のタイプのデータに適用することです。LLMはそれらに全く得意ではありません。それが今後数年間の新しい課題です。

AIブームはバブルなのか

それは実際に私たちを現在の瞬間に連れてきます。そして皆さんもご覧になったと思いますが、以前AIが何かを全く知らなかった人々からの関心の高まりがあり、以前は興味がなかった人々が、今や皆がこれに群がっています。これは単なる技術革新を超えたものになっています。これは巨大なビジネスブームであり、地政学的戦略の問題になっています。そして誰もがこれが何であるかを理解しようとしています。

ジェンスン、まずあなたに来ます。この瞬間について振り返っていただきたいと思います。特にNvidiaは、基本的に毎日、毎時、毎週ニュースに出ています。あなたは基本的に世界で最も価値のある企業になりました。ですから、そこには人々が欲しがる何かがあります。それを聞いて嬉しいでしょうね。

私たちが人々がよく理解していない地点に到達していて、皆が先走っていて、バブルが破裂して清算が起こるのではないかと心配していますか?もしそうでないなら、AIから来る需要について、例えばドットコム時代とは異なる最大の誤解は何でしょうか?人々が理解していないことは何ですか?

ドットコム時代、バブルの時期には、展開された光ファイバーの大部分がダークでした。つまり、業界は必要以上にはるかに多くの光ファイバーを展開したのです。

今日、ほぼすべてのGPUが点灯して使用されています。ですから、一歩下がって理解することが重要だと思う理由は、AIが何であるかを理解することです。多くの人にとって、AIはChatGPTであり、画像生成であり、それはすべて真実です。それはその応用の1つです。そしてAIはこの数年で途方もなく進歩しました。

記憶し一般化する能力だけでなく、推論し効果的に考え、研究を通じて自分自身を基礎づける能力です。より価値のある答えを生み出し、物事を行う能力があります。今ははるかに効果的です。

そして、他のビジネスに役立つビジネスを構築できる企業の数。例えば、ソフトウェアプログラミング会社、私たちが使用するCursorと呼ばれるAIソフトウェア会社、彼らは非常に収益性が高く、私たちは彼らのソフトウェアを非常に多く使用していて、信じられないほど有用です。

あるいはAbridgedやOpenEvidence、これらはヘルスケア業界にサービスを提供していて、非常に良い結果を生み出し、非常にうまくいっています。ですから、AI能力は非常に成長しました。その結果、同時に起こっている2つの指数関数を見ています。

一方では、答えを生み出すために必要な計算量が途方もなく増加しました。他方では、これらのAIモデルの使用量も指数関数的に増加しています。これらの2つの指数関数が、計算に対する多くの需要を引き起こしています。

さて、一歩下がって自問自答すると、今日のAIと過去のソフトウェア業界との間で根本的に何が違うのか。過去のソフトウェアは事前コンパイルされていて、ソフトウェアに必要な計算量はそれほど高くありませんでした。

しかし、AIが効果的であるためには、文脈を認識する必要があります。知性をその瞬間にしか生み出すことができません。事前に生成して取り出すことはできません。それはコンテンツと呼ばれるものです。

AI知性はリアルタイムで生成される必要があります。その結果、私たちは今、本当に価値があり需要の高いものを生成するために必要な計算が非常に大きい業界を持っています。私たちは工場を必要とする業界を作り出しました。

だから私は、AIがこれらのトークンを生成し、知性を生成するために工場が必要だと自分たちに思い出させます。これは初めてのことです。コンピューターが実際に工場の一部であるというのは一度も起こったことがありません。

ですから、知性の上に位置する何兆ドルもの産業にサービスを提供するために、これらの工場に数千億ドルが必要なのです。過去のソフトウェアを振り返って見てください。過去のソフトウェアはツールです。人々によって使用されます。

初めて、AIは人々を補強する知性です。ですから、それは労働に対応します。仕事に対応します。仕事を行うのです。

つまり、これはバブルではないと言っているのですね。

私は、知性の構築の始まりにいると思います。そして事実として、ほとんどの人は今日まだAIを使っていません。近い将来のいつか、私たちが行うほぼすべてのこと、一日の瞬間ごとに、何らかの形でAIに関与することになるでしょう。

ですから、今日の使用量が非常に低いところから、いつか使用量が基本的に継続的になるところまでの間に、その構築があります。それが何であるかです。そしてたとえLLMの滑走路が尽きても、GPUとあなたが構築しているインフラは、別のパラダイムでもまだ有用だと思いますか?それから他の方々にも話を開きたいと思います。

LLMはAI技術の一部です。AIはモデルのシステムであり、LLMだけではありません。LLMはその大きな部分ですが、それはモデルのシステムです。そして、今日の位置から、AIがはるかに生産的になるために必要な技術は、それを何と呼ぼうと関係なく、まだ開発すべき技術がたくさんあります。

誰か飛び込みたい方はいますか?特に反対意見がある方は。

もうそれらをLLMと呼ぶべきではないと思います。それらはもう言語モデルではありません。

少なくとも事前訓練としては言語モデルとして始まりますが、最近では、それらをエージェントにするための多くの進歩がありました。つまり、環境や人々との対話を通じて、何かを達成するために一連のステップを経るということです。今は対話を通じてですが、ますます計算インフラとともにです。

そして技術は変化しています。3年前のものとは全く同じではありません。2年後、5年後、10年後に技術がどこにあるかを予測できるとは思いません。しかし、トレンドは見えます。

私が今取り組んでいることの1つは、国際的な専門家のグループをまとめて、AIで何が起こっているかを追跡し、どこに向かっているか、リスクは何か、それらがどのように緩和されているかを見守ることです。

トレンドは非常に明確です。非常に多くのベンチマークにわたって、技術の改善に非常に成功してきたからといって、将来も同じだという意味ではありません。

では、期待が満たされなければ財政的な影響があるでしょう。しかし長期的には完全に同意します。

他の皆さんはどうですか?技術や応用について知っていることに基づいて、評価が正当化されていると思いますか?

私は、進行中のことを説明する3つのトレンドがあると思います。1つ目は、モデルがより効率的になっていることです。例えばアテンションだけを見ても、ストレートアテンションからGQA、MLAに進むことで、はるかに少ない計算で同じかより良い結果が得られます。

そしてそれが、以前は高価すぎたかもしれないものが今は安価になるような形で需要を駆動します。AIでより多くのことができるようになります。

同時に、モデルはより良くなっています。トランスフォーマーで良くなり続けるかもしれませんし、新しいアーキテクチャが登場するかもしれませんが、後退することはありません。より良いモデルを持ち続けるでしょう。

それでもトランスフォーマーベースでなくてもGPUが必要ですよね?

絶対に。実際、それらはより専門化されたものと比較してはるかに価値があります。より柔軟でモデルとともに進化できるからです。

最後のことは、私たちは応用の表面をかすめ始めたばかりだと思います。人間の生活のほぼすべての側面は、専門職や日常生活でAIが誰かを支援することによってより良くなることができます。

私たちは究極の需要の1%に達し始めたところだと思います。それが拡大するにつれて、これの使用数は増加するでしょう。ですから、ここにバブルはないと思います。ジェンスンが言ったように、私たちは複数の指数関数に乗っていて、そのごく初期にいて、それは続くだけだと思います。

そしてある意味で、Nvidiaはそれに保険をかけていますよね。なぜなら、このパラダイムが変わって、他のタイプのAIや他のアーキテクチャがあったとしても、その下にあるアトムは必要だからです。だからあなたにとって理にかなっています。

空間知能という新たなフロンティア

フェイフェイ、何か言いたいことはありますか?

ええ、もちろん市場の観点からは、それ自身のダイナミクスを持ち、時には調整することもあると思いますが、長期的なトレンドを見ると、AIは全体としてまだ非常に若い分野であることを忘れないでください。

私たちがこの部屋に入ると、壁には物理学の方程式がありました。物理学は400年以上の歴史を持つ学問です。現代物理学を見ても、AIはアラン・チューリングに遡るなら70年未満です。それは約75年です。

ですから、これからくる新しいフロンティアはまだたくさんあります。ジェンスンとヨシュアはLLMとエージェントについて話しました。それらはより言語ベースですが、人間の知能の内省的な検討をしても、言語を超えた知的能力があります。

私は空間知能に取り組んできました。それは本当に知覚と行動の組み合わせ、つまり要であり、人間や動物が世界を知覚し、推論し、相互作用し、創造する驚くべき能力を持っています。それは言語をはるかに超えています。

そして今日の最も強力な言語ベースまたはLLMベースのモデルでさえ、初歩的な空間知能テストに失敗しています。ですから、その観点から、学問として、科学として、征服し開拓すべきフロンティアははるかに多く、それが応用を開きます。より多くの応用を開くのです。

そうですね。そしてあなたは企業で働いていますから、研究者と商業空間で働くという二重の視点を持っています。

あなたは同意しますか?これがすべて正当化されていて、これがすべてどこから来ているか見えると信じていますか?それとも、ここで終わりに達していて、新しい道を見つける必要があると思いますか?

私たちがバブルにいないという複数の視点があると思いますし、バブルにいることを示唆する少なくとも1つの視点がありますが、それは別のものです。

私たちがバブルにいないという意味では、LLMに基づいて開発すべき多くの応用があります。LLMは現在の支配的なパラダイムであり、そこから搾り取るべきものがたくさんあります。これはビルが言っていたこと、現在の技術で人々の日常生活を助けることです。その技術は推進される必要があり、それがソフトウェア側とインフラ側の両方で行われているすべての投資を正当化します。

スマートなウェアラブルデバイスが誰もの手にあり、日常生活で彼らを支援するようになると、ジェンスンが言っていたように、これらすべての人々にサービスを提供するために必要な計算量は膨大になるでしょう。ですから、その意味で投資は無駄ではありません。

しかし、バブルがあるという意味もあって、それはLLMの現在のパラダイムが人間レベルの知能を持つ地点まで推進されるという考え方です。個人的には私はそれを信じていません。

あなたもそう思っていませんね。

そして、私たちが人間だけでなく動物においても観察する種類の知能を本当に持つ機械を手に入れる前に、いくつかのブレークスルーが必要です。猫と同じくらい賢いロボットはまだありません。

ですから、まだ何か大きなものが欠けています。だからAIの進歩は、より多くのインフラ、より多くのデータ、より多くの投資、現在のパラダイムのより多くの開発だけの問題ではありません。

それは実際には、次世代のAIに向けてどのように進歩を遂げるかという科学的な質問なのです。だから皆さん全員がここにいる理由です。なぜなら、実際に全体を引き起こしたのはあなた方だからです。

人間レベルの知能への道のり

私たちはエンジニアリングや応用側により多く移動しているように感じますが、あなたが言っているのは、元々あなたをここに連れてきたものに戻る必要があるということです。人間レベルの知能という質問について、時間があまり残っていないので、簡単に聞きたいのですが。

私は、人間と同等の機械知能、あるいはタコのような賢い動物にさえ、到達する地点に達するまでどれくらいかかると思うか、それぞれから聞きたいです。私たちはどれくらい離れていますか?年数だけで。

それはイベントにはならないでしょう。

なるほど。

なぜなら、能力は様々な領域で徐々に拡大していくからです。

どの期間にわたって?

おそらく、今後5年から10年で、新しいパラダイムを生み出すためにいくらか大きな進歩を遂げるでしょう。そしておそらく、進歩は来るでしょう。しかし、私たちが思うより時間がかかるでしょう。

機械の一部は人間の知能を超えるでしょうし、機械知能の一部は人間の知能と似たり同じになることは決してないでしょう。

それらは異なる目的のために構築されており、いつ超えるところまで到達しますか?

一部は既にここにあります。

私たちの何人が世界の22,000の物体を認識できますか?その種の粒度と忠実度で。

成人の人間が22,000の物体を認識できないと思いますか?

何人の成人が100の言語を翻訳できますか?

それはより難しいですね。

そうです。ですから、私たちはニュアンスを持ち、科学的事実に基づくべきだと思います。飛行機は飛びますが、鳥のようには飛びません。

そして機械ベースの知能は多くの強力なことを行うでしょうが、人間の知能が私たちの人間社会で常に重要であり続ける深遠な場所があります。

ジェンスン、あなたはどう思いますか?

私たちは、今後数年間で技術を膨大な量の社会的に有用な応用に変換するのに十分な汎用知能を持っています。

そして、人間レベルに関しては?

はい。そうですね。私たちは今日それを行っています。ですから、1つは既にそこにいるということ、2つ目の答えの部分は、それは重要ではないということです。なぜなら、この時点でそれは少し学術的な質問だからです。

私たちはこの先、多くの非常に重要なことを解決するために技術を適用するつもりですし、技術はより良くなり続けるでしょう。そして私たちはこの先、多くの非常に重要なことを解決するために技術を適用するつもりです。

ですから、答えは重要ではないし、今でもあるということだと思います。

ヤン、あなたが決めてください。

もし質問を少し絞り込んで、この機械と議論をすればいつも勝つようになるまでどれくらいかと言うなら、それは間違いなく20年以内に来ると思います。まだそこにはいませんが、かなり確実に20年以内にそこに到達するでしょう。議論であなたに勝つ。

20年以内にそこに到達するでしょう。もしそれをAGIと定義するなら、いつも議論に勝つと。

おそらく20年未満で到達するでしょう。

ビル、あなたはどうですか?

まあ、私はジェンスンと同じで、それは間違った質問だと思います。なぜなら、私たちの目標は人間を置き換えたり人間より優れているAIを構築することではないからです。

でもそれは科学的な質問です。置き換えるということではなく、社会として何かを構築できるかという。

しかし私たちの目標は、人間を補強するAIを構築することです。ですから私たちがやりたいことは、人間が得意なことを補完することです。人間は22,000のカテゴリーを認識できませんし、ほとんどの人はこれらの数学オリンピアードの問題を解けません。

ですから、私たちはAIにそれをさせるように構築します。そうすれば人間はユニークに人間的なことができます。それは創造的であり、共感的であり、私たちの世界で他の人々とどのように相互作用するかを理解することです。

そしてAIが将来それをするかどうかは明確ではありませんが、AIは人間にとって巨大な支援になり得ます。

これについては異を唱えたいと思います。いつかの時点で、私たちができるほぼすべてのことができる機械を構築できない理由は見当たりません。

もちろん、今のところ空間的な面やロボティクス的な面では遅れていますが、できない概念的な理由はありません。

タイムラインについては、多くの不確実性があり、それに応じて計画すべきだと思います。しかし、興味深いと思うデータがあります。AIが異なる視野にわたって計画する能力が、過去6年間で指数関数的に速く成長しているのを見ています。

そしてそのトレンドが続けば、従業員が自分の仕事で持っているレベルを、AIがそれを行えるようになるのは約5年以内に置かれるでしょう。

今、これはエンジニアリングタスクの1つのカテゴリーにすぎず、他に重要なことがたくさんあります。例えば、ゲームを変える可能性のあることの1つは、多くの企業がAI研究を行うAIの能力にのみ焦点を当てることを目指しているということです。

つまり、エンジニアリングを行い、コンピュータサイエンスを行い、次世代のAIを設計することです。おそらくロボティクスと空間理解を改善することを含めて。

ですから、それが起こるとは言っていませんが、AIがより良いプログラミングとアルゴリズムの理解を行う能力の領域は非常に速く進んでおり、それが他の多くのことを解放する可能性があります。

私たちは分からないので、本当に不可知論的であるべきで、多くの可能な未来があるので大きな主張をすべきではありません。

ですから、私たちのコンセンサスは、ある意味でその未来は今日ここにあると思っているが、決して1つの瞬間はなく、ここにいる皆さん全員の仕事が、私たちがこれらのシステムと並んで働く地点に到達するまで、私たちをこの道に沿って導く手助けをしてきたということです。

個人的には、私たちがどこに向かうかを見るのを非常に楽しみにしています。1年後に再びこれを行えば、それは異なる世界になっているでしょう。しかし、私たちに参加していただき、あなたのストーリーを共有し、この巨大な革命的瞬間について話していただき、本当にありがとうございました。ありがとうございました。ありがとうございました。ありがとうございました。

コメント

タイトルとURLをコピーしました