現代AIの設計者の一人であるアンドリュー・エンが、AGIの定義と現実、AIバブルのリスク、スケーリングの限界について率直に語る。AGIは過度に誇張されたマーケティング用語と化しており、真の汎用知能の実現には数十年以上を要すると指摘。過剰な期待がAIの冬を招くリスクを警告しつつ、エージェント型ワークフローの実用化、オープンソースモデルの重要性、継続学習の課題、そしてAIが雇用に与える影響について詳細に論じる。教育システムの遅れ、中国のオープンソース優位性、AIの民主化という理念まで、AI業界の現状と課題を包括的に展開する対話である。

AGIの定義と現実
AGIはマーケティング用語になってしまいました。もしAIが熟練した専門家と同じように経済的に有用な仕事をこなせるなら、それがAGIのより妥当な定義だと思います。でも、その実現にはまだ非常に遠い道のりがあります。おそらく数十年以上先のことでしょう。
アンドリュー・エンは現代の人工知能における重要な設計者の一人で、ジェフリー・ヒントン、ヤン・ルカン、デミス・ハサビスと並び称されています。
率直に言えば、AIによって完全に自動化される職種は少数です。ですから正直なところ、過剰な誇張が失望を生み、いわゆるバブルの崩壊につながることは、世界にとってもAI分野にとっても良いことではありません。
最高のオープンソース・オープンウェイトモデルの多くは中国から生まれています。
オープンソースの時代は終わったのでしょうか。
多くの大学はカリキュラムの適応が遅く、いまだに2022年の仕事のために学生を訓練しています。でもそういった仕事の多くは実際にはもう存在しません。だから雇用主は採用したがらないのです。プログラマーは失業するのでしょうか。
今年こそついにAGIを達成する年になるのでしょうか。あなたは数時間前の解説記事をこの質問で始めていますね。
合理的なAGIの定義に基づけば、答えはノーだと思います。2026年にAGIは実現しないでしょう。2026年にAGIを実現する最良の方法は、誰かがAGIの実際の意味するハードルを劇的に下げることができれば、おそらくどこかの企業がそのハードルをクリアできるかもしれません。
では、AGIをどう説明し、どう定義しますか。
私が最もよく知っているAGIの定義は、人間ができるあらゆる知的タスクを実行できるAIということです。
今日、人間はおそらく数十時間の学習で、私がこれまでやったことのない森の中をトラックで運転することなどを習得できます。数時間訓練すれば、おそらく私にもできるでしょう。人間はコンタクトセンターの電話に出て、特定のビジネスニーズに沿った回答をすることを学べます。
そして人間が学習できる特定のタスクがあります。身体的なタスクではなく知的なタスクです。しかし、これらのタスクの多くは、実行するためのカスタムAIワークフローを構築するのに膨大な作業が必要だと感じます。私たちは実際にそれを行っていますし、非常に価値があることが分かっていますが、エンジニアがこれらの構築に多くの時間を費やす必要があるというのは、一般の人々が通常AGIについて考える方法ではありません。
いつか人間と同じくらいあらゆる意味で知的なコンピュータが実現することを願っていますが、それにはまだ非常に遠いと思います。あなたは今日、チューリングテストの新しいバージョンを提案しましたね。何を提案したのか説明していただけますか。
新しいチューリングAGIテスト
これについてはとても興奮しています。AGIをめぐる誇張のせいで、AGIは正確な技術的意味を持つものではなく、マーケティング用語になってしまったと感じています。
マーケティング用語として使われる方法は、実際に多くの人々を誤解させています。でも人々はAGIを求めていて、それに興奮していますし、私も興奮しています。では、実際にAGIの達成に近づいているかどうかを確認するテストを考案してはどうでしょうか。アイデアはこうです。
オリジナルのチューリングテストでは、人間の審判がテキストをやり取りして、相手がAIか人間かを判断します。オリジナルのチューリングテストは、AIが審判を騙して、AIと話しているのか人間と話しているのか判別できなくさせることができるかというものでした。1950年、アラン・チューリングがこのテストを考案した当時としては素晴らしい発明でしたが、今日私たちが考える知性を測定するものではありません。
私が考える新しいチューリングAGIテストの構築方法はこうです。人間の審判が数日間の体験を設計します。それはコンピュータを介したオンボーディングやトレーニングなどです。テスト対象者はAIか、コンピュータと通常のソフトウェア、ウェブブラウザやZoomなどにアクセスできる人間です。数日間の体験を通じて、もしAIが熟練した専門家と同じように経済的に有用な仕事のタスクを実行できるなら、それがAGIのより妥当な定義だと思います。
このテストを提案する理由は、これが一般の人々がAGIについて考えることに実際にずっと近いからです。
人々がAGIがここにあると考えるとき、わあ、AIが人々の仕事をできるようになると思うわけです。実際、AIが複数日にわたってリモートワーカーのように機能し、生産的な仕事ができるなら、それは非常に価値があり、PR目的や政策目的、資金調達目的で一部の企業が推進している代替基準よりも、人々が本物のAGIとして考えることにずっと近いと思います。
サー・ロジャー・ペンローズとのインタビューを思い出します。ノーベル賞受賞者です。数学は閉じたシステムです。だからAIはそれをゲームのようにプレイできます。アンドリュー、効果的なAIテストが存在しないのではないかと心配していませんか。
ベンチマークの限界と人間による評価
AIのテストやベンチマークの課題の一つは、誰かが事前にテストセットを固定すると、AIの特定の一次元だけを測定することになってしまうことです。
だから多くのAIモデル、大規模言語モデルには、SWE-benchやMMMLUなど多くの標準ベンチマークがあります。チームが既知のテストセットに最適化することを避けるのは非常に難しく、直接的にやらなくても結局そうなってしまいます。AIはギザギザした形の知性です。あることには素晴らしいけれど、他のことには本当にひどい。でもAGIは、人間ができるあらゆる知的タスクを実行できるAIとして考えられていて、人間がカバーできるすべての知的タスクをカバーすべきです。だから私にとって、固定されたテストセットのベンチマークと、人間の審判がリアルタイムで調査することの大きな違いの一つは、人間の審判が最先端技術の状態を見て、AIがどこで強くてどこで弱いかを調査できることです。
そしてAIがこのAGIであるためには、ほとんどの人はあらゆる次元で人間と一致することだと考えています。つまり、人間の審判が調査して、私たちがAIにやってほしい経済的に価値のある仕事のタスクについて、人間ができることに比べてAIが著しく弱い部分を見つけられないようにすべきだということです。
ベンチマークはまだ何か本物を測定しているのでしょうか。ベンチマークが90%に達しても、ユーザーは以前より愚かに感じると言います。ベンチマークは何か本物を測定しているのでしょうか。ベンチマークは何か本物を測定していると思いますが、測定したいことのごく狭い部分です。
多くのベンチマークの弱点の一つは、客観的なベンチマークを設計することがずっと得意だということです。
つまり、正解か不正解かがある数学のようなものや、事実に関する質問です。例えば今年のオリンピックで200メートル自由形で誰が勝ったかなど。こういった質問には客観的に正解と不正解があるので、多くのベンチマークはAIが正しいか間違っているかを測定することに関するもので、非常に白黒はっきりしています。でも人生の多くは、完全に客観的な最良の答えを一つ設計することが非常に難しいのです。
例えば私たちが今しているような人間の会話でも、私が言うべき正しいことは何か一つでしょうか。分かりませんが、おそらく良いことも言えるし、悪いこともあるでしょう。平均して、私たちはより主観的なことや、良い悪いの段階があるものを測定するベンチマークの設計があまり得意ではありません。でもこれが正しい答え、これが間違った答えだとテストセットを書くのは非常に難しいのです。
試みはしていますが、私たちが持っているベンチマークの多くは、こういったことをうまく捉えられていないと感じます。現実には、人間の仕事の多くは、例えば研究レポートを書くように頼まれたとき、正しいレポートは一つではなく、レポートの良し悪しにはさまざまな段階があります。この灰色の濃淡を捉えるベンチマークを書く能力は、この数学問題を正しく解いたか、正しく動作するコードを書いたかというベンチマークを書く能力よりもずっと弱いのです。実際に有用な人間の仕事に必要なことよりも、こういったことの方が得意なのです。
2026年のAI展望とエージェントワークフロー
AGIでないとしたら、2026年には何が期待できますか。OpenAIのグレッグ・ブロックマンは、2026年のAIの2つの大きなダムはエージェント採用と科学的加速だと言っています。あなたの見解はどうですか。
AGIは気を散らすものだと思います。それにはまだ非常に遠いです。
すぐに到達することはありません。でもAGIを達成しなくても、私たちが現在行っていて、2026年も続けていく非常に価値のある素晴らしいことがたくさんあります。私は成長する現象として見ていたものを説明するために、エージェント型AIという用語を作りました。有用なビジネスプロセスを捉えるためのAI構築には非常に多くの作業が必要だと言っていましたが、それを行うと時には信じられないほど価値があります。
だから2026年以降、本当に価値のある経済的に重要な仕事をするために、AIエージェントやエージェント型ワークフローを構築する多くのエキサイティングな作業があるでしょう。ここAI Fundの私のチームでは、他の多くの人々と同様にコードを書くためにエージェント型ワークフローを使っていますが、関税コンプライアンスのための書類確認や、弁護士が仕事をより良く行うために難しい法的文書を読むこと、医療補助タスク、カスタマーサービスのサポートなどにも使っています。
法的コンプライアンスなど、人々が現在これらのタスクを実行するために経験している思考プロセスを取り出して、それをAIエージェントやエージェント型ワークフローにコーディングすれば、AIがあなたのためにそれを行えます。これは長い間続くと思います。これらのエージェント型ワークフローを何年も何年も構築し続けるでしょう。
でも価値は非常に大きくなるでしょう。
エージェント型ワークフローについて話していますが、リッチ・サットン教授は「生の計算能力は常に人間の賢さに勝る」と有名な言葉を残しています。エージェント型ワークフローに焦点を当てることで、それに反しているのではないですか。
リッチの「苦い教訓」に関する論文は非常に影響力があり、よく書かれていました。
はっきりさせておきますが、私はスケールが好きです。Google Brainを立ち上げたとき、後にDeepMindと合併してGoogle DeepMindを形成し、Geminiなどを作り出したわけですが、Google Brainチームに設定した最優先ミッションは、スケールアップしようということでした。本当に大きなニューラルネットワークに大量のデータを投入する。だから私はおそらくAI分野で最も早くからスケールを推進した一人だと思います。
スケールの時代の設計者はあなたです。正直に言って、当時は他のみんながスケールを推進するのは奇妙なことだと思っていたとき、私はスケールを推進しました。だから私はスケールが好きですし、Google BrainチームのDNAがスケールだったからこそ、それが最優先事項でした。もちろんチームは多くのことをしますし、多くのことを心配しますが、最優先ミッションはスケールでした。そういうふうにGoogle Brainを設定したのです。そのDNAがあったからこそ、Google Brainチームが史上最もスケーラブルなニューラルネットワークアーキテクチャであるTransformerを発明したのです。
それが生成AI革命を牽引したわけですね。だから私はスケールを本当に信じています。とはいえ、異なる時点で、スケールする能力と他の形の知識を注入する能力がバランスを作り出していて、スケールだけですべてを達成できるとは思いません。それも非常に強力です。
多くのことと同様に、時々ビジネスが資金調達やPRなどの目的で一つの現象を誇張するのを見てきました。スケーリング則のおかげで、システムをスケールアップすると、パフォーマンスがどこに向かうかをかなり予測可能に予測できることは絶対に真実です。これは後にOpenAIによって示されましたが、最初は私のチームBaiduで示されました。
だからこれは実際には資金調達のための素晴らしい論拠です。もっとお金をくれれば、これらのマシンをスケールアップし、データをスケールアップして、より良いものを得られると言えるからです。でもスケールの核となる真実があるからこそ、それは実際よりも誇張されてきたと思います。驚くほど価値があるけれど、誇張が言うほどには価値がない。それでもなお驚くほど価値があります。エージェント型ワークフローによって、大規模言語モデルのスケールAIモデルの利点を活用し、さらに他のタイプの知識をシステムに注入して、より信頼性が高く、よりパフォーマンスの高いワークフローを構築できます。
スケーリングの現状と課題
今日、スケーリングの時代は本当に終わったと信じていますか。
いいえ、スケーリングの時代は終わっていないと思います。ただ、どんどん難しくなってきています。そうですね、興味深いです。AIはおそらく指数関数的に進歩してきました。この指数関数的進歩を推進するために必要なドルの数も指数関数的だったのを見るのは興味深いです。
指数関数的に多くのドルを費やして指数関数的に急速な改善を推進するのは悪くありません。構築コストを多くのユーザーに償却できるので、非常に価値があります。スケールによってまだ得られるものはあると思いますが、この時点でAIを改善するための唯一の手段ではありません。
何があればスケーリングについての考えを変えますか。
スケーリングについて何ですか。
スケーリングです。
ああ、スケーリングを諦めさせるものは何かということですね。
もし長期間にわたってモデルをスケールアップする努力が報われなければ、それで考えを変えるでしょう。でもおそらく一つ重要な注釈として、数十年にわたってムーアの法則が進歩を推進してきましたが、ムーアの法則が半導体をどんどん良くし続けるために、時間とともに変化し続けた多くの異なる技術が必要でした。
私たちが目にしているのは、生成AI初期の頃のレシピは、より多くのデータを得て、より大きなモデルを訓練するというものでした。これは少なくともその抽象度では、15年以上前に私がGoogle Brainを設定したときにやっていたこととまさに同じです。でもそれ以来、AIモデルはインターネット全体をほぼ読み尽くしたので、スケーリングのその単純なレシピはもう本当に機能しません。だから多くのチームが今、合成データ生成にずっと多くの作業を行っていて、これにはずっと多くの人間のエンジニアリングが必要で、異なる強化学習のレシピにも多くの作業を行っています。
だからスケーリングが報われ続けても、そのスケーリングを推進する具体的なレシピは、この2、3年で確実に大きく変化しています。
別の側面から見ると、より賢いモデルが単純により賢いワークフローに勝てるのでしょうか。ええ、そうであればいいと思います。でも実際には、理論的にはイエス、実際にはほとんどの人が思うよりずっと難しいと思います。
なぜですか。
より知的なモデル、Claude Opus 4.5やGemini 2.0、GPT-4o、o1、o3などによって、大規模言語モデルにツールのセットを与えて、ただ自由にやらせることがますます可能になってきたのは素晴らしいことだと思います。だからファイルシステムの読み書きのためのツールセットを与えて、ハードディスクをクリーンアップするために余分なファイルを探すなどのタスクを実行するように指示するだけです。
これらのパフォーマンスレベルは素晴らしいです。本当に本当に印象的です。とはいえ、多くのワークフローにとって、本番環境で使えるほど信頼性が十分ではありません。
だからより賢いモデルは素晴らしいですが、今私が目にしている多くの実用的なビジネスユースケースでは、チームが望むワークフローは何か、主要なステップは何かを考え抜いて、確実なパフォーマンスを得られるように一つ一つ実装し、これを機能させて1万回実行してもおそらくほぼ毎回うまく動作するようにしています。
モデルがより知的になるにつれて、私たちはより自律的にさせています。ガードレールを取り除いています。私のチームがよくやることの一つは、6ヶ月前に構築したものにはおそらくもっとガードレールがあって、もっとスクリプト化されていましたが、定期的に足場を減らしています。
非常に詳細な段階的指示を与える代わりに、今では自分で何をしたいか決めてくださいと言う可能性が高くなっています。一例として、Deep Researchを構築したときは、あるトピックについて研究するためにウェブ検索を行い、このくらいのクエリを実行して、このくらいのページをダウンロードして要約してなどと言っていました。1、2年前の一般的な研究エージェント型ワークフローです。今ではAIモデルがウェブ検索を続けたいか、要約したいかしないかを自分で決めるのがずっと得意になっています。
1年前、6ヶ月前、1年半前にプロトタイプを構築したシステムから、指示を取り除いて、プロンプトで自分で決めてくださいと言うことが頻繁にあります。でもまだ長い道のりがあります。Deep Researchのようなユースケースでは機能します。引用を見逃したり参照を見逃したりしても世界の終わりではないからです。でも多くの高リスクのエンタープライズユースケースでは、AIモデルを自由にやらせて好きなようにさせることの信頼性ギャップは、そのギャップは縮まっているものの、一部の人々が思うよりまだ大きいと思います。
人間の知性とAGIの本質
ヤン・ルカンとデミス・ハサビスの論争について聞く必要があります。ヤン・ルカンは人間の知性は特化されていて汎用的ではないと有名な発言をしています。ハサビスは脳は理論的な計算の下で汎用的に学習すると主張しています。
あなたはどちらの立場ですか。
矛盾は見られません。何か見落としているかもしれませんが。私にとって、人間の脳の素晴らしいところは、人間が人工ではないAGI、つまり汎用知能だと仮定すると、その可塑性や学習能力です。
AGIにとって重要なのは、すでに太陽の下のすべてを知っているAIではないべきだと思います。それは非常に困難で実用的ではないようです。でも人間の脳を経済的タスクにとって非常に価値あるものにしているものの一つは、必要なことなら何でも新しいことを学ぶ能力です。
学習を通じて、数学の博士号を取得して非常に難しい数学問題を解くように人間の脳が学習したような、信じられないほど特化された知性を獲得します。だからそれは終点としては非常に特化された知性ですが、学習を通じてであり、でも理論的には同じ人間の脳が異なる訓練を受ければ、チェスのマスターになったり、テニスをするのが素晴らしくなったりできます。
だから私にとって、人間の脳を非常に汎用的にしているものの多くは、私の脳やあなたの脳がすでに太陽の下のすべてを知っているということではなく、膨大な範囲のことに適応し学習する能力です。
それは暗黙的にルカン側につくということではないですか。
ええ。Google Brainチームを立ち上げたときに本当に私を動機付けたことの一つは、人々がもうあまり話さないアイデアでしたが、人間の学習の多くは一つの学習アルゴリズムによるものかもしれないというものでした。
つまりどういうことかというと、私たちのDNAはそれほど長くないことが分かっています。だからDNAには非常に限られた量の情報しか含まれていません。でもどういうわけか、私たちのDNAは脳の生物学をコード化していて、脳は非常に汎用的な学習アルゴリズムです。だから脳は数学の博士号を取得することも、オートバイに乗ることも、コンピュータでタイピングすることも、コールセンターで働くことも学習できるのです。脳にはこの非常に汎用的な学習アルゴリズムがあって、学習を通じてほぼ太陽の下のあらゆる専門分野を獲得できるからです。
サム・アルトマンは数ヶ月前に、Googleは古い検索にAIを接ぎ木しているから運命にあると言いました。OpenAIはゼロから構築しています。古いものと新しいものを結びつけられると思いますか。
競争は続いています。
GoogleとOpenAIの競争
これはエキサイティングです。サムはスタンフォードで私の生徒でしたし、Googleにも多くの友人がいます。だから私はOpenAIを強く支持しますし、Googleも強く支持します。技術的破壊の歴史を振り返ると、技術的破壊があるときはいつも、時には新規参入者が勝ち、時には既存企業が勝ちました。どちらもうまくいく余地は実際にあります。
ゲームはまだ続いています。実際、インターネットの破壊を見ると、Googleはインターネットの台頭とともに成長したスタートアップでしたが、MicrosoftやAppleのようにインターネットのずっと前に設立された既存企業もいて、彼らはうまくやりました。だからGoogleのような既存企業にとってAIは非常に破壊的であることは明らかです。
Googleは手札をうまく使っていると思います。Gemini 2.0は素晴らしいモデルだと思います。
ChatGPTより良いですか。
私はGeminiもChatGPTもClaudeも、他の多くのモデルも非常によく使います。
AGIの誇張とAIの冬のリスク
AGIについて多くを語っていますね。5年前は…
AGIについて話すのは実は好きではないと言ってもいいですか。でも他の人があまりにも話すので、誇張されているのです。
AI分野のリーダーとして、大量の誇張があるとき…
AIのAGIが誇張されていると信じていますか、それとも誇張だと。
非常に誇張されています。少なくとも一般の人々は、AGIが非常に汎用的な意味で人間と同じくらい知的になることだと考えています。それにはまだ非常に遠いです。そこに到達することを願っていますし、AGIに到達したいですが、現実的には数十年、おそらく数十年以上先だと思います。だからあと数四半期でAGIに到達できるというアイデアは、単に起こらないでしょう。AGIを再定義してハードルを下げ、達成をずっと簡単にしない限りは。率直に言って、AIの歴史において、善意の人々がAIの約束を過度に誇張し、これが満たされない高い期待につながり、投資と関心の崩壊につながったAIの冬を何度か見てきました。これは分野にとって悪いことでした。
AIは今本当にうまく機能しています。信じられないほど価値があります。AIの勢いを脱線させる可能性のあるものは比較的少ないと思います。私が実際に心配していることの一つは、失望につながる過度な誇張、いわゆるバブルの崩壊につながる過度な誇張です。それは世界にとってもAI分野にとっても良いことではありません。
だからAGIについての誇張を拡散させることは、より持続可能な成長の基盤を築くために重要なことです。
5年前、どんなコーディング問題でも解決できればAGIと呼ばれていたでしょう。今日それを持っていて、ツールと呼んでいます。ゴールポストを動かしましたか。
信頼できるチームがAGI達成を宣言したことは覚えていません。
チームがAGIはすぐ先の未来にあると宣言したことは覚えていますが、3年前にAGIを得たと宣言したチームは覚えていません。AGIにすぐ到達できると言っていました。でもこれまで誰もそこに到達していません。
ゴールポストを動かしたとは思いませんか。
むしろチームがAGI達成の意味するハードルを下げようとしてきたと思います。
つまり、AGI、人間ができるあらゆる知的タスクを実行できるAIは非常に高いハードルです。そのハードルの近くにすら到達していません。でもチームが達成しやすい代替定義を考え出せば、おそらくもっと早く到達できるでしょう。ところで、AGIをどう定義するかは気にしません。
AGIを好きなように定義できます。でも問題は、より広範な一般の人々の大多数がAGIを一般的に非常に知的なAI、基本的には人間のような知性だと考えていることです。だから世界の多くの人々がそう考えています。だから問題は…
主観性ですね。
ええ。基本的に人々が代替定義を考え続けているので。
同じ用語を非常に異なるものを指すために多くの異なる人々が使うと、用語は意味を失うことが分かります。だから例えば、私たちは皆、青という言葉が何を意味するか感覚を持っていますよね。私のシャツは青です。でももし何らかの理由で社会があらゆる異なる色を指して、これは青、これは青と言ったら、誰かが青と言ったときにそれが何を意味するのか人々はもう分からないので、青という言葉は意味を失うでしょう。
それがAGIに起こったことです。異なるチームが異なる代替定義を考え出しました。人々はこれがAGIだと言い、異なる定義を用語に適用しているので、誰かが今AGIと言ったときに、正確に何を意味しているのか知ることが難しいのです。問題は、一般の人々がAGIを人間のような知性だと考えていることです。だから誰かが奇妙で狭い技術的定義を考え出して、AGIが2年で現れると言えば、これは合理的に思えます。より広範な一般の人々はそれにもかかわらず、AIが2年で人間と同じくらい知的になると考えます。それは単に私には真実ではないように思えます。
ハーネスの重要性と継続学習
では、今私たちはどこにいるのか話しましょう。ハーネスが重要なのか、それとも働き馬がすべてなのか。
ハーネスは非常に重要だと思います。AnthropicがClaude Codeを構築し、SDKを構築して、彼らや他の人々がモデルを使うための良いハーネスを確保するのを見るのは本当に素晴らしかったです。ハーネスの詳細、プロンプトの構造化方法、大規模言語モデルにどんなツールを与えるか、これらすべての詳細がまだ本当に重要です。
実際、おそらく小さな例ですが、現在のモデルは非常に知的で、ツール使用、関数呼び出しがどんどん上手になっています。とはいえ、大規模言語モデルにあまりにも多くのツールを与えると、入力コンテキストの多くを消費し、間違ったAPI呼び出しや間違ったツール使用呼び出しをする可能性がずっと高くなります。
だからこういった小さな、2026年なのになぜこんな詳細を心配する必要があるのかと感じられるかもしれない詳細が、実は全体的なパフォーマンスに大きな違いを生むことが分かっています。多くのチームがMCPを使っていますし、私もMCPをよく使いますが、実用的なエンジニアリングのことの一つは、MCPサーバーがあまりにも長いツールのリストを持っていると、自分の入力コンテキストの大部分を消費してしまうことです。
どれを使うか効果的に判断するにはツールが多すぎるかもしれません。だからコンテキストエンジニアリングに入り込み、ハーネスはこれらの決定をずっとスムーズにするのに役立ちます。
Anthropicは継続学習が2026年までに解決されると予測しています。あなたも同じ期待をしていますか。継続学習が解決される日を楽しみにしています。もし2026年に完全に解決されたら素晴らしいでしょう。
それは喜ばしいことです。進歩すると期待しています。継続学習は非常に重要だと思います。
子供は数回の転倒から歩くことを学びます。強化学習には何百万ものシミュレーションが必要です。学習を単純に力づくでやっているのでしょうか。力づくの学習の課題の一つは、知性、人間の知性が学習アルゴリズムの汎用性から来る限りにおいて、それが人間の脳を非常に強力にするものです。
新しいことを本当に速く学習する汎用性、これが例えば私たちと働く人間が非常に多くのことができる理由です。一方、ある狭いタスクを実行するためにAIを力づくで長時間訓練する必要があれば、それでもケースによっては本当に価値があるかもしれませんが、多くのタスクにとってそれをやる理由が単純にないでしょう。
人間を雇って話をして、何をすべきか理解して仕事をする能力は本当に価値があります。
もしAIを雇ってから、この一つのタスクを実行するようにAIを訓練するために100万ドルを費やす必要があれば、そんなに多くの努力を費やしてAIを訓練することに意味がないタスクが多くあるでしょう。
オープンソースとプロプライエタリモデルの未来
サンプル効率が重要でなければ、残念ながら3社だけがフロンティアモデルを訓練する余裕があります。
オープンソース・オープンウェイトモデルとプロプライエタリモデルの間の継続的に進化するダイナミクスを見るのは本当に興味深いでしょう。AIを寡占状態として。
そういう未来にならないことを願っています。正直に言って、モバイル開発プラットフォームを見ると、最近はそれほど面白くありません。部分的には2つのゲートキーパーがいるからです。少なくともアメリカでモバイルで何かをするには、iOSかAndroidのどちらかから許可を得る必要があります。だからこれらの閉鎖的なプラットフォームのせいで、私たちができない特定のイノベーションがあります。
AI分野の多くの人々は、最先端のAIを構築するための2つか3つのゲートキーパーに終わらないことを本当に願っています。誰かがアイデアを持っているとき、大規模言語モデルの上でイノベーションすることが許されることを願っています。だからオープンソース・オープンウェイトモデルが、少数のゲートキーパーが現れるのを防ぐ鍵です。もし今日のモバイル世界よりもAI世界で誰もがイノベーションの自由を保持することを確実にできれば、ずっと多くの発明、多くのクールなアプリケーションを見るでしょうし、社会はそれによってずっと豊かになるでしょう。本当の継続学習が必要ですか。継続学習にはまだ多くの作業が必要です。今AIにおける重要なオープンな研究トピックの一つだと考えています。現在のテキストベースのメモリシステムの多くは、AIが何をするにせよ、それをやってからある種のエージェント的メモリにテキストの束を書き込みます。
疑問は、テキストが本当にメモリに十分な表現なのかということです。テキスト以外の表現についての研究もありますが、現時点では多くがテキストです。また、大規模言語モデルの重みを実際に更新することのないこれらすべてのメモリシステムを構築しているという事実は、パズルの重要なピースを見逃しているに違いないと感じます。
だから私のチームのいくつかはアイデアを持っています。それらをどこに持っていくかはまだ分かりませんが、人間ができてAIができないことの観点から継続学習を改善することは重要だと思います。
今、継続学習への最大のボトルネックは何ですか。正しいアイデアがないか、正しいアイデアが何かが分からないと言いたいです。たくさんのアイデアがあります。
それは単にそういうもので…
あなたでさえも。
有望だと思ういくつかのアイデアがありますが、例えば…
おそらく試す時間があるか見てみましょう。うまくいくか正直分かりません。でも私にとって、これは解決されていない巨大な研究問題を解決するためのボトルネックは何かと尋ねるようなものです。分かりません。そこに到達する道筋が明確ではないからです。
だから正確にボトルネックが何かすら言えません。単にやり方が分からないのです。エリエゼル・ユドコフスキーは、もし誰かがAGIを構築すればみんな死ぬが、遅らせる年ごとに癌や老化や病気で何百万人もが死ぬ、AIが解決できるかもしれない、どちらのリスクが大きいかと言っています。
私が彼の議論の多くを読むとき、意味が分かりません。彼の議論の多くは十分に循環的で、どう議論していいか分からないほどです。
今日の世界でAIが非常に多くの善を行っていると思うので、AI進歩を加速するためにできることは何でも、より良い生活、より多くの命が救われること、より多くの人々がずっと裕福になること、多くの人々がずっと良い状態になること、多くの人々を貧困から救い出すことにつながるでしょう。
AIの純便益は純害よりもずっと大きく、明確にすべきいくつかの有害なユースケースがありますが、それらを取り除きましょう。でもこの時点で、AI進歩を加速するためにできることは何でも人類にとって良いことだと確信しています。
あなたの観点から、未来は予測不可能ですよね。
未来を予測する方法を知っていればいいのですが、もちろんそれは予測不可能です。でも、世界が正確にどこにあるかを確実に知らないからといって、非常に高い確信を持っている傾向があると感じます。例えば、コンピュータがより知的になることは、明らかに素晴らしいことだと思います。知性へのアクセスを民主化して、単に…知性は世界で最も高価なものの一つであることが分かります。
賢い医者や賢い教師を雇うのには多くのお金がかかります。
AI安全性とシリコンバレーの姿勢
もっとAI安全ツールが必要ですか。もちろん、AIシステムをより信頼性が高く、リスクを減らすために取り組むべきです。同時に、すべてを見ると…
周りのみんなは利益になることに焦点を当てています。
シリコンバレーについて人々がお金だけを気にして他のことは何も気にしないという見方があることに、多くの人が驚くと思いますが、それは絶対に間違っています。
率直に言って、多くの企業で働く多くの友人がいます。個人的に多くのCEOを知っていますが、利益だけを気にするのは非常に小さな少数派です。本当に小さな割合です。長い間、まあ10年以上知っている多くの友人、これらの企業の多くの人々は、本当に正しいことをしたいと思っています。
だから人々は神を真剣に受け止めます。人々は責任あるAIを真剣に受け止めます。人々は座ってAIシステムでうまくいくかもしれないことやうまくいかないかもしれないことをすべて本当にブレインストーミングし、リスクを軽減しようとします。だから利益のためなら何でもする一群のカウボーイやカウガールがシリコンバレーにいるという見方、ステレオタイプ、偽のステレオタイプがあることは知っていますが、それは完全に真実ではありません。
不幸にも、何十億ドルも稼ぐ誘惑があるとき、その誘惑は強いですが、それは本当に小さな少数派だと思います。非常に小さな少数派、人々が下さなければならない決定の点では極小の少数派です。
オープンソースの未来と教育
オープンソースの時代は終わったのですか。
オープンソースは今素晴らしい状態です。一つ奇妙なことは、最高のオープンソース・オープンウェイトモデルの多くが中国から出てきていることです。過去数年間の業界を振り返ると、毎年オープンソースやオープンウェイトのオプションが急速に成長してきました。だからオープンソース運動は非常に強いと思います。同時にプロプライエタリオプションも急速に成長してきましたが、それでいいのです。重要なのは、オープンオプションも強く成長していることです。AI開発の現在の段階を見たとき、何が頭を過ぎりますか。みんながAIを構築できるようにしたいです。
だから開発者として、もう二度と手でコードを書きたくありません。AIにできるだけ多くのコードを書いてもらいたいです。AIによるソフトウェアエンジニアリングの加速は非常に明確です。でもソフトウェア開発者でない多くの人々にとってあまり明確でないのは、ソフトウェアを構築すること、AIで物事を行うことは、しないよりもずっと良いということです。
Armor Marieは私たちのチーム間でこれを見ています。AIの使い方を知っているマーケターは、知らないマーケターを圧倒しようとしています。AI Fundの私のCFOは、コードを書きますし、仮に他のCFO、AIアシスタンスを使ってコードを書く方法を知らない仮説的なCFOよりもずっと多くのことを成し遂げます。だから私が見ているのは、AIツール、特にAIでソフトウェアを構築することを含めて、みんなが持つ必要がある本当に重要な新しい能力のように感じます。
新しい能力が出てくると、多くの人々がそれらを受け入れて先に進み、ずっと多くのことができ、ずっと生産的になれます。悲しいことに、それらを受け入れない人々は残念ながら取り残されるでしょう。
実際、それについてかなり心配しています。大きな課題の一つは、大学システムを見ると、多くの大学はカリキュラムの適応が遅く、いまだに2022年の仕事のために学生を訓練しています。
でもそれらの仕事の多くは、実際には存在しません。だから雇用主は2022年のような採用をしたがりません。代わりに、多くの雇用主はAIを知っている、AIで構築する方法を知っている十分な人材を見つけられません。ソフトウェアエンジニアのことを言っているのではありません。本当にAIを知っているマーケター、リクルーター、財務専門家を十分に見つけられないのです。教育システムを変えて、学生や大人にこれらのツールを使ってずっと多くの仕事を成し遂げる能力を与えること。
それには教育システムの大きな変革が必要です。でもこの時点でどうやってそこに到達するか。それはまだ私には非常に困難に思えます。AIがあなたを教育者として置き換えるには何が必要ですか。
知っていればいいのですが。実は私のチームは定期的に私を置き換えるAIを書こうとしています。私の祝福と強い奨励を受けて。
それでもまだ不可能ですよね。
悲しいことに、彼らはまだ私を置き換えることができていません。
私は汎用的な形のAIだと思います。
おそらく学習がどう機能するか分からないのでしょう。
ええ、そう思います。もしAGIに到達できたら、素晴らしいかもしれません。引退して、何か他のことをしに行けます。多くの熟練した人々を置き換えることは、AGI問題のように感じます。それはまだ非常に遠いと思います。狭い垂直分野については、狭い垂直分野にサービスを提供するAIを構築する能力は、この汎用AIへの希望よりもずっと速く成長するでしょう。自動車学校は実際に興味深いです。アメリカの自動車学校は少し規制の虜になってきたことが分かっています。運転シミュレーターのように他の国で採用されてきた多くのイノベーションがあります。
運転シミュレーターは多くの国で運転時間数にカウントされますが、アメリカではカウントされません。
そのため、運転シミュレーターはアメリカでは他の国ほど使われていません。
だから非常にイライラする奇妙なことがあります。アメリカはもっと運転シミュレーターを使うべきだと思います。子供たちに教える非常に安全な方法だからです。
プログラマーは失業しますか。
AIを使わないプログラマーは困ったことになると思います。でも本当にAIを知っているプログラマーは非常に生産的です。
彼らを十分に見つけられません。
仕事の自動化と未来
彼らは失われるのですか。
失われるというのは少し悲惨に聞こえます。ほとんどの職種はどこにも行かないと思いますが、AIは誰かを置き換えないが、AIを使う誰かがAIを使わない誰かを置き換えるという哀れな言葉は、多くの場合真実です。では、透明性を持ちましょう。
完全に真実を言いましょう。AIによって完全に自動化される少数の職種があります。だから正直に言って、多くの翻訳者は困っていると思います。翻訳者、音声俳優も困っているかもしれません。だから悪いニュースは、AIが完全に自動化できる非常に小さな割合の職種があることです。彼らについては本当に同情しますし、新しいスキルを得て、労働力に再参入し、他の意味のあることを見つけられるように、できる限りのことをする義務があると感じます。AI関係者として
彼らの世話を確実にするためにできることは何でもする義務を感じますが、大多数の仕事についてはAIは自動化できます。
放射線科医。
放射線科医を自動化するのは人々が思ったよりもずっと長くかかっていると思います。弁護士の予測よりもずっと長くかかっていると思います。
ああ、弁護士は非常に多くの規制の虜があって、人間の弁護士を完全に置き換えるのは非常に難しいと思います。
でもAIを使わない弁護士は、AIを使う弁護士よりもずっと生産性が低いでしょう。
AIは法的調査が非常に得意だからです。AIは法律の一部を本当にうまくできると思います。でもトリックはこうです。仕事があってAIがその30%を実行できるなら、その70%はまだ人間が実行する必要があります。
でもその人間はAIを使った方がいいです。AIを使わない人は、多くの生産性を失っているからです。
どの仕事が最終的に完全に消える可能性があるか予測できますか。
明らかなものは、多くのコールセンターの仕事がなくなっています。翻訳者の仕事、音声俳優の仕事。困っているのは、仕事のほぼ100%、または100%近くが自動化できるものだと思います。
でも非常に多くの仕事が複雑で多面的であり、テキストは素晴らしいけれど非テキストはそうではないことが分かります。だからほとんどの仕事について、AIは自動化できると思います。友人のエリック・ブリニョルフソンなどが行ったこれらのタスクベースの仕事タイプの分析研究を見ます。仕事を取り出してタスクに分解し、AIが自動化できるタスクを見ます。
多くの仕事について、AIは誰かの仕事の30%から40%を自動化でき、それでもその60%から70%を行うために人間が必要です。AIがほぼすべてを自動化できる小さな割合があります。だからそれらの仕事は困っていますが、それは外にある仕事の非常に小さな少数派です。あなたは2017年にBaiduを去りましたよね。ここにいることを決めた理由は何ですか。Baiduでは素晴らしい時間を過ごしました。Google BrainからBaiduに移り、それからAI FundとDeepLearning.aiを運営したとき、人々は何か秘密があるのかと不思議がり続けますが、実際には何が起こったかというと、BaiduでAIチームを運営していて、素晴らしいチームでした。オンライン広告の改善、ウェブサイトの改善、すべてのコアビジネスの構築という素晴らしい仕事をしたと思います。チームはそこで素晴らしい仕事をしていました。
組織図を見て考えたのを覚えています。もし私がここにいなくても、本当に良いチームがいる。彼らはおそらく私なしでうまくやるだろう。そしてまた、当時の私の仕事の最も楽しい部分は実際に新しいビジネスユニットを構築することだと気づきました。母艦のためにお金を稼ぐのは素晴らしい仕事でした。
チームがやった仕事を本当に誇りに思っています。でも私が個人的に最も楽しかったのは新しいビジネスを構築することでした。例えば、Baiduの自動運転車チームを運営していました。今日も中国でうまくやっています。Baiduの、AlexaやHey Siriのようなスマートスピーカーチームのようなものを運営していて、今日も中国でうまくやっています。母艦のためにお金を稼ぐことができる一方で、私が実際に本当に関与していたのは新しいビジネスを構築することだと感じました。大企業の文脈内でそれをやることは良かったです。もし何か他のことを始めたら、それがAI Fundというベンチャースタジオになりましたが、概念として大企業ではなく、ゼロから1へとビジネスを構築するのであれば、おそらくそれをさらにうまく機能させられるかもしれないと感じました。だからBaiduから離れてDeepLearning.aiを始めました。
人々がAIで構築できるようにするために教育でずっと多くの作業を続けたかったからです。そして追加的に、スタートアップを構築するAI Fundベンチャースタジオを運営するためです。
中国とアメリカのAI競争
中国は今先を行っていると思いますか。
AIは多面的で、中国はオープンソース・オープンウェイトモデルのようないくつかの場所でアメリカより先を行っており、アメリカはプロプライエタリモデルのようないくつかの場所で中国より先を行っています。
だから選択を後悔していないのですね。
中国のチームと仕事をするのは素晴らしい時間だったと思います。DeepLearning.ai、AI Fund、より最近のAI Aspire、Landing AIで仕事をするのは素晴らしい時間を過ごしています。だから幸せです。後悔はありません。
純粋なスケールの観点から、中国はもっとエネルギーを持っていないですか。中国には多くの利点があります。
アメリカにも多くの利点があります。この連合は不完全ですが、私はアメリカと西洋世界を愛していると感じます。民主主義がうまく機能する年もあれば機能しない年もあると感じますが、それはアメリカでの私たちのやり方の重要な柱だと感じます。
アメリカではまだやるべき良い仕事がたくさんあると思いますし、興奮しています。
あなたの会社から何が期待できますか。
みんながAIで構築できるようにしたいです。開発者が最新のツールにアクセスできるよう支援することに非常に集中してきましたし、それに懸命に取り組み続けます。AI開発者を本当にサポートすることに加えて、キャリアを構築し、成長させること、実際に開発者だけでなくみんながAIで構築できるようにすることを広げたいです。それがDeepLearning.aiの焦点です。
Baiduから離れた理由の一つは、実際にGoogleでチームを率いていたときとBaiduで見つけたことですが、Google内で構築するのが理にかなっているビジネスもあれば、Baidu内で構築するのが理にかなっているビジネスもあります。でも関税コンプライアンスのような他のこともあります。
なぜインターネット企業がそれを気にするのでしょうか。だからAI Fundは多くの異なるスタートアップビジネスを構築します。AI Fundで取り組むことができるものの多様性に興奮しています。比較的新しい取り組みであるAI Aspireは、友人のKirsty Tanと私が大企業向けのAIアドバイザリーに取り組んでいます。
AI採用で本当に針を動かしたければ、開発者は重要ですし、個人消費者は重要ですが、大企業をそこに到達させる必要があります。だからBainなどとのパートナーシップでかなりの時間を費やしています。Bainは素晴らしいチームで、本当に賢いです。Kristoffと彼のチームと一緒に仕事をするのは特権です。
大企業が本当の価値を推進し、AIで本当に勝つ方法についてアドバイスするためです。
AIコミュニケーターでもあることを決めましたね。理由は何ですか。
ええ、非常に核となる価値観に触れていますね。何をするか優先順位をつける方法をお話しします。最も高く優先する2つのことがあると思います。本当に信じていることです。
私の時間の良い使い方だと思うことです。一つは、人類をより強力にすることです。だから私が研究者になり、スタンフォードで教授になったのは、最先端技術を進歩させる研究が新しい技術を発明することで人類をより強力にすると思うからです。だから人類をより強力にすることを信じています。
私が深く信じている2つ目のことは、他の人が夢を実現するのを助けることです。他の人が私の夢を実現するのを助けるのではなく、他の人が彼らの夢を実現するのを助けることが重要な区別です。人生を通じて、他の人にツールとスキルを与えられれば、彼らが自分の夢を実現するより良い立場に置けると感じてきました。だからDeepLearning.aiを通じた教育は、常に非常に動機付けられることでした。
あなたの人生を振り返ったときに後悔していることはありますか。もし時間を戻せるなら、これをして何かを変えますか。
まあ、違ったやり方をしたであろうことは非常に多いです。率直に言って。
分かりません。いくつか良い決断をする幸運に恵まれました。でも非常に多くの悪い決断もしました。非常に多くのことがあると思います。例えば、その特定の人を雇うべきだったか、その特定のプロジェクトをすべきだったか、そのプロジェクトにもっと熱心に取り組むべきだったか、諦めるべきだったか。
知性と意識の本質
もし現実について一つの質問の答えを見つけられるとしたら、それは何ですか。
知性の本質は何かを理解したいです。
意識のことですか。人間の脳の内部で物質がどのように意識に変換されるか、それとももっと何か。
実は意識ではありません。意識は重要な哲学的問題だと思いますが、意識が何かを知りません。
哲学者は自己認識という意味で意識について話します。でも実際には、私が意識があるかどうかあなたは知らないし、あなたがそうであるかどうか私は実際に知りません。そうですよね。哲学には、おそらく私は単なるゾンビで、実際には意識がないけれど、ただ手を動かし、口を動かして意識があるふりをしているだけかもしれないという概念があります。
あなたは私の内面的経験にアクセスできないし、逆もまた然りなので、私たち以外の誰かが意識があるかどうかは実際には分かりません。でも礼儀として、みんな自分たちが意識があると思うように、他のみんなも意識があるふりをしていると思います。だから意識は測定可能ではないので、私にとってそれは科学的問題というよりも哲学的問題です。
哲学は重要ですが、私は科学的問題に引き寄せられます。私にとって知性の本質は、人間の脳、またはおそらく他の生物学的な脳が、私たちが見る膨大な範囲の知的行動を示すことを可能にするメカニズムは一体何なのかということです。一体どのように機能しているのか。ところで、Google Brainチームを立ち上げる前に、あまり広く知られていないことの一つは、神経科学者の友人たちと多くの時間を過ごし、大量の神経科学論文を読んでいました。そして神経科学者の友人たちには大きな敬意を払いますが、神経科学は脳がどう機能するかについて全く分かっていないと結論づけました。正直なところほぼ何も分かっていません。だから知性を構築する道筋としての神経科学は諦めましたが、知性が実際にどう機能するか、知性の本質は何かを理解することは、スケーリング則を持つTransformerネットワークではないことはかなり確信しています。
それ以上のものが必要だとかなり確信しています。でも知っていればいいのですが。
推論の本質も何ですか。
ええ。ええ。推論は知性のサブセットだと思います。推論が実際にどう機能するかを理解することも魅力的でしょう。
なぜ西洋世界ではこんなに不幸なのですか。彼の西洋の天気についての特徴づけには本当に同意しません。これらの理由で。
私は飲む水に幸せを求めませんが、水を飲み、それが私を健康に保ちます。AIに幸せを求めるのは間違いだと思いますが、AIは本当に人々を保持します。それは私たちを保持し、物事を構築し、スキルを与えるのを助けます。だからAIは重要ですが、AIに幸せを求めるのは間違いです。それは私が思うに、幸せを求めるのが間違いであるのと同じです。幸せは私たちが構築する人工物からよりも、ずっと内側から来ると思います。でも他の人を助けようと努力するそのプロセスが、多くの人々にとって
幸せを見つけることを願っています。そして私はAIでの仕事を通じて他の人を助けられることを願っています。他の人に役立つかもしれない仕事をできることに多くの喜びを見出しています。
お時間ありがとうございました。
ありがとうございました。


コメント