AIバブルはいつ崩壊するのか?(ゲーリー・マーカス、ムラド・ヘマディとの対談)|アテンション:統治せよ、さもなくば統治される

AIバブル
この記事は約26分で読めます。

AIバブルの崩壊可能性について、長年AI研究に携わってきたゲーリー・マーカスが警鐘を鳴らす。ChatGPTをはじめとする大規模言語モデルは技術的にも経済的にも持続不可能な基盤の上に構築されており、ハルシネーション問題や推論能力の限界は四半世紀前から予見されていた問題である。スケーリング則という仮説に基づいて兆ドル規模の投資が行われているが、GPT-5の登場によってその限界が明らかになりつつある。投資家心理の転換点が訪れれば、VC、年金基金、銀行、そして経済全体に波及する可能性がある。マーカスはLLMの代替として、システム1とシステム2を統合したニューロシンボリックAIと世界モデルの必要性を説く。現在のAIは技術的にも倫理的にも不十分であり、安全性が確保されるまで開発を待つべきだという主張は、商業的圧力と国家間競争の中で無視され続けている。しかし市民が声を上げなければ、権力はテック企業に集中し続けるだろう。

When Will the AI Bubble Burst? (Gary Marcus with Murad Hemmadi) | Attention: Govern Or Be Governed
Professor Gary Marcus (Professor Emeritus of Psychology and Neural Science, New York University) and Murad Hemmadi (Jour...

AIバブルの特徴と経済的矛盾

まず、あなたがこの問題について多くの人よりもずっと長い間語ってきたことを踏まえてお聞きします。今日のAI分野で見られるバブルの特徴とは何でしょうか。

経済性が全く意味をなしていないこと、そして技術面での誇大宣伝も意味をなしていないこと、この二つが組み合わさっているのです。ChatGPTは数年間、フリーパスを得てきたと思います。人々はずっと、これは良くなっていくだろうと考え続けていました。私はずっと、いや、技術面を見てきたが少しは良くなるかもしれないが劇的には良くならないと言い続けてきました。

私がこの分野に長く携わってきたとおっしゃいましたが、私は2001年に「代数的な心」という本を書きました。これはニューラルネットワークと古典的AIについて、そしてなぜそれらを統合する必要があるかもしれないかについての本でした。そして当時、今日のシステムの祖先においてハルシネーションは避けられないと指摘したのです。推論問題などを含め、四半世紀にわたって存在してきた多くの問題があります。

ChatGPTが登場したとき、ほとんどの人は歴史を本当には知らず、技術面も本当には理解しておらず、システムがいかに生き生きと見えるかに感銘を受けていました。私たちのように長年この分野にいる者は、もちろん1966年のElizaを覚えています。人間のふりをしていましたが、実際には非常に愚かなものでした。そして人間は誘惑されうるということを知っています。

そして基本的に私たちが目にしたのは誘惑だったのです。多くの人が、サム・アルトマンのような人々が言ったことを信じたと思います。スケーリング則と呼ばれるものがあって、それらは宇宙の法則のようなもので、より良いAIに到達することがほぼ保証されているのだと。

そして実際に起こったのは、世界の多くが彼の話の多くを信じたということです。彼は技術的にはそれほどでもないと思いますが、セールスマンとしては比類なき存在です。多くの人が彼を信じました。彼はキャンペーンを展開しました。例えば、DALL-E 2が出た後にAGIはワイルドなものになるだろうと言い、AGIは社内で達成されたとRedditで冗談として言ったりしました。

多くの人がそれを信じましたが、実際に試してみると、それほどうまく機能しませんでした。GPT-4については、地球上のほとんどすべてのCEOが最高情報責任者や最高技術責任者に、これを本番環境に導入して使わなければならないと言いました。それでみんなが試しましたが、大体において期待したほどうまく機能しないことがわかりました。

そして世界全体が変わり始めたと思います。確かに私の世界は8月に変わり始めました。GPT-5が出たとき、私はこれは魔法ではない、汎用人工知能ではないと言い続けていました。また、遅れるだろうとも言い続けていました。映画「飛行機!」を覚えている人がいるかどうかわかりませんが、最後のシーンで、7番ゲートに到着中、8番ゲートに到着中、9番ゲートに到着中と、飛行機が突進していきます。実際にGPT-5についてそんな感じのSubstackエッセイを書きました。遅延し続けているだけだと。いつ到着するかわからないと。

実際に到着したとき、多くの失望があったと思います。良かったです。前作よりも優れていました。しかし魔法ではありませんでした。試してみて、魔法になると思っていた企業があったのに、そうではなかった。そしてそれが実際に大きな変化を引き起こしたと思います。

バブルが崩壊するかどうかについて話すとき、バブルが崩壊するかどうかの多くは実際には心理的なものだと思います。経済性は最初から意味をなしていませんでした。信頼性のないAI技術があれば、できることは限られています。本当に信頼できるAIがあれば、あらゆることに使えるでしょう。

投資バブルの構造的問題

では、その上に築かれた経済性について話しましょう。その不安定な基盤の上にどのような構造が見えていますか。

ニュースを読む人なら誰でも、そしてここはニュース消費者でいっぱいの部屋だと想像しますが、データセンター、インフラ、取引、循環性、警鐘を鳴らすようなことをたくさん読んでいるでしょう。この種の虚偽の約束の上に築かれた建造物とは何でしょうか。

人々は兆ドルを投資しています。狂気の定義として古い格言があります。同じことを何度も繰り返して異なる結果を期待することです。基本的に、ここ数年のAI分野はまさにそれです。彼らは実験を続けています。なぜなら、これは本当に科学的仮説の検証だからです。科学的仮説は、より多くのデータを注ぎ込めば、最終的にAGIが得られる、より多くのチップ、より大きなコンピューターセンターだというものです。そして人々はその実験を試し続けています。

しかし実際にはうまくいきませんよね。GPT-4.5はGPT-5と呼ばれるはずでしたが、十分に良くなかったのでGPT-5とは呼びませんでした。Llama 4は期待外れでした。人々はこれらの大きなモデルを構築し続けていますが、うまくいかないと、さらに大きく構築しようとします。最近の子供たちが言うように、もっともっとと。それで二つの問題があります。

一つは、これらのモデルを訓練するのに非常にコストがかかるということです。運用するのも非常にコストがかかります。つまり、本当に良いビジネスモデルが必要だということです。私が見る限り機能しそうな唯一のものは監視です。OpenAIがそちらに移行しているのが見えます。ポルノもあるかもしれません。それも見られます。しかし大体において、これらの企業は実際にはお金を稼いでいません。損失を出しています。

唯一多くのお金を稼いでいるのはNvidiaで、ゴールドラッシュでシャベルを売っているようなものです。丘に金があるかどうかはわかりませんが、シャベルは良いのでNvidiaはいいですね。それから音楽会社が儲けているようですが、ほとんどの企業は実際には儲けていません。

それが一つの問題で、単に莫大に高価であり、彼らはダブル・オア・ナッシングのゲームをし続けているのです。今や経済全体でダブル・オア・ナッシングのゲームをしているのでしょう。おそらくそれについても話すことになるでしょう。それが一つの側面です。

そしてもう一つは、彼らのやっていることが少し狂っているということです。減価償却を考慮に入れていないからです。ハードウェアについて一つ確実にわかっていることがあるとすれば、彼らがこのお金をすべてチップに投入しているということですが、チップは長い間その価値を保持しないということです。つまり、3年後にはあまり価値がないかもしれないチップに兆ドルを投入しようとしているのです。より良いチップができるからです。より良いチップを作るための圧力が非常に大きいからです。

そして私たちは中国にもより良いチップを作るよう圧力をかけています。つまり、お金を失っている、チップは減価する、約束された品質は実際にはそこにない。本当に意味をなしていないのです。

年金基金から銀行まで広がる影響範囲

私は主要シャベル製造者ジェンスン・フアンの服装、レザージャケットとジーンズを着ていると言いたいところですが、これは意図的ではありません。彼は確かに最近、もっと多くのレザージャケットを買うお金を持っていますね。では、経済全体をこれに賭けるという部分についてお話ししたいと思います。

二つの部分がありますよね。まず公開市場から始めましょう。公開企業の評価額が膨らんでいます。そして非公開企業についても。なぜ、多くのVCが多くのお金をこれらの企業で失うことが重要なのでしょうか。

もしそれだけで済むなら、私たちは幸運だと考えるべきです。私は今の私たちを崖の端にいるロードランナーだと考えています。そして今は完全に心理的なものです。私たちは崖を越えていて、人々がそれに気づくのがいつかによって、いつ落ちるかが決まります。そして問題は、爆発半径は何かということです。

最も被害が少ないのは、単に一部のVCだけということです。しかし、それだけではないことはわかっています。多くのVCはここ数年、大言壮語をしてきました。彼らが一掃されても誰も嘆かないでしょう。しかし彼らが投資しているお金の一部は、彼ら自身のお金ではないのです。

例えば、カリフォルニア年金基金はOpenAIに、今ではおそらく10億ドル近くあると思いますが、全額投資しています。もしカリフォルニア年金基金がその10億ドルを失ったり、その大部分を失ったりすれば悲しいことです。つまり、リミテッドパートナー、つまりLPがいて、カリフォルニア年金基金はその一例ですが、多くのカナダの年金基金、そしておそらくカナダの、数字は見ていませんが、カナダ年金基金、おそらくあらゆる人の年金基金がある程度関わっています。

一つのシナリオは、OpenAIが資金調達ラウンドを成立させられず、お金を燃やし続け、最終的にWeWorkのような効果が起きて、必ずしも事業をやめるわけではないが評価額が大幅に下がるというものです。そうなるとOpenAIに投資している全員が問題を抱えます。

次のレベルは、Nvidiaに投資している全員が打撃を受けるということです。Nvidiaは大量のチップを販売することを前提としており、もし人々が顧客がそれらすべてのチップを買えないことに気づけば、Nvidiaは下がります。これはNvidiaを中傷しているわけではありません。私は本当に良い製品で、その周りに良いエコシステムがあると思います。

しかし今の価値は、基本的にほぼ無限の数のチップを販売できるという考えに基づいています。そしてそれは変わる可能性があります。OpenAIがWeWorkの瞬間を迎えて崩壊したら、Nvidia株にどうなると思いますか。そして年金を持っている全員が、この時点で文字通り全員ではないにしても、多くの人がNvidiaをいくらか持っています。なぜなら、人々が紐づけられているインデックスに含まれているからです。そうなると、全員の年金基金に影響し始めます。

さらに悪化する可能性があり、私たちが公に知らない多くの数字があります。しかし、銀行が困窮するとしたらどうなるか考え始めることができます。この投資資金はすべてどこから来ているのか。どれだけレバレッジがかかっているのか。非常にレバレッジがかかっているかもしれません。最悪のシナリオは、銀行も打撃を受けるというものです。

そして、私たちはその映画を以前見たことがあります。私はかなり確信していますが、確実ではありませんが、最終的には「大きすぎて潰せない」というフレーズをこれに関連して聞くことになると思います。そして次のレベルは、ドナルド・トランプが「なんてこった、中国に勝たなければならない。これらの人々は事業を失おうとしている。そんなことは許せない。

あなたの税金をすべて使おう。私に2億3千万ドル、彼らに2300億ドル、そして全員が幸せだ」と言ったらどうなるかです。もちろん、私たち全員が幸せになるわけではありません。

雇用への影響と規制の必要性

私はすぐに、この種の競争またはFOMO(取り残される恐怖)のフレーミングがこれらの種類の政策問題に与えた影響に飛びたいと思います。しかしその前に、バブルが労働力などへの影響についてお聞きしたいのです。

あなたの指摘通り、すべてのCEOが運用担当者やCIOに「このテクノロジーが私たちのために何ができるか見てみよう」と言っているなら、すでに巨大な数ではありませんが、このテクノロジーがそれらの役割を埋めるという前提で、いくつかの解雇が起きています。

そこで少し止めたいのですが、実際にAIが人々の仕事をしていることによって引き起こされた解雇がどれだけあるかについては明確ではありません。対して、AIが人々の仕事を奪う口実を与えているということについては、明確ではありません。私たちはそれについて本当に明確性を持っていません。そして私は、Klarnaエフェクトと呼んでいるものを考え続けています。

Klarnaは、全員をAIで置き換えると言い、その後実際にはうまくいかず、18ヶ月後に「私たちは人の会社です」と言って人々を再雇用し始めました。それで全員がKlarnaをからかって、Klarnaエフェクトを覚えておくべきです。

実際にAIによって置き換えられている仕事の数は、これまでのところ比較的少ないと思います。AIの口実の下で解雇された人々の数は確実に多く、それに対する中期的な影響はわかりません。非常に長期的な影響は確実にAIです。

私が技術的に不十分だと主張してきた生成AIではないかもしれませんが、いつかある形のAIが確実に多くの雇用を奪うでしょう。しかし、もう一つの障壁は物理的なロボットです。イーロンは、来年何台のロボットが実現すると考えているかを私たちに話すことができます。私は彼が決して受けない賭けを彼に提供し続けています。

私たちは、本当にスキルの高い汎用の物理的ロボットを家庭などで近いうちに見ることはないでしょう。配管工のような仕事は、この10年間でそのような仕事ができるロボットは絶対にないでしょう。

そして、もしあなたがその種の先制的な、またはAIの口実の下での仕事の置き換えがあり、その後バブルが崩壊して経済全体が低迷し、今やそれらの人々がさらに悪い状況にあるとしたら、興味深い問題があると思います。

ええ、つまりそれは完全にあり得るシナリオで、再び爆発半径に戻ります。誰が影響を受けるのか、どこまで関与しているのか。本当に誰も、影響がどこまで広がるかを知らないのです。

最も幸せなシナリオは、繰り返しますが、数人のVCだけであり、名前は挙げませんが、私たちの多くにとってかなり暗い他のシナリオがあります。

では、約束していた規制の部分をやりましょう。私たちはこの数日間、このステージからAIのために企業や政府や社会が行っている妥協について、あるいは反対側から言えば、賭けについて多くを聞いてきました。

一方では、トランプ政権が基本的に国内外で規制はイノベーションを阻害すると言っており、私たちの大手テック企業に触れるなと言っています。昨日このステージにAI大臣がいましたが、基本的に米国と中国は規制がイノベーションを阻害すると信じており、カナダはそれに応じて選択をする必要があると話していました。

質問を終える前に割り込ませてください。でも、それは主張だということを指摘したいのです。ところで、あなたの質問の仕方からそれは非常に明確だと思いますが。規制がイノベーションを阻害するというのは主張です。それほど多くの証拠がある主張ではありませんよね。

そして、私が本当に言おうとしているのは、もしあなたがバブルについて正しいなら、私たちは基本的に、このもののために、私たちの政策、社会政策、経済政策、インターネット上の安全政策のすべてを再編成してしまったのでしょうか。そしてもしそれが実現しなかったら何が起こるのでしょうか。

それはまさに私が2週間前にロンドンの王立協会で主張したことです。私たちは社会全体を一つの特定の技術についての賭けの周りに構造化してしまったと。そして実際の科学者である人なら誰でも、それを見て、まあ、それは仮説だと言えます。

仮説は、これらのスケーリング則、これらの曲線を描けば、それらは続いていくだろう、十分なデータを追加すればAGIに到達するだろうというものです。私たちは今、その仮説に反する多くの証拠を持っています。しかしあなたは全く正しい。私たちは社会全体をその周りに組織してしまいました。

私にとっては少し驚愕です。なぜなら、私は思考とは何か、機械は思考できるかということについて、10歳から、あるいはどう数えるかによっては13歳から考えてきたからです。そしてこれらは常に学問的な質問でした。私が大学で最初に受けた授業は形而上学で、機械が思考できるかどうかについてエッセイを書きました。これらは本当に抽象的な質問でした。考えるのは楽しかったですが、今や私たちは文字通り、チャットボットが思考できるという仮定の周りに社会を構造化しています。いつかそれらに頼ることができるようになるだろうと。

そして、私があなたに触れてほしかったこの全体の仮定もあります。地政学的政策をこの周りで行うべきだというこの全体の仮定です。GPT-5が出る前の私の冗談は、少し巻き戻させてください。

GPT-5が出る前に、私を含む多くの人々が手紙に署名しましたが、私は彼らとは全く異なる理由で署名しました。GPT-5が私たち全員を殺すだろうと本当に心配している人々がいました。本当にそう考えている人々がいたのです。

そして、中国に先にGPT-5を手に入れさせることはできないという全体的な議論がありました。そして私の考えは、なぜだろうというものでした。これらのシステムの問題は、不完全な情報や異常な状況があるときに非常に悪いということです。それで私は、中国がGPT-5で台湾侵攻を計画しているのを想像しました。そして私は、どうぞやってくださいと思いました。彼らにやらせればいい。ハルシネーションさせればいい。それは私たちの仕事を楽にするだろうと。

そしてそれについての私のもう一つの冗談は、まあ、彼らがGPT-5を先に手に入れたら何をするつもりなのか。私たちよりも多くの定型文を書くのか。そして現実は、GPT-5が先に来て、それは実際には重要ではなかったということです。

私たちが今、中国よりも何らかの優位性を持っているようなものはありますか。私たちがGPT-5を持っていて彼らが持っていないことで。彼らは4週間後には持つでしょう。それは全く関係ありません。

しかし私たちは、物事を遅らせたくないから規制はしないと言っています。では、その部分に戻りましょう。歴史を見ると、私はすべての歴史を知っているわけではありませんが、技術の規制の歴史を見ると、時には規制が実際に技術を促進することがあります。

より安全な車を手に入れたり、昔は列車が火花を出して、列車の路線近くの家を焼き払っていました。それがガードレールという言葉の由来だと思いますが、火花を出していたので、ガードレールを設置しました。人々は列車を信用しなかったので、信用してもらえるように規制を設けました。あるいは商業航空を考えてみてください。

私はこの10日間で7回くらい飛行機に乗りましたが、商業航空に乗るときは本当に心配を感じません。なぜでしょうか。それは、飛行機がどのように作られるか、設計されるか、整備されるか、事故があった場合にどのように調査されるかについて、3層以上の、数え方によっては3層以上の規制があるからです。

もし規制を取り除いたら、私は商業航空には乗りません。あるいは、この国が、世界中のすべての国が参加していますが、この国がイノベーションを航空業界で促進したいので自発的に参加しないと言われたら、私は「いいえ、結構です」と言うでしょう。

そして実際、空港で足止めされたことがあるなら、そう感じないかもしれませんが、私たちは多くの場所よりもはるかに優れた航空安全組織を持っています。それは奇妙な歴史的理由によるものですが、実際に国際協力もうまく機能している場所です。完璧ではありませんが、本当に本当にうまく機能しています。

主張のアイデアに戻ると、この会話のタイトルの最後に疑問符があります。AIバブルは崩壊するのか。議論のために、何がAIバブルの崩壊を防ぐでしょうか。

補助金でしょうね。つまり、連邦政府が十分な納税者のドルを使いたければ、続けることができると思います。そしてある意味で、彼らはすでに様々な種類の隠れた方法でそれをやっています。それほど隠れてもいませんが。

米国政府はIntelの10%を購入したばかりだと思います。それで、続けることができる方法があります。もちろん、私たちは新しい循環経済を持っています。OpenAIがOracleからお金を受け取り、それがOpenAIに戻ってきます。そのような小さなゲームがたくさんあります。

私の感覚では、投資家はそれについて少し心配し始めており、それが無期限に続くことはないでしょう。しかしそれは心理学についてです。私はチューリップのことを考え続けています。1634年のオランダだったと思いますが。価格はどんどん上がり続け、多くの傍観者にとって、これは狂っていることは明らかだったと思います。

そして傍観者はおそらく二つの陣営に分かれました。これは狂っている、これには触れないという陣営と、これは狂っている、他の全員が狂っている、持続する間に少し儲けようという陣営です。それらの人々のうち何人かは儲け、何人かは儲けませんでした。しかし、これは馬鹿げていると言える地点に達することができます。しかし心理がいつ壊れるかはわかりません。

私は今、それが壊れ始めている多くの兆候を見ていますが、確実には言えません。Teslaは2021年頃から劇的に過大評価されていると思います。その評価額も私には意味をなしません。Teslaは電気自動車を作っており、BYDは今やそれらをより良く、より安く、あるいは少なくともより安く、そしてかなり良く作っています。

そしてTeslaの残りの部分は、自動運転車についての空想の上に築かれていますが、それらをまだそれほどうまく作っていません。そしてロボットについて、さらに馬鹿げた議論があります。しかし長い間維持されてきました。部分的には、彼がフォロワーに対して持っている影響力などのためです。それで心理学の部分は完全に予測するのが難しいのです。

心理学は、十分なプロパガンダがあれば、つまり私たちは今日プロパガンダについて多くを聞きました。それは政治の世界だけでなくビジネスの世界でも起こっています。それでプロパガンダがそれを維持できる可能性があり、政府補助金がそれを維持できる可能性があります。

しかし大きな問題は、これらの人々が指数関数的なことについて話し続けていることです。彼らの投資は指数関数的に増加しています。それでOpenAIのような会社があり、これらの巨大な資金調達ラウンドを行わなければなりません。評価額を高く維持し続けなければなりません。

そしてある時点で、彼らは「次の期間のためにさらに10億ドル、あるいはさらに1000億ドルが必要だ」と言うでしょう。そして誰かが「その小切手は書けない」と言うでしょう。そしてその時点で、それが崩れ始めるのだと思います。

確かに、最大の資金調達ラウンドには今、非常に多くのプレイヤーが関与しています。非常に多くのプレイヤーと非常に多くの相互依存があります。また、OpenAIのような著名な企業が一つでもよろめけば、失敗する必要さえなく、このよろめきがあれば、それは山火事のように広がるでしょう。

ニューロシンボリックAIという代替案

ここでの代替案について少し時間を使いたいと思います。技術的代替案、そして技術的代替案の結果について。なぜならそれらも考える価値があると思うからです。

おっしゃる通り、ますます多くの人々が納得しつつあります。アルバータ州の教授であるリチャード・サットンは、多くの方が聞いたことがあるでしょう。彼はカナダに関する限り、ベンジオ、ヒントン、サットンのテーブルの第三の席です。基本的に少し前にあなたが正しかったとツイートしました。

ええ、それは驚異的でした。ほんの数週間前、リチャード・サットンが、この「苦い教訓」というもので有名な人物です。それは基本的に、これまでうまくいった唯一のものはより多くのデータだという議論です。彼がLLMに反対する立場を表明しました。そして私たちはTwitterでそれについて少し会話しました。

そして彼は私を褒めて「あなたは正しかった。ずっと正しかった。そして本当に感謝している」と言いました。AI主流派の誰かから、状況が変わり、代替案が必要かもしれないという認識を聞くのは驚異的でした。

それであなたの代替案はニューロシンボリックAIと呼ばれるものです。小学2年生の読解レベルで、それは何ですか。

2年生はできませんが、9年生くらいならできるかもしれません。

この部屋のほとんどの人は、おそらくダニエル・カーネマンのシステム1とシステム2の区別を知っているでしょう。カーネマンは人間の心について話しましたが、AIにも並行関係があると思います。

カーネマンの区別では、認知の一部は高速で自動的で反射的で、ある種統計的に駆動されています。そして一部はより熟考的で、より抽象的で、より理性的です。AI の歴史を考えると、基本的にそれら二つは異なる思想学派で追求されてきました。

今人気のあるニューラルネットワークは基本的にシステム1のようなもので、古典的AIは基本的にシステム2のようなものです。そして様々な政治的・社会学的理由で、主にお金と大学院生と名声などに関係していますが、これら二つの学派の人々は互いを嫌い、極めて非協力的でした。

より良い技術的アプローチを持つために私たちがする必要があることの一部は、実際にこれら二つの伝統を統合することだと思います。統合する必要がある他のものもあります。確率論理や確率プログラミングのようなものです。それで、より統合された分野を持つ必要があり、この「私が私が」というような態度を減らす必要があります。AI分野は自己愛者たちによって非常に支配されてきましたから。そしてこれらの異なるアプローチのいくつかの統合を持つ時です。

それ自体は必要です、すみません、必要ですが十分ではありません。私は長い間そのために議論してきました。実際、私の最初の長文の議論である本「代数的な心」に遡ります。しかしそれは十分ではありません。

そして多くの人々がここ数ヶ月でこれを認識し始めていますが、私は長い間それを推進してきました。私が世界モデルと呼ぶものが本当に必要です。人間にとっての世界モデルは、外部世界の脳内表現です。それは物理的な世界かもしれません。私たちがこの講堂にいるということを表現できます。

今私はここに座っているので、そこを見上げていくつかのものを追加できます。私たちは話している人々を表現します。私はあなたが頭を縦に振っているのを見ます。私が長すぎないことがわかります。あるいはあなたが笑って、私の冗談が受けたかどうかがわかります。

ここには非常に多くの光があるので、私は観客をあまりよく見ることができないので、観客の不完全な表現を持っています。しかし私たちはこれらのモデルを構築しています。私たちはまた、架空の領域のこれらのモデルを構築します。

私の子供たちはちょうどすべてのハリー・ポッターの本を読み、すべての映画を見ました。それで彼らはホグワーツの領域、あるいはそれを何と呼びたいか、人々が箒で飛び、呪文を唱える異なる世界の表現を持っています。そして私の子供たちは若いですが、これら二つの世界を完璧に区別し、この世界の法則とあの世界の法則について推論することができます。

私たちはこれらの内部的なものを持っています。チェスボードも一つでしょう。私たちは駒がどこにあるかを知っています。LLMはそれをあまりうまくやりません。なぜかについて説明できますが、やりません。

私たちが必要としているのは、データからそれらの世界モデルを学習する方法です。それらを事前にプログラムする方法は知っています。最良のAIのいくつかは、チャットボットではありませんが、事前にプログラムされた世界モデルを持つシステムです。

GPSナビゲーションシステムは、ほぼ文字通り世界モデルを構築し、やることにおいてほぼ完璧です。AlphaFoldは私のお気に入りのAIの一つです。ヌクレオチドとタンパク質の三次元構造のモデルが組み込まれており、その領域内で機能します。

しかし、データから、それがどんなデータであれ、世界モデルを構築するシステムをどのように持つか。私が長い間好んできたニューロシンボリックAIは、それの前提条件だと思いますが、それだけでは十分ではありません。私たちがまだ直面していない本当に難しい問題がまだあります。

人々が2年後にAGIと言うとき、私は冗談でしょうと思います。あなたはその問題に対する答えの始まりさえ持っていません。

それで、あなたはそれらの技術的基盤がどのように異なるか、そしてそれが今のLLMで想像している、あるいはすでに到達している障壁よりもどのように先に進むかを説明しました。しかし、今存在する生成AIには技術的問題があります。ハルシネーションのようなものや、特定の領域での能力の欠如のようなものです。

しかし、それらが実世界で使用されるときの結果もあります。昨日ステージにいたマン教授が偽情報や、より説得力のあるプロパガンダのようなものについて話していました。リソースの使用もあります。これらすべてのものです。これらの問題はあらゆる形態のAIに固有のものですか、それとも今追求している種類に特有のものですか。

それは本当に本当に良い質問です。もっと多くの人々が私にその質問をしてくれることを願います。

LLMは道徳的にも技術的にも不十分だと言いたいです。そして道徳的不十分さの一部は技術的不十分さから来ており、一部は権力と資本主義などから、そしてそれらが現実世界でどのように開発されているかから来ています。

技術面では、道徳的欠陥のいくつかにつながる重要な欠陥は、これらのシステムが事実に基づいておらず、信頼できないということです。それは、それらが異なる方法で悪用される可能性があることを意味します。

例えば、偽情報を生成するために使用でき、それらはそれ以上のことを知りません。倫理原則をそれらにプログラムすることもできません。

これがAIの論理的要件だとは思いません。事実に根ざしたAIを想像できます。それがより信頼できることを望みます。倫理原則に根ざしているかもしれません。

確かにそのようなものを想像できます。現在のシステムはそれにおいて恐ろしく、それが非常に悪用しやすくしています。起こっていないことについてビデオを作り上げてくださいと言うことができます。

「いいえ、それはしません」と言うAIを想像できます。そして、私たちはこれらのシステムにそれを少しやろうとするガードレールを持っていますが、非常に深いAIを持っていないので、すべて非常に表面的です。これらのガードレールは機能しません。

いわゆるシステムプロンプトにプログラムします。ハルシネーションしないでください、あるいは生物兵器の作り方を人々に教えないでください。しかし彼らはとにかくハルシネーションします。生物兵器の作り方を教えるように騙すのは実際にはかなり簡単です。

それで、より良い形態のAIは確実に考えられると思います。私はそこに到達するいくつかの道筋を見ています。私はそれが本当に難しい問題だと思います。近い将来にあるとは思いません。

認知心理学者、進化心理学者のジェフリー・ミラーがTwitterに投稿したものが本当に好きです。少しアーチ的または皮肉に聞こえますが、真剣に受け止められるべきです。彼は「AGIを構築するのは問題ない。しかし、いわゆるアライメント問題、つまりそれを安全にする方法を理解するまで待とうではないか」と言いました。

そして彼は続けます。「たとえそれに250年かかるとしても。」誰も250日待つ胃袋さえ持っていません。250年は言うまでもありません。しかし彼は正しいのです。

私たちは、それをどのように安全にするかの明確な答えを持っていないのに、潜在的にこれほど危険なシステムを構築すべきではありません。私は他のアーキテクチャでそれができるかもしれないと思います。LLMではそれをする方法はないと思います。それでも私たちはここで突進しているのです。

AGIは避けられない運命か選択の問題か

実際、それはAGI問題についての2番目から最後の良い質問につながります。先ほど、雇用喪失のアイデアについて話していたときに、長期的には今それをカバーしているとしても、実際には雇用の置き換えがあるかもしれないとおっしゃっていました。

そして、より良い形態であれ、今向かっている形態であれ、AGIには社会的影響があるでしょう。社会と人々はこれについて選択を得るのでしょうか、それともAGIは商業的・科学的必然性なのでしょうか。

私たちは選択を得ます。私たちはその選択をうまく取っていません。私は今朝のマリアの話が大好きでした。私がマリアの話を愛した理由は実際には多くありますが、その一つは、エンパワーメントに非常に重点が置かれていたことです。私たちはまだこの状況において力を持っています。

もし世界中の全員が「この問題を修正するまでChatGPTは使わない」と言ったら、OpenAIは顧客に対応するでしょう。彼らはより多くの資金調達についての議論をするために顧客が必要なのです。

今、私たちは多くの意志を持っておらず、以前にも意志力の欠如を見てきました。Facebookはプライバシーを侵食しましたが、誰も、あるいはほとんど誰も立ち上がりませんでした。

私たちは市民としてまだ力を持っています。つまり、今日Ipsosからの興味深い世論調査データを見ました。多くの人々が起こっていることに不満を持っています。

しかし、AI問題のセットで実際に起こっていることに抗議している人は十分ではありません。私は「王様はいらない」のデモに何人が出てきたかを見て嬉しかったです。もっと多くの人々が抗議すれば、私たちは何かできるかもしれません。

しかし、デフォルトは良くありません。人々が大声で立ち上がらなければ、この会議が非常に強調してきたように、すべての権力はテック企業に行きます。政府はそれについてあまりやっておらず、私たちが立ち上がって戦わない限り、やらないでしょう。

あなたはこの会話の過程で、簡単な答えを求めていないことを証明しましたが、タイトルの質問をお聞きします。AIバブルは崩壊するでしょうか。

崩壊すると思います。日付を推測したくはありません。ビジネスには古い格言があります。市場はあなたが溶剤を維持できる期間よりも長く非合理的でいられる、それが個人投資家が物事をショートすべきではない理由です。

それでいつかはわかりませんが、科学において、確かに歴史的に、科学が間違った考えを持ち、長い間それを追求し、最終的にそれを整理した多くの時代があります。

遺伝子がタンパク質でできていると考えるのは単に間違っていました。私たちはそう考えて20年を無駄にし、その後正しく理解しました。

私は、ニューラルネットワークに10年を無駄にしてきたと思います。それは答えの一部であることが判明しましたが、全体の答えではありませんでした。そしてそれは実際に人々に理解されつつあります。十分な人々に本当に理解されたとき、彼らはこれらの兆ドルの投資が時期尚早であり、意味をなしていないことに気づくでしょう。

私たちは、機能しないこのアイデアに全力投球する代わりに、知的多様化にそれを費やすべきです。また、投資家は「利益はどこにあるのか」と言うでしょう。彼らはそれをいくらか始めています。

それで、いつか、比較的近いうちに、しかしどれくらい近いかはわかりませんが、実際に崩壊すると思います。

まあ、崩壊したときにまたお呼びして話さなければなりませんね。お時間をいただきありがとうございました。

どうもありがとうございました。

コメント

タイトルとURLをコピーしました