AI バブル:Anthropicの訴訟がバブル崩壊の引き金となるのか?ゲイリー・マーカスが語る

Anthropic・Claude・ダリオアモデイ
この記事は約18分で読めます。

AI研究者Gary Marcusが、Anthropicが国防総省から「サプライチェーンリスク」指定を受けた問題を分析する。自律兵器や監視への安全ガードレールを維持したことで契約を失ったAnthropicと、それを獲得したOpenAIの対照的な選択は、業界全体の倫理基準を揺るがす可能性がある。Marcus氏は両社が赤字運営を続ける現状を指摘し、AI業界の評価額が実態と乖離していると警告。投資家の70%が過大評価を認識し始めた今、バブル崩壊のリスクと納税者負担の可能性、そして真に信頼性の高いAI構築に必要なニューロシンボリックアプローチの重要性を論じる。

AI Bubble: Will Anthropics' lawsuit be the pin to burst the bubble? I Gary Marcus
"Everybody should be worried that they're going to have to bail these guys out."Author of 'Marcus on AI' & Professor Eme...

AI業界の評価額と現実のギャップ

人々は今、これらの評価額が理にかなっていないことを認識し始めているんですよ。OpenAIを100億ドルで評価して、まあ何とか利益を絞り出せるだろうと考えるのなら、それはそれでいいでしょう。でも、7000億ドルとか8000億ドルとかで評価するというのは、企業のファンダメンタルズに対して全く意味をなさないわけです。

そしてこれはAnthropicにも当てはまります。両社ともクエリを投稿するたびにお金を失っているんです。これは持続可能なビジネスモデルではありません。つまり、私たちが最終的にこういった企業を救済しなければならなくなるのではないかと、誰もが心配すべきだと思います。

本日テックレポートにお招きしたのは、約10万人の購読者を持つSubstackニュースレター「Marcus on AI」の著者で、ニューヨーク大学の心理学および神経科学の名誉教授でもあるGary Marcusさんです。来ていただきありがとうございます。

番組に呼んでいただいてありがとうございます。

Anthropicの訴訟と政府指定の意味

3月9日、Anthropicはトランプ政権を正式に訴えました。これは国防総省が彼らをサプライチェーンリスクと指定したことを受けてのものです。この指定は通常、Huaweiのような外国の敵対企業に対して使われるラベルなんです。なぜなら彼らは自律兵器や国内監視における安全ガードレールを外すことを拒否したからです。

その一方で、OpenAIがこれらの契約を獲得するために乗り込んできました。Sam Altman自身も認めているように、急いで杜撰な取引だったわけです。Gary、アメリカの主要なAI企業が自国政府からサプライチェーンリスクとラベル付けされることの重要性はどれほどのものでしょうか?

前例のないことだと言って間違いないでしょうね。テック業界全体がAnthropicを支持するために集まってきています。弁護士のローレンス・レッシグのような他の著名人も彼らを支持しています。私もAnthropicがやってきたことの多くに異議を唱えることがよくありましたが、それでも彼らを支持しています。

アメリカ企業を排除するというのは悪い決定だと思います。彼らが実際にセキュリティリスクだという議論は全く存在しないんです。Huaweiに関する議論は、彼らがアメリカのデータを中国政府に渡しているかもしれないというものでした。Anthropicがそのようなことをしているという議論は一切ありません。

実際、つい先週までアメリカ政府は非常に機密性の高い軍事アプリケーションでさえAnthropicのツールを使用していたんです。ですから、彼らをセキュリティリスクと呼ぶのは基本的に作り話なんですよ。アメリカが条件について彼らと交渉したいというのは構わないですし、それはただのビジネスです。しかし、特定の製品を販売したくないという理由で企業を徹底的に潰そうとするのは前例がなく、危険だと思います。

安全ルールへの圧力と業界への影響

法的申し立ての中で、Anthropicはあなたが言ったことを述べています。彼らは安全ルールを持っているために罰せられていると。この政府からの圧力が、他のAIスタートアップに安全チームを廃止させて、ビジネスを続けられるようにする可能性があると思いますか?

それは一つの可能性ですね。もう一つの可能性は、人々がヨーロッパの企業に向かって、現在アメリカで起きていることに関わりたくないと思うことです。すべての結果を予測するのは難しいですね。

もう一つの側面として、私たちが言及しなかったのはOpenAIです。彼らは契約を獲得しましたが、その社長はトランプに2500万ドルを寄付し、OpenAI社長の妻もトランプに2500万ドルを寄付しています。これは金で契約を買っているように見え始めているんです。そしてこれが、企業が他の場所でビジネスをしたいと思うかもしれないもう一つの理由なんです。

私は以前にもこのようなことが起こるのを見たことがあります。人々が他の国の汚職に失望して、「もうそこでビジネスをするつもりはない。そんなことには関わりたくない」と言うんです。ですから、これは誰にとっても良くないことなんです。

アメリカにとって良くないのは、人々がアメリカとビジネスをしたくないと思うようになるかもしれないからです。アメリカのAI企業にとって良くないのは、これが彼らを弱体化させるからです。ここには何のメリットもありません。これは軽率な決定で、理にかなっていませんし、裁判所で生き残ることはないと願っています。

Claudeの人気上昇と公共の関心

政府との契約を失ったにもかかわらず、先週ClaudeはAppleの米国無料アプリチャートで最もダウンロードされたアプリになりました。これは「delete ChatGPT」キャンペーンの開始とも一致しています。公共の関心だけで、企業が十分に安全対策を優先できるようになると思いますか?

いいえ。つまり、見てください、私は昨日別の記事を書きました。私がこの特定の件でAnthropicを非常に支持しているのを聞いたばかりですが、2日前に書いたエッセイでは基本的に、多くの点でAnthropicは実際にはOpenAIとそれほど変わらないと主張しました。

大量監視と人間がループに入らない自律兵器というこの2つの特定のポイントでは、彼らは異なっています。そしてAnthropicはこれらについて正しいと思います。しかし他の多くの点で、彼らはOpenAIと同じゲームをプレイしているんです。つまり、自社製品ができることについての大規模な誇大宣伝です。

彼らも軍事アプリケーションで自社のものを使っていました。人間がループに入っているからといって、必ずしも良い結果が得られるとは限りません。実際、イランでの学校爆撃は、1時間あたりあまりにも多くの決定を見なければならなかった人間が承認したAIエラーだった可能性があります。

ですから、AnthropicやDarioがここで聖人だとは思いません。彼らは特定の問題について正しいと思います。ChatGPTを禁止するのは素晴らしいことだと思います。Sam Altmanは本当に疑わしい人物だと思いますが、Darioも多くの点で同じ戦略を踏襲しています。

生成AIの社会的コスト

私たちはもっと一般的な質問をすべきだと思います。生成AIは私たちが支払っている対価に見合う価値があるのでしょうか? 多くの対価があります。

例えば、学校は生徒をどう教育するかを見極めるのがはるかに難しくなっています。確かにこれらのツールには価値がありますが、生徒が課題をやる代わりにChatGPTを使うようになり、生徒は実際にはあまり学べていません。そのことについての研究もあります。

同意なしのディープフェイクポルノもあります。ディープフェイクによる誤情報もあります。今では軍事アプリケーションがあり、それらはしばしば信頼性に欠けます。罪のない人々が今、死んでいるかもしれません。多くの否定的な結果があります。

確かに価値はあります。これらのツールは確かにコーダーがより速く書くのを助けます。しかし、それが社会にとって正味でプラスなのかは明らかではありません。そして私たちはまだ雇用について話してさえいません。

ですから、人々がこう言うのは理解できます。これらのツールは確かに楽しいけれど、私たちの社会のために何をしてくれているのか? 私たちは以前にソーシャルメディアでこの映画を見ました。確かに、Twitterアカウントで「いいね」をもらうのは楽しいですし、私も残念ながらこれの犠牲になっています。

でも、こういうものが周りにあることが本当に社会にとって良いことなのでしょうか? 私にはよくわかりません。そして、ソーシャルメディアが子供たちに正味で否定的な影響を与えてきたという多くの証拠があります。AIは社会全体に否定的な影響を与えるかもしれません。

完全に同意します。私自身の発言を中断して言いますが、明確にすべきなのは、大量のデータで訓練されているが、話していることについての深い理解がない大規模言語モデルである生成AIがあるということです。これが彼らを様々な点で脆弱にしています。そして、他の技術を使った、より良いAIが将来登場するかもしれません。私たちは各世代のAIをその功績に基づいて評価すべきです。

その功績に基づいて言えば、生成AIは社会にとって正味でプラスではありませんでした。もし人々がそれをボイコットしたいのなら、ChatGPTだけをボイコットすべきではないかもしれません。彼らはこう問うべきです。私は本当にこれほどの権力を、皆がかなり無責任に見えるこれらの企業に与えたいのか?

従順なモデルへの移行と信頼性の問題

そしてその点について、現在の政治情勢が単に命令に従うだけの従順なモデルへの移行を強いているとしたら、それはあなたが求めてきたような真に信頼性の高いAIモデルを構築することをより困難にしますか?

真に信頼性の高いモデルは従順ではないでしょうね。実際、これについて最近2つの研究があります。一つはスタンフォードから、もう一つはプリンストンからで、この問題の異なる側面を明らかにしています。

基本的に、従順なモデルは人間をより正確に考えなくさせます。なぜなら、間違っているときに正しいと言うからです。そしてそれは良いことではありません。真に良い、真に公平で賢いAIはそんなことはしないでしょう。

人々は周りにイエスマンを置きたがります。そして彼らは従順なAIを持つことを好みます。しかしそれは彼らをより良い立場に置くわけではありません。それは彼らを自分自身に満足させますが、しばしばより悪い決定をさせることになります。私はもっと公平で正直なAIを見たいです。私たちは皆それを望むべきだと思います。

AnthropicのCFOであるKrishna Ralphは、最近の裁判所提出書類の中で、ブラックリストが2026年の収益で数十億ドルの損失につながる可能性があると述べています。AI業界の多くが巨額の投資と高い期待に基づいて構築されているため、このような損失がAIバブルを弾けさせるピンになる可能性があると思いますか?

AIバブルの核心的問題

私が数年間警告してきたAIバブルの核心は、技術の信頼性の低さが技術の収益性を制限しているということです。それに加えて、実際に運用するのにコストがかかるという事実もあります。

Anthropicについて出てきた数字は、彼らは合計50億ドルの収益を上げていて、100億ドルを使っています。つまり、これらの数字を正しく理解していれば、50億ドル損失しているということです。OpenAIはさらにひどいです。おそらく、正確な数字はわかりませんが、500億ドルから800億ドル使って、おそらく収益は100億ドルか200億ドルくらいでしょう。

つまり、彼らはさらに速くお金を失っているんです。基本的に、両社ともクエリを投稿するたびにお金を失っています。クエリを実行するのにかかるコストが、あなたが支払う金額よりも高いんです。これは持続可能なビジネスモデルではありません。

戦争によるエネルギー価格の上昇が助けにならないことも事実です。それが実際にバブルを弾けさせるかもしれません。つまり、本質的に経済性が機能していないと思います。しかし、これは心理的な問題です。何が人々を目覚めさせるのでしょうか?

今朝見た別の調査では、数字を正確には覚えていませんが、おそらく3年前はAIが市場によって過大評価されていると考える人はほとんどいませんでした。そして今では、ファンドを運営している人々の約70%が過大評価されていると考えています。大幅な上昇がありました。

人々は今、これらの評価額が理にかなっていないことを認識し始めています。OpenAIを100億ドルで評価して、何とか利益を絞り出せるだろうと考えるのなら、それはそれでいいでしょう。でも、7000億ドルとか8000億ドルで評価するというのは、企業のファンダメンタルズに対して全く意味をなさないわけです。

そしてこれはAnthropicにも当てはまります。私はこれらすべてがある時点で崩壊すると予想しています。いつになるかを予測するのは非常に難しいです。株のショートについての古い格言があります。市場はあなたが支払能力を保てる期間よりも長く非合理的でいられる、と。

市場がどれだけ長く非合理的でいられるかはわかりません。しかし、ファンドを運営している人々の75%がこれは理にかなっていないと言っているのを見ると、それは物事が変わろうとしている兆候なんです。

国防総省との対立がもたらす波及効果

そして、約3800億ドルと評価されているAnthropicのような企業が、国防総省との単一の意見の相違のために財政基盤が崩壊する可能性があるとしたら、これがAIセクター全体にどのような影響を及ぼすと思いますか?

それが完全に公平だとは思いません。この単一の契約がそれほどの価値があるとは思いませんが、サプライチェーンリスクというのは大きいです。なぜなら、それは他の人々も彼らとビジネスをすることを躊躇させるからです。ですから、単一の契約だけでなく、ドミノ効果があるんです。

彼らが稼いでいる以上にお金を失っているという点で、財政的に脆弱であることは事実です。この特定の契約を持たないことが彼らを破綻させるとは思いません。現状のままでは持続可能だとは思いませんし、一つの契約がそれを変えるとも思いません。

しかし、サプライチェーン指定には波及効果があると思います。彼らはすでに、ある交渉がそのせいで決裂したと報告していますからね。ですから、サプライチェーンリスクの波及効果がより大きいでしょう。

政府は「この契約は望まない」と言う権利があると思いますが、サプライチェーンリスク指定は懲罰的であることを意図しており、現実と合致していません。彼らは実際にはサプライチェーンリスク指定ではありません。彼らは自分たちのデータを外国政府に渡してアメリカに対して使わせているわけではありません。私が知る限り、これは作り話なんです。

そして、それがAnthropicにとって本当に最もダメージが大きいでしょう。その一方で、非常に多くの人々がアメリカ政府の振る舞いに怒っているため、実際にClaudeをチャートのトップに押し上げたんです。それとDarioのそれに立ち向かう勇敢な決断がね。

ですから、Anthropicにとっての正味の効果はそれほど悪くないかもしれませんが、わかるのは非常に難しいです。そして彼らには訴訟があります。彼らは勝つと思いますが、そこでの法的問題については本当にわかりません。私は法律の専門家ではありませんから。ですから、本当に適格な評決を下すことはできませんが、彼らは勝つかもしれません。彼らはこれをうまく乗り切るかもしれません。本当にわかりません。

Nvidiaへの影響と需要の限界

Nvidiaに関しては、彼らは約5兆ドルと評価されています。これは、これらのモデルへの需要が無限であるという信念に依存していると思います。Anthropicのような企業がこの訴訟に負けて政府や関連契約を得られなくなるために規模を縮小しなければならなくなった場合、ハードウェアや半導体企業にも影響を与えるドミノ効果が見られると思いますか?

それは可能です。既にNvidiaは6ヶ月間基本的に横ばいです。これは完全に大したことではないように聞こえるかもしれませんが、その前の2年間を見ると、ロケットのようでした。ですから、突然横ばいになったという事実は既に転換点なんです。誰もがそれを認識しているわけではありませんが、それは事実です。

2、3年間、信じられないほど速く上昇していました。正確な数字は覚えていませんが、それから完全に横ばいになりました。9月以降、約180ドルで取引されています。あれほど急上昇していた株にとって、それは驚きです。

あなたは言いましたね、Nvidiaを動かしている信念、「無限」という言葉を使いましたが、需要が無限になるという概念です。まあ、人生において無限なものなどありませんよね? そして実際、その前提にはあらゆる種類の課題があります。

Anthropicが損失を出しているという事実があります。OpenAIが損失を出しているという事実があります。もしOpenAIが倒産したら、Nvidiaは打撃を受けると思います。他の人々も依然として彼らのチップを購入するでしょうが、OpenAIは巨大な顧客であり、彼らは300億ドルを投資したばかりです。

一部の人々は、これを蔑称的にベンダーファイナンシングや循環融資と呼んでいます。ここでは使わない他の用語もあります。あまり良い見た目ではないんですよ。もしOpenAIが本当にチップを必要としていて、それを買うお金があるなら、彼らは単にそれを買うでしょう。なぜNvidiaが基本的に彼らに補助金を出しているのでしょうか? それは良い兆候ではありません。

Nvidiaは非常に良い会社だと思います。非常によく運営されています。彼らが作るチップは機能します。彼らがやっていることには技術的な問題もありますが、限界に挑戦していますが、一般的に彼らが構築するものは機能します。非常によく作られていて、競合他社が持っていない素晴らしいソフトウェアインフラストラクチャを持っています。

ですから、彼らは素晴らしい会社です。多くの価値があります。しかし、5兆ドルの価値があるでしょうか? あなたが言うように、それは需要が無限であるという概念に基づいているんです。そして私たちは、それが真実ではないかもしれないという兆候をますます多く見ています。

潜在顧客の一部、例えばOracleは9月以降35%ほど下落しています。ですから、需要が無限ではないというあらゆる種類の兆候があります。そして需要が無限でないなら、最終的には彼らは打撃を受けると思います。

バブル崩壊の現実的シナリオ

AI市場が瀬戸際にあり、バブルが弾けようとしている世界を想像すると、それは実際の世界でどのように見えるでしょうか? 何を見ることになると予想できますか?

私の大きな恐れは、以前一度聞いたことのあるフレーズを耳にすることになるということです。それは「大きすぎて潰せない」という言葉です。そしてアメリカ政府、そしておそらく他のいくつかの政府がこの業界を支えようとし、それは納税者が支払うことを意味します。

大きな未知数の一つは、銀行がこれらすべてにどれだけ巻き込まれているかということです。資金調達のうちどれだけがレバレッジ、つまり銀行ローンなどから来ているのでしょうか? 私の推測では多くです。

ですから、2008年に見たような議論を見ることになるかもしれません。彼らは大きすぎて潰せない。私たちは彼らを救済しなければならない。納税者がやらなければならないと。それが実際に私の最大の恐れです。

OpenAIが倒産して、何人かの投資家がお金を失っても、私は本当に気にしません。それはただ、人生ですからね。人々は投資をします。私が心配しているのは、納税者のような無実の傍観者だった人々への二次的な影響があるかどうかです。

ですから、この動画を見ている平均的な人が、AIバブルが崩壊した場合に最も恐れるべきことは、税金への影響でしょうか、それともさらなる影響があると思いますか?

誰もがこれらの企業を救済しなければならなくなることを心配すべきだと思います。それは良いことではありません。ある意味では、修正はそれほど悪くないかもしれません。なぜなら、私たちは基本的に約束に基づいて、これらの企業にあまりにも多くの権力を与えてしまったと思うからです。

OpenAIを例に取りましょう。彼らは稼いだ以上に数百億ドルを失ったか使いましたが、それでも社会の結果をコントロールする非常に大きな立場にいます。

例えば、彼らは大量監視は問題ないと決定しました。少なくともそれを許可すると思われる契約に署名したため、そうしたように見えます。そして、もし彼らがアメリカで大量監視を行う代理人になるなら、それは私たちの社会にとって大きな変化です。何が彼らにそうする権利を与えたのでしょうか?

それは部分的に彼らが製品を持っているからですが、部分的には私たちがこれらの企業に与えた報道と権力についてであり、それは正当化されていないと思います。

ニューロシンボリックAIの必要性

あなたは、AIを実際に機能させるためには、ニューラルシステムとシンボリックシステムを組み合わせる必要があると主張してきました。簡単に言えば、このハイブリッドアプローチはどのように機能し、国家安全保障のようなものについて、今あるものと比べてAIをより安全にするのでしょうか?

それは私が重要なステップだと主張してきた長い道のりです。それ自体ですべてを解決するわけではありませんが、シンボリック知識を持つことができる必要があります。古典的なコンピュータプログラム、論理、数学などのようなものがシステムの一部である必要があります。

過去数年間、人々が推進してきたが最終的に限界を認識しているオリジナルのニューラルネットワークは、実際にはその能力を持っていませんでした。ですから、彼らが行った推論はすべて疑わしく、信頼できないものでした。

もしどこかにシンボルがあれば、行うことができる特定の種類の計算があり、それがあなたを助けてくれます。そして、データベースで物事を検索するようなことができます。ニューラルネットワークは非常に粗雑で非常に信頼性の低い方法でそれを行います。

ですから、これは重要な前進です。唯一のステップではありません。私たち数人が最近話している別のことは、ワールドモデルです。話している、または決定を下している対象を実際に表現する必要があります。

ニューラルネットワークはすべてにおいてショートカットを取ろうとしてきましたが、そのショートカットは信頼性に関しては実際には機能していません。ですから、ますます多くの人々が実際にシンボリックシステムを入れています。私が長い間主張してきたように、彼らは実際にそれらをAIシステムに入れています。

彼らはそれについて静かにしています。なぜなら、投資家へのピッチは、私たちはただニューラルネットワークをスケーリングしているだけだというものだからです。しかし、実際には、それは今私たちが見ている進歩を推進しているものではありません。

しかし、それは投資家にとってより難しい話であり、彼らはそれについて話したがりません。しかし現実は、私たちはAIのニューロシンボリック基盤に向かって進んでいるということです。

規制と信頼性への道

そのようなニューロシンボリックAIが投資家に受け入れられるため、またはそれがもっと推進されるようになるために、技術またはそれを統治する方法のどちらで何を変える必要があるでしょうか?

投資家を助けるのに何が役立つかはわかりません。投資家の多くは、大きな取引の小さなパーセンテージを得たいという動機で動いていると思います。それが多額のお金になることがわかります。

政府は、信頼性が経済的価値を持つようにAIを規制する必要があると思います。それは確かに市民にとって価値があります。それを持たないことは、私たちが負の外部性と呼ぶもの、つまり社会にとっての多くの否定的な結果をもたらします。

政府は企業に信頼性のあるAIを構築するよう推進すべきだと思います。もし彼らがそうすれば、他のことが続き、最終的にはより良い場所に到達するでしょう。

最近、政府は基本的に無責任で、「好きなことをやってくれ。結果なんて気にしない。責任もない」と言ってきました。大企業に責任がないと言うことは、彼らができるだけ貪欲になり、必ずしも正しいことをしないライセンスを与えることであり、それが私たちが見ているものです。

では、その点について、今日は参加していただきありがとうございました。

ここに来られて光栄です。

このようなコンテンツをもっと見たい場合は、下のサブスクライブをお忘れなく。また、テックレポートのエピソードはポッドキャストを入手できる場所ならどこでも聴くことができます。

コメント

タイトルとURLをコピーしました