OpenAI、Oracle、AMDがAI業界を揺るがす

AIインフラ
この記事は約38分で読めます。

本動画では、AI業界における最新の大規模投資と競争構造について議論している。OracleとAMDの間で発表された2026年後半に5万個のAMDチップを展開する契約、そしてOpenAIとOracle間の最大3000億ドル規模の5年契約は、Nvidiaの独占状態に対する挑戦として注目されている。専門家たちは、CUDAという技術的な堀の重要性、エネルギー消費がボトルネックになる可能性、そして投資の循環性について分析する。また、米国商務省によるDeepSeekモデルの評価レポート、オープンソースAIの将来性、そしてAI代理店によってアナリストを全員解雇したベンチャーキャピタルファンドの事例まで、AI経済の多面的な側面を掘り下げている。

OpenAI, Oracle & AMD shake up AI
Explore the podcast→ if Nvidia’s biggest advantage isn’t so big anymore? This week on Mixture of Experts, we break down ...

OpenAI、Oracle、AMDの戦略的提携

OpenAIへの投資には大きな引き出しがあります。そしてNvidia側では、AMD側では、若干膨らんだ需要創出があるかもしれません。これが一方の側面です。もう一方で、建設されているデータセンターの量を見ると、それは実際に要求されているAIチップの量と一致しています。これらすべて、そして今日のMixture of Expertsではさらに多くのことを扱います。

私はティム・ファンです。Mixture of Expertsへようこそ。毎週、MoEは優秀で面白く思慮深いパネリストたちを集めて、人工知能における最新ニュースについて議論し、討論し、考察しています。本日は3人の素晴らしいパネリストをお迎えしています。

AIインフラストラクチャー担当バイスプレジデントのヴォルクマー・ウーリッヒ、AI&アナリティクスのパートナーであるアンビ・ガネサン、そしてIBMフェロー兼マスターインベンターのアーロン・ボーマンに心から歓迎の意を表します。今日は話すことがたくさん、たくさん、たくさんあります。OracleとAMDの間の巨額の取引について話します。商務省のCAISIから出た新しい評価について話します。Reflection AIと、どうやらアナリスト全員を解雇したベンチャーキャピタルファンドについて話します。

しかし最初に、アイリがニュースをお伝えします。みなさん、こんにちは。私はIBM Thinkのテクノロジーニュースライターのアイリ・マッコノンです。今週見逃したかもしれないいくつかのAI関連の見出しをお届けします。Visaは、正規のAIショッピングアシスタントと悪意のあるボットを区別するのに役立つ新しいフレームワークを導入しました。目標は、AI代理店による不正な購入を削減することです。

OracleとIBMは協力して、企業間契約のレビューなどのタスクを自動化する複数の新しいエンタープライズ代理店をリリースします。これは、実際に人間のタッチを必要とするタスクのための時間が増えることを意味します。あなたが話しているカスタマーサービス代理店は人間ですか、それともボットですか? SalesforceのバナーイベントであるDreamforceで、この技術大手はカスタマーサポート代理店にAI生成音声を導入すると発表しました。

サム・アルトマンはXで、12月になるとChatGPTが18歳以上の認証済みユーザーに官能小説を共有すると発表しました。一体何が問題になり得るでしょうか? これらのトピックのいくつかをもっと深く掘り下げたいですか? ショーノートにリンクされているThinkニュースレターを購読してください。それではエピソードに戻りましょう。

OracleとAMDの大型契約の意味

今日は実際に、今週の大きなニュースの一つだったと思うものから始めたいと思います。それは、Oracle Cloudが2026年後半に5万個のAMDチップを展開すると発表したことです。これ自体は金額の面だけでも大きな取引です。しかしこれは2つのかなり興味深いニュースに続くものです。その一つは、OpenAIが今月初めにAMDとの取引を発表し、約6ギガワット相当のプロセッサーを展開するというものでした。そして別に、OpenAIがOracleとの取引を発表しました。それは最大3000億ドル相当の5年間の取引になる可能性があります。

ヴォルクマー、あなたがいらっしゃるので、最初にあなたにボールを投げたいと思います。MoEでよく話していることですが、みんながNvidiaを追いかけているような感じがします。そしてOpenAI、AMD、Oracleの間に興味深いクラスターが形成されつつあります。これは最終的にNvidiaにとってどれほど脅威になるのでしょうか? それとも、これは単に待って様子を見る必要があるようなものでしょうか?

市場が開かれつつあると思います。競合他社がNvidiaを追いかけていると思います。だからこそジェンスンは、毎年新しいチップを出すという極めて積極的な戦略を持っているのだと思います。その発表のより興味深い部分は、OpenAIがAMDに投資し、AMDの株式を取得していることだと思います。

今このエコシステムを見ると、NvidiaがOpenAIに投資していて、次にOpenAIがOracleと取引を成立させて大量のNvidiaカードを購入し、さらにAMDにも投資しています。つまり、多額のお金が動き回っているということです。そしてそれが循環しています。これはいつもお金が循環し始めると疑問になることです。本当の経済なのかどうか。どこかでお金が来なければなりません。

したがって、OpenAIに対して行われた投資には大きな引き出しがあると思います。これが一方の側面です。もう一方で、建設されているデータセンターの量を見ると、それは実際に要求されているAIチップの量と一致しています。

OpenAIの観点から見ると、単一のソースを持たないように分岐することはおそらく非常に理にかなっていると思います。そしてAMDは最初の本格的なデータセンターチップを市場に出す必要があります。全体的な取引を見ると、これはOpenAIのAMDへの投資を伴うAMDチップです。そしてそれらをどこかに収容する必要があります。そしてOracleは、AIチップをデータセンターに大量に投入している会社です。

だからこれは一種の自然なことです。そして私たちはそれを、Nvidiaとのマルチイヤー取引を発表したときのOracleの株価の約40%の急騰で見ました。だからこのトロイカは既知のトロイカだと思います。OpenAIがAMDの10%の株式を取得することを含めて多様化しているのは驚くことではありません。

AI経済における投資循環

ええ、その通りです。アンビ、あなたに話を振りましょうか。つまり、私は見ました。皆さんもこれを見たかどうかわかりませんが、AI経済でお金がどこに流れたかの視覚化です。そしてそれは、ヴォルクマーの指摘のように、大きな円なのです。みんながお互いにお金を渡し合っているようなものです。

アンビ、これはバブルの兆候なのかどうか気になります。つまり、ヴォルクマーの指摘のように、ある意味ではみんながお金を行ったり来たりさせているだけです。一方で、これらの構築は予測された需要と一致しているとも言えます。だからある意味では、このようなことが起こっているのはそれほどクレイジーではないのかもしれません。あなたの考えを聞かせてください。明らかに根底にある質問はそれがバブルかどうかですが、もっと興味深い話があると思います。

ええ。エマドが投稿したものを見ました。彼はこれをドットAIバブルと呼んでいました。しかし、ドットコム時代に行われた投資とGDPに占める割合として比較してみると、今ドットAI時代に起こっていることと比べて、それらの限界に達する前にまだかなりの余地があります。

だから私はこれはまだ初期段階だと思います。それが第一点です。投資の規模について言えば、確かに取引は起こっていますが、投資の額は、このようなものから将来経済が得られる利益の量を考えると、想像するほど大きな規模ではありません。

つまり、これからはるかに大きく広範な変革が期待されているということです。だから確かにバブルだという認識はあるでしょう。しかし私はまた、ここに投入されている投資額は、おそらくより長い時間軸で得られる可能性のあるアンロックのレベルに見合っていないと思います。あなたはほぼこう言っているようですね、これらの取引はクレイジーだと思うかもしれないが、ちょっと待っていれば、それらはもっとクレイジーになるだろう、と。それは一つの言い方ですね。

また、インターネットバブルを見てみると、地面に光ファイバーを敷設するための大量の投資がありました。人々は実際に溝を掘りました。今私たちはデータセンターを建設しています。インターネット段階での投資収益率を見ると、それは20年にわたる投資でした。

今、ChatGPTの導入以来を見ると、生産性が43%増加しています。しかもそれは1年か2年以内のことです。インターネットバブルでは、生産性の向上はAIで見られる生産性の向上よりもはるかに後になって現れました。なぜならインフラストラクチャーがすでに存在しているからです。配信があります。データセンターがあります。

人々はコンピューターを持っています。インターネットが起こったときに購入しなければならなかったAOLのCDを覚えていますか? そのインフラストラクチャーはすべて存在しています。だから普及がはるかに速いのです。そしてこれが起こることはほぼ予想されるべきだったと感じます。AMDがこのモートを破るのにこれほど時間がかかったことに実際驚いています。

もっと早く起こると予想していました。最初にモデルのモート崩壊が起こったのを見ましたよね。アプリ層のモートはすでにかなりオープンでした。モデルとアプリ層では激しい競争が起こっています。

しかしインフラストラクチャーのモートは本当に、本当に堅固に保たれていました。そして今、そのモートに亀裂が開き始めていると思います。これは避けられないことだと思います。これはまさに純粋な資本主義が作用しているのです。これは常に起こることが予想されていました。そしてこれほど時間がかかったのは驚きです。今後、インフラストラクチャーレベルでこのようなことがもっと多く起こるのを見ることになるでしょう。

CUDAのモートは崩れるのか

確かに、そうですね。アーロン、あなたを議論に引き込みたいと思います。モートの問題についてですが、Nvidia-AMD競争で人々がいつも持ち出すことがありますよね。それはCudaです。それが最終的にはNvidiaの大きな防衛策になるということです。そのモートの部分でさえ、ある意味で削られつつあると思いますか? つまり、一部はお金をどこに注ぎ込むかということですが、一部はこのレベルでの最適化の問題でもあります。あなたの予測や考え方を聞かせてください。

これまではお金を追ってきました。しかし私はエネルギーを追おうと言いたいです。なぜなら、Oracleは5万個のAMD 450を展開する予定です。それは多いです。それは非常に多いです。私は事前に計算しましたが、それは約5000万キロワット時です。私はTeslaを運転していますが、その電力量で、私は1回の充電で月3億3600万マイル運転できます。

本当にこれらすべての追加インフラストラクチャーを構築する必要があるのでしょうか? インフラストラクチャーを共有できる場所があるのではないでしょうか? このエネルギーを他のところで使えるのではないでしょうか? 小都市に電力を供給できます。電気代だけで月500万ドルかかります。

つまり、お金を追うのではなく、電力とエネルギーを追いましょう。なぜなら、それこそがお金が行く場所だからです。しかし、Cudaについての質問に答えるために、OpenAIもこれらのAMD 450チップを展開していますよね。ハードウェア自体は非常に比較可能です。

これらのAMDのinstinctチップをA100やH100、NvidiaのものとBと比較できます。ほぼ同等です。チップを作成するために使用される2ナノメートル技術など、いくつかの異なる技術があります。しかし反面、あなたが言及したのはCudaとROCmと呼ばれるものの違いです。

Cudaは、Nvidiaの独自の並列コンピューティングプラットフォームです。それはAMDがROCmで提供できるものよりも何年も先を行っていると思います。ROCmはAMDのGPUコンピューティングです。今はオープンソースです。普及率は小さく、Cudaよりも成熟度が低いです。

しかし反面、AMDがOpenAIなどと協力してそれをより良くしようとしているのには感銘を受けています。しかし再びNvidiaに戻ると、彼らにはcuDNNのような他のライブラリがあります。それはパフォーマンスチューニングに役立ち、生成AIの基本的な構成要素であるディープラーニングアルゴリズムを助けます。

だから、AMDはハードウェア面では追いついていますが、その領域ではまだキャッチアップする必要があると思います。ここで割り込みたいと思います。現在、Cudaの壁の効果を見ると、すべてのベンダーが互換性レイヤーを構築することを決定しました。だからAMDから同等のCuda実装を得られます。そしてIntelも同じ道を進んでいます。世界はCudaに対して標準化しつつあります。

そしてそれにはNvidiaがその壁を実際に構築するのに10年から15年かかったものの再実装が必要です。そして反対側では、OpenAIが非常に積極的にTritonを推進しています。TritonはGPUに対する抽象的なプログラミング抽象化であり、その下にCudaがあったという事実を効果的に隠しています。

したがって、事実上両側からの攻撃があり、それは中間のどこかで出てくるでしょう。OpenAIはGPUに依存しないようにTritonを開始し、他のみんなは「ああ、エコシステムをサポートする必要がある。Cuda準拠になろう」と言っています。ROCmを見ると、彼らのコンピュート層を見ると、AMDカードは永遠にハイパフォーマンスコンピューティングに使われてきました。大型のクレイマシンを見ると、それらはすべてAMD GPUに基づいています。だからそれらのライブラリは非常に堅牢です。

ATI、つまり今のAMDですが、AMD チップの全シリーズはATIの系統から来ています。ATIとNvidiaは常に真っ向勝負してきました。両者ともGL実装とOpenCL実装を持っていました。そしてある時点でAMDは「わかった、別の道を行く。新しいスタックを作り、すべてをオープンソースにして、ROCmと呼ぶ」と言いました。

そしてAMDは徹底的に進み、「チップの詳細、内部も公開する」と言いました。アセンブリ言語も、すべてです。それがAMDの戦略です。そしてNvidiaは「いや、すべてをクローズドソースにする」と言いました。そして私たちは実際にハードウェア抽象化レイヤーを持っており、その下のカードは変更できます。そして私たちはその基礎となるカードに対して中間バイナリをコンパイルしています。

だから彼らは実際にそのコンパイルされたレイヤーでカードの特性を隠すことができます。非常に異なる戦略です。しかし最終的には、30,000フィートではなく、おそらく3000フィートの高さから見れば、AMDカードとNvidiaカードは事実上同じ基本的なアーキテクチャー、コンピュートアーキテクチャーです。

だから互換性レイヤーが構築されるのを見るのはそれほど難しくないと思います。あなたはほぼこう言っているようですね、多大なモートとして話されてきたものが、実際には私たちが思っているよりもはるかに浅いかもしれないと。ええ。私たちは1年以上前にAMDカードをCuda互換モードでテストしましたが、大規模言語モデルを実行できます。すべてをサポートしているわけではありません。流体力学やNvidiaが持つその他のすべてのものはありません。

ジェンスンの最後の基調講演を見ると、彼は「私たちは15の産業で働いていて、すべてができる」と言っています。しかし反面、最も需要が高いのはどこかを見ると、それはLLMを実行することです。推論エンジンを実行することです。そして90%が推論エンジンで実行され、10%が他のすべてのものである場合、他のもののモートは、産業能力に何兆ドルも費やされている場所ではないと思います。

ジェンスンには他のものを押し進めようとする興味深いインセンティブがありますね。もしそれらが本当に急速に成長すれば、彼はコアユースケースよりも多くのモートを持つことになります。それはかなり興味深いです。アーロンとヴォルクマーが両方言ったことの中で、私は今、常にインフラストラクチャーがボトルネックだと思っていたことがわかります。

しかし今、これがAMD対Nvidiaの間で成長し、モートが崩れ始めるにつれて、エネルギーがボトルネックになり始めるかもしれないと思います。それは興味深いことになるでしょう。ええ。それはインフラストラクチャーです。ヴォルクマーにとってはすべてがインフラストラクチャーです。ええ、今は一段階下に行っています。以前はHBMがボトルネックでした。

これは興味深い垂直統合が起こる可能性があると思います。今、OpenAIがチップ会社の株式を取得しています。このブロブがエネルギーにも株式を取得するのは時間の問題のように思えます。そうすれば、あなたは下に行くように想像します。最終的にこれはある意味で垂直統合されることになるでしょう。

興味深いのは、半導体産業が実際にどれだけ速く調整できたかです、考えてみれば。マイクロプロセッサーには多くの価格柔軟性があります。そして他のすべての産業がどれだけ遅いか、トランスフォーマーを買おうとするだけでも。

私たちは、実際の物理的インフラストラクチャーが、これらの極端な成長段階を経験しないものが、突然、100倍の電力容量が必要になるという状況を強いられる世界に入っています。明日。まさに明日です。

しかしそれはまた、データセンターを購入する場合、はるかに高い交換サイクルになるでしょう。なぜなら、2倍の電力を入れるよりも、2倍強力なカードをはるかに速く入手できるからです。したがって、おそらく次の数年間は非常に積極的なシリコン交換が見られるでしょう。単にインフラストラクチャーの残りの部分がこれを維持できないからです。Nvidiaカードを交換する方が、別の発電所を建設するよりも安いのです。その通りです。

これの面白い遺産の一つは、明らかに電力を建設することは多くの異なることに良いことですが、基本的にAIの加速剤が多くの構築を強制することになり、AI以外に非常に興味深い付随的な効果をもたらすでしょう。そしてそれは奇妙なことで、ある意味では私たちがいる領域で尻尾が犬を振っているようなものです。

AMDチップがどこに向かっているかは好きです。それはよりコスト効率が良いです。テラフロップスあたりの価格が低いからです。だから、スケールアップするときに、極端なテストをして5万個のGPUを使うと、月に何百万ドルも節約できます。それはおそらくより低いエネルギーコストに換算されます。

そして私たちIBMには、このTrueNorthチップがあります。それは非常に低いエネルギー要件です。モバイルデバイスで実行できます。そして神経相関から実行されます。だから、AMD と Nvidia の間のこの競争は良いことだと思います。それはイノベーションを増やし、ここにある、そしてまだ来ようとしている大きな問題のいくつかを解決できるようにします。

米国商務省によるDeepSeek評価

さて、次のトピックに移りましょう。これは素晴らしい議論で、この話の核心に入り込んでいます。次にカバーしたいのは、Center for AI Standards and Innovationから出た興味深いレポートです。これは商務省内の部門で、AIモデルのための政府の評価ショップのようなものです。

そしてこれは、彼らが行った最初の本当の公開レポートの一つでした。基本的に彼らは、政府、商務省がDeepSeekを調べ、DeepSeekを19のベンチマークに対して評価したと言いました。そして彼らの結論は、米国のモデルと比較して、DeepSeekはパフォーマンス、コスト、セキュリティ、そして普及において遅れているというものでした。

だからある意味では、DeepSeekについて心配しないでください、というのがある意味での見出しでした。アンビ、あなたに投げかけましょう。これについてどう思いますか? DeepSeekが最初に登場したとき、MoEでたくさん議論したと思います。「ああ、これは業界のみんなに適応を強いることになる。無料とどう競争するのか、大きな危険だ」と。

この分析を見て、DeepSeekは私たちが思っていたほどアメリカのAIビジネスにとって大きな脅威ではないのかもしれませんか? それが正しい考え方でしょうか?

これにはいくつかの次元があると思います。私たちは常に、モデルを構築するときには、適切なレベルのガードレールが必要だと強調してきました。適切なレベルのセキュリティが必要です、特にエンタープライズ環境では。私がクライアントと話していて、常にモデルについて話すとき、エンタープライズ環境では、それらのことが本当に、本当に最重要になります。

だからこれは興味深いと思います。アメリカのモデルと中国のモデルの間で、すべての政治的条件の外で見ると、市場は常に選択します。私のエンタープライズ要件のためには、適切なセキュリティガードレール、適切な要件などを満たすモデルを選ぶつもりだと。

私がこのすべてから見た別の角度は、DeepSeekがオープンモデルとオープンソースモデルに多くのマインドシェアを開いたということです。このレポートに埋め込まれていた統計もあります。私たちが捉えていなかったかもしれませんが、DeepSeekモデルのダウンロードが1000%増加しているというものです。

消費者の行動は企業の行動も駆動します。なぜなら消費者は最終的には企業にも座っているからです。その観点から、私はオープンソース、オープンウェイトモデルにマインドシェアが開かれているのを見ます。独自モデルだけで作業するのではなく。

だから、信頼できる、信頼性があり、安全なモデルが必要だという、しかし同時に多種多様なモデル、モデルの選択肢が欲しいというダイナミクスは興味深いです。そしてそれに対してオープンな要素を持ちたい。それを調べて検査できるようにしたいのです。

DeepSeekはオープンウェイトであるという性質によって、私たちがそれを圧力テストし、ストレステストすることができ、その後、どのようにパフォーマンスしているか、セキュリティへの影響がどこにあるかなどを把握できました。

このすべての中で3番目の要素は、私は感じています。確かに、私たちが話している多くのメトリクスがあります。しかし最終的には、セキュリティガードレールなどの外で、パフォーマンスの観点から見ると、これはまだベンチマーク最大化の罠に陥っているということです。最終的には、確かにいくつかのベースラインベンチマークは必要です。しかし最終的には、エンタープライズ環境や何らかのユースケースでこれを行うときには、それがあなたにとってどのように機能するかをまだ測定しなければなりません。だからその次元がなければなりません。

確かに、安全性の要素、信頼性の要素は絶対に重要です。それは、エンタープライズ環境から何を使うべきで何を使うべきでないかという点で良い意味合いを与えてくれると思います。

しかし、それが本当にパフォーマンスが良いかどうか、それが本当に想定されているコストでパフォーマンスが良いかどうかという点で、私たちが見るべき他の角度があると思います。あなたはほぼこう言っているようですね。つまり、みんなはこの切実な必要性を持っていて、誰が先を行っているか、誰が勝っているかを知りたがっています。しかし、この分析は最終的に誰が先を行っているかについて多くを明らかにしていないのかもしれないと言っているのでしょうか?

なぜなら、最終的にはベンチマークがこれを評価する方法として少し人工的だと考えているからです。それがあなたが今言ったことの正しい理解の仕方ですか?

ええ。安全性の角度について。それは明確な次元だと思います。ハイジャックされていたり、セキュリティ要素のいくつかに引っかかっていたりする場合、それは明確なものです。しかし、真のパフォーマンスの観点とコスト最適化の観点から見ると、額面通りに受け取って、「ええ、DeepSeekがパフォーマンスしているか、パフォーマンスしていないか」とは言えないと思います。

そのようなモデルを実際に取り上げて、それがあなたのユースケースに機能しているかどうかを確認する必要があります。なぜなら、これらのベンチマークはすべてオープンだからです。実際にトレーニングできます。

そしてモデルをトレーニングする人は誰でも、常にこれらのベンチマークに対して評価しています。そしてそれがトレーニングを停止する方法です。ベンチマークの特定のレベルに達したら、または改善しない場合です。だから本当に、ブラックボックステストはありません。

そして市場では、新しいモデルを出すとき、すべての新しいモデルで、前回のモデルを上回り、市場のトップを上回る必要があります。

だから、独立したクローズドソースのようなものを見るのは興味深いと思います。NISTが実行したベンチマークを見ると、サイバー、コーディングスキルのようなものです。これらのベンチマークのいくつかはオープンですが、他のものは独自のものです。そして突然、モデルが最適化されていなかったものが飛び出してきます。

だから、おそらくDeepSeekが公開の共通ベンチマークに過剰適合し、それに対して本当に最適化しようとしたのだと思います。しかし、注目を集めるという観点から見れば、それは完全に理にかなっています。だから、米国企業の深みをもう少し示していると思います。より汎用的なモデルを構築するという点で、技術が必ずしも「リーダーボードに載る必要がある」という単一の焦点ではなかったからです。

しかし、彼らはリーダーボードに載りました。なぜなら、その背後に深い技術があるからです。では、それは新しいベンチマークを持つチームが自分たちのモデルを評価できるという意味でしょうか? もちろんです。これがモデルを構築する方法です。汎用的な推論モデルを構築しようとしている場合、非常に大規模なベンチマークを作成し、自分のモデルがどこに弱点があり、どこが強いかを把握しようとします。そしてそれを見つける方法論こそがIPです。

このトレーニングにおける企業のIPは、「ああ、ここで私のモデルは弱く、ここでは強い」と知ることです。そしてそれらの内部ベンチマークは、彼らは公開しません。DeepSeekの人々は、次のレポートで出てきたものを完全に認識していると確信しています。彼らはただそれを市場に持っていかないだけです。

評価とベンチマークの今後

アーロン、ヴォルクマーが私たちを方向づけているのは、実際に私があなたに押し進めたい方向だと思います。この力学は非常に興味深いです。特に、最も価値のある評価、できるベンチマークのいくつかはすべてブラックボックスになる、すべて秘密になると信じるならば。

そして質問は、将来的に評価エコシステムがますます不透明になっていくと感じているかということです。なぜなら、これらの評価から得られるある種の本物のシグナルを保持する唯一の方法だからです。私はヴォルクマーに同意します。このCAISIレポートから得た一つのことは、DeepSeekはテストに合わせてトレーニングしたということでした。

だから、もう少し詳しく見ると、実際にはそれほど印象的ではなかったのかもしれません。しかしそれは評価をどのように行うべきかについて多くのことを示唆しています。

ええ。表面的には、これは矛盾についての物語です。DeepSeek V2は2024年6月にリリースされました。そして彼らは大きな主張をしました。DeepSeek R1はO1より96%安く、他のベンチマークでより良いか同等のパフォーマンスをすると言いました。

Math 500テスト、Massive Multi-language Understandingを測定するようなベンチマークです。しかしそれらすべてをまとめて、NISTが行ったことを見ると、どうしてこうなったのかと自問します。どうしてNISTが突然違うものを思いついたのか? そして私はこれを車の運転について考えます。

ベンチマークとは何ですか? 車のベンチマークは、0から60マイルまでの最高速度のようなものです。制動距離は? 一方で、標準的な評価とは何でしょうか? 標準は、衝突安全性、排出ガス、自律システムのサイバーセキュリティです。

だから起こったことは、私は信じていますが、NISTは標準評価に焦点を当てたということです。一方、DeepSeekはベンチマークに焦点を当てていました。

なぜなら、剥がし始めると、わかります。NIST組織は、敵対的プロンプトを通過しないベンチマークを見ています。政治的中立性を持たないもの。それらの他のタイプの領域を見ています。いくつかのベンチマークマークはベン図の交差部分に重なりを持っています。

しかし、それらは非常に異なる方法で測定されました。そして私は、NISTが行った方法は非常に重要だと思います。なぜなら、これは運用コストに関係してくるからです。外国のモデルを使用するリスク。だから、矛盾の物語は、これをどのように測定するか、そして最良の方法でどのように物語を伝えたいかということに帰着すると思います。

よく言われることですが、統計に私が聞きたいことを言わせることができます。いつでも。そして私はそれがここでも起こったことだと思います。異なる統計を選び、異なる方法で測定できますが、最終的には、これはAIコミュニティにとって素晴らしいニュースだと思います。

そして私たちにより多くの選択肢を与え、本当に何が起こっているのかを解明し始め、より独立した測定を与えてくれます。コストの角度について、割り込みたいと思います。そのレポートに含まれていた他の部分の一つは、彼らはトークンあたりのコストについて宣伝していたということです。私たちは常に、トークンの消費コストは何かと考えます。

私は今週初めにクライアントと話していて、モデルについて考えていました。それは常に私の最前線にあります。ユースケースを構築する場合、トークンあたりの消費コストは何か?

しかしここで興味深いメトリック、興味深い比較分析は、同じモデルまたは2つのモデルを同じタスクセットに使用しようとしている場合、それはトークンあたりの消費コストだけの問題ではないということでした。それはタスクあたりのコストの問題です。単位コストが低くても、実際の有効単位であるタスク完了コストは実際にははるかに高いのです。だから、これらすべての経済性についても考えるときに、持つべき微妙な違いがいくつかあると思います。

Reflection AIとオープンソースAIの未来

次に進みます。そして実際に多くのテーマを次の話に持ち込むと思います。だから政府による外国のオープンソースモデルの評価の世界から離れて、関連するビジネスストーリーに移ります。

Reflection AIという名前のスタートアップが、彼らが行った資金調達を発表しました。それは80億ドルの評価額で20億ドルです。この時代においては、ある意味奇妙に小さく見えます。

そしてそれは元DeepMindの卒業生によって運営されています。しかし、この話を指摘することで私がやりたいことは、このラウンドにおける彼らの大きなピッチは、彼らは代理店や他のAIのバズワードをやるつもりだというところから始まっていたということです。

彼らの新しいピッチは、私たちは米国のためのフロンティアAIオープンソース企業のリーディングカンパニーになるつもりだというものです。ヴォルクマー、あなたに投げかけましょう。私は本当に興味があります。フロンティアAIにおけるリーディングオープンソースプレーヤーは、単に既存のフロンティアAI企業になるのではないでしょうか?

この種の純粋なオープンソースの新興企業が米国市場に今参入する余地があるのか、本当に興味があります。これをどう評価しますか?

ええ。記事を読んだとき、彼らはオープンウェイトになるがオープントレーニングではないと言っていました。だからトレーニングセットは公開していません。だから私の観点からは、差別化がどこから来るのか100%確信が持てません。

彼らはMetaと戦わなければならないでしょう。そして大きな質問は、フロンティアモデルを作っている他の企業があるということです。IBMはフロンティアモデルを作っています。すべてがオープンです。私たちはトレーニングセットがどこから来ているかを公開します。

モデルに入るものについて、補償を含めて、非常にオープンです。だから今、彼らが来て「別のオープンソースモデルを提供する」と言っています。だから単にオープンソースであるだけでは不十分だと思います。3年前なら、これは大きなことだったでしょう。

ええ。ワオ。しかし今では、多くの大手プレーヤーがすでに市場にいます。だから彼らは角度を見つけなければなりません。Anthropicを見ると、彼らは本当に開発者コミュニティを見つけました。そして彼らは同様の角度で来るかもしれません。「特定の市場を見つけて、他のみんなよりも優れたモデルを持ち、それをオープンソースにして、持っているものに微調整できるようにする」と。

そして次の質問は、OpenAIとも呼ばれていたということです。そして今、彼らは地球上で最もクローズドな企業です。だからそれがどのように展開されるかを見ることになります。そして、より多くの選択肢があれば、それはより良いことだと思います。それは圧力をもたらします。

しかしまた、あなたが言ったように、投資規模は相対的に見てはるかに小さいです。だから、ファウンデーションモデル企業を作成する能力の末端にいるのかもしれません。だからそれはテールエンド企業かもしれません。

強力なチームです。彼らは経験を持っています。そして彼らは実績を証明しています。だから資金を見つけることができると確信しています。プレーヤー、Nvidiaと他の多くを見ると、同様のお金のことがあります。ええ、まさに。だから彼らはNvidiaから10億ドルを取って、別の10億ドルを取って、それをNvidiaに返すのかもしれません。戻す。

しかし全体的に、私たちは投資の観点から見て、おそらく別の大規模言語、ファウンデーションモデル企業のテールエンドにいると思います。それはある種の指標だと思います。なぜなら、それは減速しているからです。そして市場には十分な選択肢があると思います。

そしてすべてのベンチャーキャピタルはチップをテーブルに置き、競合企業に投資することはできません。だから私たちは、Nvidiaを除いて、おそらくテールエンドにいると思います。なぜなら、Nvidiaはみんなからお金を得るからです。Nvidiaだから。だから、テールエンドにいると思いますが、それを見るのは良いことです。つまり、お金は今どこか別の場所に行くことができるということです。

投資の観点から見ると、ベンチャーキャピタルの観点だけを見れば、「別のモデル企業が必要か」からアプリケーションは何かに移行していると思います。そしてそれが、投資の観点から見ると、私たちはファウンデーションモデルの人たちから移行していると思います。

光ファイバーを地面に敷設しました。それは完了しました。それはNvidiaとAMDと呼ばれます。そしてデータセンターを建設しました。だからTCP/IPを手に入れました。それがファウンデーションモデルの人たちです。そして次の質問は、GoogleとAmazonになるのは誰かということです。

だから私の観点からは、本当に業界を変革する予定のアプリケーションは何かを見ています。そして今、私たちはまだ配管レイヤーにいます。電気を見ています、GPUを見ています、など。

それらはすべて、変革的になる予定のビジネスを実際に構築するための材料ですが、そのキャパシティとインフラストラクチャーを所定の位置に配置する必要があります。

アーロン、ヴォルクマーの評価を買いますか? 必ずしも悲観的な見方ではありませんが、時代はすでに移行しつつあり、ある意味ではオープンソースはもはや以前ほどクールで特徴的ではないという考え方です。

この空間で本物の独立したオープンソース競合企業を作成できる見通しをどう評価するか興味があります。

つまり、Reflection AIは間違いなく成功するプレーヤーになるためのすべての要素を持っているように見えます。しかしここで成功は保証されていません。私は常にウィンストン・チャーチルのように考えます。「アメリカ人は常に正しいことをする、他のすべての可能性を使い果たした後に」と。そしてReflection AIは、ここで成功するためにすべての可能性を使い果たす時間がありません。

だから非常に、非常に集中する必要があります。違いを生み出すために。テールエンド、そうです、これはテールエンドだと同意します。市場は急速に飽和状態になりつつあります。

しかし強みのいくつかは、創設メンバーの実績だと思います。彼らは知られています。DeepMindから来ています。AlphaGoなど。資金評価はある程度適切に見えますが、投資家名簿は良く見えます。Nvidia、Sequoia、人材採用市場ポジションを持っていますが、非常に野心的なロードマップを持っています。

そしてそれはすべて推測です。彼らはまだ単一のモデルをリリースしていません。彼らが実際に何をするつもりなのか。だからそれは実行リスクを与えます。

フロンティアLLMは、極めてリソース集約的ですが、専門知識も集約的です。だから両方の組み合わせは、難しいです。多くの、多くの競争があります。

オープンの制限について言及しました。ウェイトだけがオープンになります。ウェイトだけでなく、データパイルに何が含まれているかを明確に示す私たちの提供方法とは異なります。

彼らはわずか60人のチームしか持っていません。しかし、そのペンデュラムの長所と短所は上下します。しかし、これがうまくいくかどうかはわかります。そして成功するためには素早く失敗する必要があります。

アンビ、少しズームアウトしたいと思います。私たちは米国市場について非常に多く話してきました。Reflection のような企業がMetaと真っ向勝負できるか? あるいは、OpenAIの長期的なオープンソース開発とさえ。

このCAISIレポートを背景に考えるのは興味深いことです。それは、オープンの国際競争について少し考えることです。Reflection AIのピア競合企業は、必ずしもMetaではないかもしれません。

実際には、DeepSeekのような小規模なラボかもしれません。だから自然な競合企業の多くは、これらの中国のオープンソース新興企業のようなものに見えます。あなたはその競争をどう評価しますか? 小さな企業対大きな企業ではなく、小さな企業対小さな企業が私が入りたい興味深い比較です。

それは良いブランディング演習だと思います。フロンティア、オープンモデルなど。だから良いブランディングとUSPだと思いますが、それを米国市場のフレームに入れるか、中国との国際市場に入れるかにかかわらず、最終的には、汎用LLMについて考えている場合は、テールエンドに達しつつあります。

しかし繰り返しますが、この時点ではすべて推測です。彼らが何をリリースするのか、詳細が何なのかわかりません。だから、他のモダリティにピボットするかもしれません。ワールドモデルに行くとか。誰が知っていますか? そうかもしれないし、そうでないかもしれません。

そして純粋なテキストベースの大規模言語モデルでも、飽和が見られない空間は垂直化です。汎用LLMについて考えているなら、ええ。ある種の飽和が進んでいます。コーディング、コーディングエージェントのコンテキストで適用されるLLMについて考えると。

そこでは、完全な飽和とは言いませんが、かなり、かなり良い成熟度が見られ始めていますが、それをエンタープライズドメインと企業コンテキストでの垂直化に外挿すると。

そこでは、まだかなり、広い範囲がまだ征服されるためにオープンです。それは本当に彼らが何を構築しようとしているか、どこに行くつもりなのかに依存します。だからすべて純粋な推測です。

中国のモデルや米国のフロンティアモデルのコンテキストに入れるかどうかにかかわらず、最終的にはみんなグローバル市場でプレーしています。誰もこの市場だけでプレーするつもりはありません。だから最終的には、市場全体として市場を見なければなりません。

アンビ、あなたが今言ったことは興味深いと思います。垂直化について、企業を見ると、彼らは独自のデータセットを持っています。私がまだ見ていないのは、グローバルファウンドリーのようなビジネスモデル全体です。「私はメーカーです。あなたの会社のモデルのメーカーです。コア技術を提供します。

実際にどのように構築するかについて助けを提供し、あなたは自分自身のモデルを構築します」と。そしてすでにすべての事前トレーニングを行いました。だからこれがオープンソースまたはセミオープンソース企業が行く可能性のある場所だと思います。新しい機会があるかどうか。

なぜなら今、私たちはこのモデルを取るか家に帰るかです。そして微調整は一種の、うまくいきません。

だからその業界全体が、企業が実際に合理的なコストで独自のモデルを構築できるようになるまで、いくつかの反復を経るだろうと思います。そしてそれを行う業界さえまだ作られていないと思います。だからオープンな領域があると思います。ええ、それはオープンな領域です。

それは非常に興味深いでしょう。一種のFoxconnモデルのようになります。ええ、まさに。基本的には、この巨大なコンピュートクラスターを持っているだけです。みんなが今フロンティアAI企業になれます。それは私が聞いたことのない計画です。

ハードウェアだけではありません。しかしまた、トレーニングセットの90%を提供し、トレーニング方法論を提供するようなものです。そして私は組立業者に過ぎません。そしてあなたは私に500万ドルのようなものを支払います。その通りです。非常にクールです。

ベンチャーキャピタルとAI自動化

さて、最後の種類の楽しい話に移ります。ちょっとした捨て話ですが、私が持っているジョークは、数か月ごとに「この特定のX職業からこれらすべての人々を自動化して解雇したなんて信じられますか?」という見出しがあるようなものです。

そしてその話はついに、どうやらベンチャーキャピタルに来たようです。Business InsiderからDavidovs Venture CollectiveまたはDVCと呼ばれるこのVCコレクティブについての話があります。今日話してきた数字を考えると、比較的小規模なファンドで、7500万ドルです。

そして彼らがベンチャーキャピタルファンドのプロモーションで行ったことは、すべてのアナリストを解雇し、エージェントに置き換えたと言うことです。そしてこれは、最初に見えるよりも実際にはもう少し興味深い話かもしれません。

なぜなら、彼らが実際に行っているモデルは、多くのLPを持つつもりで、それらはさまざまな企業のさまざまな人々になると言っているからです。そして私たちがやりたいことは、彼らを使ってベンチャーキャピタルファンドの取引をソースするのを助けることです。

ソーシング、デューデリジェンス、分析、基本的にはアナリストの仕事の多くがAIによって行われることになります。

だから私はアーロン、あなたに投げかけると思います。私はこのアイデアに興味を持っていました。基本的に、AIが行うことは必ずしも置き換えるわけではないということです。確かに仕事を置き換えます。しかしそれが一種行っていることは、労働をシフトさせることです。

通常、LPはソースする人では決してありませんでした。しかし、技術を使えば、コストを十分に下げて、彼らがソースする人になることができるかもしれないというアイデアです。

それはほとんど、食料品をすべて自分でチェックアウトしなければならない方法の洗練されたバージョンのようなものです。列に並んで。ただ金融側で。とにかく、アーロン、あなたがこのビジネスモデルについてどう思うか興味がありました。それは実行可能だと思いますか? 主にマーケティングだと思いますか? どう考えますか?

ええ、この話を地に足をつけるために、DVCがすべてのアナリストを排除したと言うとき、それは5人でした。5人です。そして彼らはAIエージェントを使用して支援します、取引ソーシング、ポートフォリオモニタリング、デューデリジェンスなどで。

私が起こるべきだったと思うことは、仕事の置き換えをする代わりに、です。なぜならAIは大量の仕事の置き換えや小規模な仕事の置き換えの物語でさえないからです。それは仕事の変革についてです。誰かを解雇するのではなく、私たちはAI翻訳者になるべきだと思います。

人間として、労働者としての私たちの価値は、これらのタイプのツールによって増幅されます。新しい役割が登場しています、倫理エンジニア、合成データエンジニア、行動エンジニア、監査人など。

しかし、エージェントオーケストレーター、モデレーター、さらにはAI心理学者になるかもしれません。しかし、人々の置き換えは誤称だと思います。それは人々の変革だと思います。

そして、各人がAIをどのように解釈するかという相対論的な部分もあります。「これらのAIエージェントは意識がある。知覚し、感じ、経験できる」と思う人もいるかもしれません。あるいは彼らは知性がある。考えることができ、深い推論を持っていると。

しかし私はこれらのシステムの多くを構築しているので、どちらでもないと思います。しかし、入ってきて、月並みの検索を行い、結果を見るだけのユーザーは、「ワオ。意識があるか知性があるに違いない」と思うでしょう。

しかしそのすべてにおいて、誰もがAIの基本的なレベルの理解を持ち、翻訳者になれることが重要だと思います。だから私はDVCに、もしかしたら物語を少し変えるように挑戦したいと思います。

人々がどのように置き換えられるかではなく、どのように増幅されるかについて話しましょう。その変革の物語は興味深いものだと思います。アンビ、つまり、これはすべて、最終的にベンチャーキャピタルファンドを持つ理由さえあるのかという疑問を投げかけませんか?

今やすべてのソーシングとデューデリジェンス作業を行う予定のLPの束があります、ただしエージェントを使ってだと思いますが。しかしそれは、一度それを行ってしまえば、このビジネスが何であるかという疑問を投げかけます。

ええ。あなたはセルフチェックアウトについて話しましたよね。あなたたちはどうかわかりませんが、私は地元のCostcoに行きます。セルフチェックアウトレーンに行っても、まだレジ係が私のチェックアウトを手伝ってくれますが、私たちはそれをより速いペースで行うだけです。

アーロンの指摘のように、完全な置き換えではありません。しかし、調整こそがそれをより速く、より効果的にするのです。

だからこのDVCの記事、このニュースには少しスピンがかかっていると思います。小麦をもみ殻から分離すると、確かに、それは非常に適切な質問だと思います。実際に何が、本当に、仮説のテストとストレステストを行っているのか、深い専門知識を必要とするのか、単なる初歩的な分析なのか。

だからそれはまた、実際に何が深い作業が行われているのかを少し露呈させると思います。しかし裏を返せば、ベンチャーキャピタルファンドについて考えるとき、それは純粋に分析だけではありません。関係性の角度もあります。

だから、ハードな要素とソフトな要素の両方の角度でそれを見なければならないと思います。ハードな要素を少し削減し、少し簡単にしようとしています。しかしコアのソフトな要素は依然として存在します。だからできるだけそれらを活用しているだけです。

ヴォルクマー、ここで最後の言葉をあなたに渡します。何か考えがあれば、ええ。私は1年半投資家でしたので、獣の腹の側面を見てきました。

最初のことは、ファンドが非常に小さいということです。7500万ドル。それはほとんど何もないです。通常、これらのファンドが機能する方法は、多くの高純資産個人を取り、みんなが100万、200万、500万を最大で投入します。

そして10年間続くファンドを構築し、お金を返そうとします。このような小規模であれば、すべてがあなたが行うことは、人に投資することです。他にはありません。なぜなら、事実上、製品以前または何でも以前だからです。

なぜなら、どれだけのお金を投入できますか? 50万? 100万? だからすべてが事実上、関係性です。だからベンチャーキャピタルの世界の最大の問題は、ディールフローです。

だから自然にあなたが行うことは、ディールフローを持ってくるようにインセンティブを与える人々を見つけることです。そしてプロトコルでは、ティアAではない場合。みんなティアAを望んでいます。誰もティアBに投資されたくありません。だから「何か提供するものがある」と言う必要があります。

そして彼らが行っていることは、「お金を出すすべての人々を取り、彼らを私のリミテッドパートナーにして、彼らに例外的なリターンを与える」と言うことです。

しかしそうするためには、あなたのネットワークへのアクセスを私に与える必要があります。だからLPはおそらく技術業界を所有する高純資産個人です。そして突然、シグナルを得て、早期シグナルを得ます。なぜなら、あなたのスポークスマンである誰かがいるからです。それがディールフローを得る方法です。

さて、分析を見ると、50万ドルを投入する場合、分析は「コードを書けるか? 良い人間か?」です。そしてそれはほとんどそれだけです。そしてアイデアはどこかで合理的か? 深い分析を見ると。

労働プールの分析問題があります。人々は良いか悪いか? どうやって見つけるか? これらの企業を立ち上げるのをどう助けるか? しかしそれは市場インテリジェンスを行うようなものです。市場はあるか? 市場はないか? 製品は何か? どの人々を雇うべきか?

そしてその分析は、AIで本当にできるものです。なぜなら、通常後の段階にある他の分析は、はるかに深い財務分析だからです。収益は何か、予測は何か、コストは何か、などを見ます。

しかしそれは製品後、すでに市場に入った後に起こります。だからこのような初期段階なので、分析を行うことは実際にはそれほど多くの分析ではなく、クラップシュートです。

だから本当に、人々との関係を持つことです。それが終わりにする素晴らしいメモです。今日はこれで時間です。そしてアンビ、アーロン、ヴォルクマーが参加してくれたことに感謝します。

できるだけ早くまたあなたたちを迎えたいと思います。そしてすべてのリスナーの皆さん、ありがとうございます。お聞きになったことを楽しんでいただけたなら、Apple Podcasts、Spotify、あらゆるポッドキャストプラットフォームで私たちを見つけることができます。来週、Mixture of Expertsでお会いしましょう。

コメント

タイトルとURLをコピーしました