AIのための現実世界インフラストラクチャの構築 – Google、Cisco、a16zと共に

AIインフラ
この記事は約25分で読めます。

本動画は、Google、Cisco、a16zの幹部が、AI時代における現実世界のインフラストラクチャ構築について語るパネルディスカッションである。インターネット黎明期の100倍規模とされる前例のないインフラ投資サイクルが進行中であり、電力、土地、サプライチェーンなどの制約が顕在化している。プロセッサの特殊化、ネットワークアーキテクチャの再発明、推論と学習の最適化、そして企業内部での実際のAI活用事例まで、技術とビジネスの両面から現在と未来の展望が議論されている。特に注目すべきは、Googleの全コードベースをx86からARM対応に移行するAI支援プロジェクトや、地政学的な観点からの異なるアーキテクチャ設計の可能性など、具体的な実例が豊富に語られている点である。

Building the Real-World Infrastructure for AI, with Google, Cisco & a16z
AI isn’t just changing software, it’s causing the biggest buildout of physical infrastructure in modern history.In this ...

AI時代のインフラストラクチャ革命

良いニュースがあります。インフラストラクチャが再びセクシーになったのです。これはかなりクールなことですよね。これは、インターネットの構築、宇宙開発競争、そしてマンハッタン計画を全て一つにまとめたようなものです。地政学的な意味合いがあり、経済的な意味合いがあり、国家安全保障上の意味合いがあり、そしてかなり深遠なスピードの意味合いもあります。

簡単に言えると思います。私はこのようなものを見たことがありません。誰もこのようなものを見たことがないとかなり確信しています。1990年代後半から2000年代初頭のインターネットは大きなものでしたし、私たちは「なんてことだ、信じられない、この構築、このペースは」と感じていました。これはそれを10倍というのは控えめな表現です。インターネットの100倍です。

こんにちは。さて、インフラストラクチャについて話すのにこれ以上良い時と場所があるでしょうか。私たちは控え室にいて、ちょうど最初の質問に答えられようとしていたところで、私は話を遮られてしまいました。ですから、これは完全に繰り返しになるかもしれません。でも、とにかく始めましょう。

最初の質問は似たようなものです。まずお二人に、ようこそ、そしてここに来ていただきありがとうございます。素晴らしい1日半を過ごしていただければと思います。お二人とも長い間この業界にいらっしゃって、多くのインフラストラクチャサイクルを経験されていますよね。それで、投資家の視点からではなく、物事を構築し計画する責任を持つ内部の視点から、このサイクルのようなものを見たことがありますか。

どちらから始めましょうか。始めますか。簡単に言えると思います。私はこのようなものを見たことがありません。誰もこのようなものを見たことがないとかなり確信しています。1990年代後半から2000年代初頭のインターネットは大きなものでしたし、私たちは「なんてことだ、信じられない、この構築、このペースは」と感じていました。

これはそれを、10倍というのは控えめな表現です。インターネットの100倍です。そしてメリット面も、インターネットが大きかったのと同じように、同じことが言えます。10倍、100倍です。はい、このようなものはありません。

同意します。このサイズ、スピード、規模に関して、前例はないと思います。良いニュースは、インフラストラクチャが再びセクシーになったということです。これはかなりクールですね。長い間、あるいはセクシーではありませんでした。

私が本当に興味深いと思うことは、これは、インターネットの構築、宇宙開発競争、そしてマンハッタン計画を全て一つにまとめたようなものだということです。地政学的な意味合いがあり、経済的な意味合いがあり、国家安全保障上の意味合いがあり、そしてかなり深遠なスピードの意味合いもあります。

ですから、私たち誰もこのサイズと規模のものを見たことがありません。一方で、現在最も一般的な質問は「バブルなのか」というものですが、私たちは構築の規模を大幅に過小評価していると思います。

私たちが予測を立てているよりも、はるかに多くのものが必要になると思います。それで次の質問ですが、資本支出サイクルのどこにいると思いますか。しかしもっと重要なのは、あなた方が内部的に使っているシグナルは何ですか。つまり、データセンターを4年か5年前から計画しなければなりませんよね。

原子炉を購入したりなどしなければなりません。では、需要シグナルとテクノロジーシグナルについてどう考えていますか。ジーシドも同じですが、エンタープライズやネオクラウドなどの観点からお願いします。

データセンターと電力の制約

私たちはサイクルの初期段階にいると言えるでしょう。確かに、私たちが見ている需要と比較して。私たちの内部ユーザーは、私たちは10年間TPUを構築してきました。現在、内部および外部使用向けに第7世代が生産されています。7年前と8年前のTPUは100%の稼働率です。そしてこれは需要がどれほどあるかを示しています。もちろん誰もが最新世代を使いたいと思っていますが、手に入るものなら何でもという状況です。

これは、需要が莫大であることを教えてくれますが、同時に誰を断っているか、どんなユースケースを断っているかということも教えてくれます。それは「ああ、それはちょっとクールだね」というようなものではありません。「なんてことだ、私たちは実際にこれに投資しないつもりだし、リストのどこにいるかわからないから選択肢がない」というようなものです。

この部屋にいる多くの皆さんも同じですよね。私たちはこの部屋にいる多くの皆さんと協力していますし、多くの皆さんが私に直接言ってくださっています。ありがとうございます。私たちはもっと早く、もっと必要としています。

さて、ここでの課題は、あなたがおっしゃったように、私たちは電力によって制限され、変圧器や土地によって制限されています。許認可によって制限され、サプライチェーンの多くのものの納品によって制限されています。

ですから、私が心配していることの一つは、供給が実際には私たち全員が望むほど早く需要に追いつかないということです。前のセッションで、私たちが費やすことになる数兆ドルについての議論を聞きました。それは正確だと思います。しかし、私たちが実際にそれらの小切手を全て現金化できるかどうかはわかりません。言い換えれば、文字通り、皆さん全員がとても多くのお金を持っていて、望むだけ早く全てを使い切ることができないのです。

これは3年、4年、5年続くと思います。すごいですね。そして、そこに関わる減価償却サイクルにどう対処しますか。需要曲線と減価償却サイクル曲線は一致していますか。

幸いなことに、私たちはジャストインタイムで購入しています。しかし良いことは、ハードウェアについてはジャストインタイムですが、スペースと電力の減価償却サイクルは25年から40年の間のようなものです。ですから、そこではメリットがあります。

ネットワーキング側について考え、エンタープライズとハイパースケーラー、そしてネオクラウドの両方を見ると、状況はかなり異なると思います。エンタープライズは真のインフラストラクチャの構築において非常に初期段階です。

ある時点でデータセンターの100%が再ラック化される必要があると仮定し、従来のデータセンターにあったものと比較して、ラックごとに非常に異なるレベルの電力要件が必要になるとしたら、エンタープライズがまだ十分に進んでいるとは思えません。

超高規模のいくつかのエンタープライズはそこにいるかもしれませんが、エンタープライズが十分に進んでいるとは思えません。ハイパースケーラーとネオクラウドは全く異なる話です。そして、電力、コンピュート、ネットワークがこの中で三大制約であるという点について。

今、単一の場所に十分な電力がないため、データセンターは電力がデータセンターに持ち込まれるのではなく、電力が利用可能な場所に建設されていると言えます。そのため、世界中で多くのプロジェクトが構築されているのを目にしています。

もう一つのポイントは、私たちが持つことになる制約の大部分は、長期間持続可能だと思うということです。そして、データセンターがますます離れて建設されるにつれて、まず、スケールアップネットワーキングに対する莫大な需要が生まれます。そうすることで、ラックがますます多くのネットワーキングをスケールアップのために得ることができます。

二つ目は、複数のラックとクラスターを接続する必要があるスケールアウトに対する多くの需要があるでしょう。しかし、私たちは、スケールアクロスネットワーキング用の新しいシリコンと新しいチップ、そしてシステムを発表しました。そこでは、2つのデータセンターが論理的なデータセンターとして機能し、最大800から900キロメートル離れている可能性があります。そして、単一の場所に十分な電力の集中がないため、そのようなことが起こるでしょう。

ですから、異なるアーキテクチャを構築する必要があるでしょう。

システムとネットワーキングの未来

実際、それは私が次に議論したかった話題につながります。システムとネットワーキングの未来などについてです。Googleは、ウェブ革命のために最初の、または少なくとも大規模なスケールアウトコモディティサーバーを本番環境で実現し、今Nvidiaは異なる形でメインフレームを復活させています。

では、次に何が起こると思いますか。つまり、これが私たちが必要とするコヒーレントなクラスターワイドコンピューティングの新しいスタイルであり、共有メモリなどがあることになるのでしょうか。それともパターンが再び変わると思いますか。

私たちはメインフレームに戻るというところまでは行っていないと思います。それは、人々がこれらのプール全体でスケールアウトアーキテクチャ上で実行しているという事実がまだあるからです。言い換えれば、GPUやTPUを持っているかどうかにかかわらず、必ずしも「ねえ、それは私のGPUスーパーコンピュータだ」と言っているわけではありません。「16,384個のGPUを持っている」と言っているのです。そして、多分いくつかのサブセットを取得するつもりかもしれません。

今、私は多くの場合、均一な全接続性を持っています。これは素晴らしいです。TPUも同様です。9,000チップのポッドがあって、そこに私のジョブを合わせなければならないというようなことではありません。多分実際には256しか必要ないかもしれません。多分100,000必要かもしれません。

ですから、実際にソフトウェアのスケールアウトはまだ存在すると思います。ただ、2つのことを指摘します。一つは、約25年前、Googleや他の場所で同時に、コンピューティングインフラストラクチャの真の変革がありました。実際に、本質的に店頭で購入できるのと同じコモディティPCでスケールアウトし、Linuxスタックを実行するという概念です。それがディスク、コンピュート、ネットワーキングのために行うことでした。

皆さん、これが当たり前だと思っていますが、これは革新的でした。多くの人々がこれはひどいアイデアで、うまくいかないだろうと考えていました。この瞬間について本当にエキサイティングなことは、実際に私たちがコンピューティングを再発明しようとしているということです。Googleとは言いませんが、私たちはコンピューティングを再発明しようとしています。そして5年後には、ハードウェアからソフトウェアまでのコンピューティングスタックが何であれ、認識できないものになるでしょう。

そして、ところで、共同設計がありました。なぜなら、考えてみてください。私は最もよく知っている例としてGoogleを使いますが、Bigtable、Spanner、GFS、Borg、Colossusは、ハードウェア、クラスタースケールアウトアーキテクチャ図と手を取り合って共同設計されました。そして、それは実際に、スケールアウトソフトウェアがなければ、スケールアウトハードウェアを行わなかったでしょう。

同じことがこの瞬間に起こるでしょう。ですから、実際にメインフレームは、非常に非常に異なって見えるようになると思います。

統合システムに対する極端な需要があると思います。なぜなら、今、Ciscoでは物理から意味論まで、シリコンからアプリケーションまで、すべてを行うという非常に幸運な立場にいるからです。電力以外の制約の一つは、これらのシステムがどれだけうまく統合されているか、そしてスタック全体で最小限のロス性で実際に機能するかということです。

そして、そのタイトな統合のレベルは非常に重要になるでしょう。そして、それが業界が進化しなければならないことを意味するのは、実際には複数の企業であるかもしれないとしても、これらの部分を実際に行う一つの企業のように働かなければならないということです。

ですから、Googleや他のハイパースケーラーと協力するとき、実際に取引を行う前に何ヶ月も一緒に続く深い設計パートナーシップがあります。そして、取引が完了すると、もちろん、確実に迅速に進めるための莫大なプレッシャーがありますが、オープンエコシステムで運営し、ウォールドガーデンにならないように業界の筋肉を確保することが、スタックのすべてのレイヤーで重要になると思います。

完全に同意します。

プロセッサの特殊化と多様性

では、スタックを少し分解して話しましょう。最も興味深いトピックの一つはプロセッサですよね。明らかに、今日莫大な市場シェアを持つ素晴らしいプロセッサを製造している素晴らしいベンダーがいますよね。そして、私たちはあらゆる種類のプロセッサアーキテクチャを扱うスタートアップを常に目にします。

あなたは要塞の中に素晴らしいプロセッサを持っています。プロセッサの世界で次に何が起こると思いますか。

私たちはNvidiaの大ファンです。私たちは多くのNvidia製品とチップを販売しています。お客様はそれらを愛しています。私たちはまた、私たちのTPUの大ファンです。私が思うに、未来は実際に本当にエキサイティングで、実際に私たちは、TPUがあり、GPUがあり、Tranniumか何か他のものがあるという点に達したとは思っていません。

私たちは本当に特殊化の黄金時代を見ています。それが私の観察です。言い換えれば、それを見ると、TPU、私は最もよく知っている例として再び使いますが、特定の計算については、CPUよりもワットあたりどこか10倍から100倍効率的です。

そして、このワットが本当に重要なのです。10倍から100倍。それから離れるのは難しいですよね。それでも、私たちは、さらに特殊化されたシステムを構築すれば利益を得られる他の計算があることを知っています。しかし、ニッチな計算だけではなく、Googleで多く実行する計算です。

例えば、サービング用かもしれませんし、さらに特殊化されたアーキテクチャから利益を得るエージェント的ワークロード用かもしれません。

ですから、実際には一つのボトルネックは、特殊化されたアーキテクチャをどれだけ困難で、どれだけの時間をかけて立ち上げられるかということだと思います。今のところ永遠にかかります。そうですよね。世界最高のチームにとって、本当にコンセプトから本番環境での稼働まで、光速で2年半です。

つまり、それはすべてをうまくやった場合で、そうできるチームは少数ありますが、特殊化されたハードウェアを構築するために2年半先の未来をどう予測しますか。ですから、A、私たちはそのサイクルを縮小しなければならないと思います。

しかし、B、ある時点で物事が少し減速したとき、そしてそれは起こるでしょうが、電力の節約、コストの節約、スペースの節約が無視するにはあまりにも劇的なので、より特殊化されたアーキテクチャを構築しなければならないと思います。

そして、これは地政学的構造にも非常に興味深い影響を与えるでしょう。なぜなら、中国で何が起こっているかを考えると、中国は実際には2ナノメートルチップを作っていません。

彼らは7ナノメートルチップを作っています。しかし、彼らは無制限の電力を持っており、無制限のエンジニアリングリソースを持っています。ですから、彼らができることは、エンジニアリング側で最適化を行い、7ナノメートルチップを維持し、人々に無制限の電力を提供することです。

私たちは異なるアーキテクチャ設計を持つかもしれません。そこでは、非常に電力効率的でなければならず、中国で楽しめるほど多くのエンジニアを持っていないかもしれず、実際に2ナノメートルチップに行くことができますが、それらはある面では電力効率的かもしれませんが、他の面では熱ロス性を持つかもしれません。

考慮に入れなければならない全体の束があります。アーキテクチャ上、地理や地域によってさらに特殊化されるでしょう。そして、規制フレームワークがどのように進化するかに応じて、中国が世界のさまざまな地域に拡大する場合、アメリカが世界のさまざまな地域に拡大する場合とは非常に異なるアーキテクチャが展開されるでしょう。

ですから、これは非常に興味深いゲーム理論の演習です。テクノロジー全般における今後3年間で何が起こるか。そして、今のところ誰も知りません。

それが私たちが生きている世界の美しさですね。そうですね。では、ワット毎トークンに加えて、エンジニア毎トークンでシステムを測定するようになるでしょう。

さて、明らかに別のトピックにジャンプしましょう。これはあなたがそれに言及したネットワーキングです。あなたのケースでは、スケールアップ、スケールアウト、スケールアクロスについて言及しました。ですから、ネットワーキングもかなり重要な方法で再発明されるように思えます。では、あなたが見ているリーディングサイドとシグナルは何ですか。そして、ネットワーキングが向かっている方向は何ですか。

ネットワーキングの変革と課題

ネットワーキングは確実に変革を必要とするでしょう。言い換えれば、建物内の規模で必要とされる帯域幅の量は驚異的です。つまり、そしてそれは増加しています。ネットワークは主要なボトルネックになりつつあります。これは恐ろしいことです。

ですから、より多くの帯域幅は直接より多くのパフォーマンスに変換されます。そして、ネットワークが実際には小さな電力消費者であることを考えると、提供されるワットあたりのユーティリティは、ここに少し費やすことで、そこではるかに多くを得るという超線形の利益のようなものです。ですから、その側面は絶対にあると思います。

ここでプラグインを入れますが、これらのワークロードでは、実際に事前にネットワーク通信パターンを知っています。ですから、これは大きな機会だと思います。言い換えれば、実際に大まかな回路が何になるかを知っているのに、パケットスイッチの完全な力が必要ですか。

回路スイッチを構築する必要があるとは言っていませんが、最適化の機会があります。これのもう一つの側面は、これらのワークロードが信じられないほどバースト性が高いということです。

そして、私たちはこれについて書いていますが、電力ユーティリティは、数十メガワット、数百メガワットの規模で、計算と比較してネットワーク通信を行っているときに気づきます。莫大な電力需要があり、突然停止し、いくつかのネットワーク通信を行い、そして計算にバーストして戻ります。

では、本当に短い時間100%で動作し、その後アイドル状態になる必要があるネットワークをどのように構築しますか。

そして、スケールアクロスユースケースについても同様です。これは私たちが絶対に見ているものです。すべてのワイドエリアデータセンターサイト全体で年間12ヶ月間大規模な事前トレーニングを実行することはありません。

これは私が多く考える問題です。これら3つのデータセンターサイトで最新の最高のチップを構築したとしましょう。他の3つのサイトで最新の最新のチップに移行する前に、どれくらいそこにいるでしょうか。

そして、残したネットワークをどうしますか。人々はそれらでジョブを実行するでしょう。しかし、大規模トレーニング、少なくとも事前トレーニングのために必要だったネットワーク容量ほど必要ありません。

ですから、時間の5%のように大規模なネットワークを必要とするというシフトは、そのようなネットワークをどのように構築するかわかりません。ですから、誰かがわかる人がいたら、お願いですから教えてください。

つまり、あなたがこれを構築する方法を知らないなら、これを構築する方法を知っている人は誰もいません。私たちは理解しようとしています。実際、それは魅力的な問題です。

電力が制約であり、コンピュートが資産である場合、ネットワークは力の乗数になると思います。なぜなら、パケットの遅延が低く、パフォーマンスが低く、エネルギー効率が高い場合、パケットを移動させるために節約する電力のキロワットごとが、GPUに与えることができる電力のキロワットになるからです。これは非常に重要です。

もう一つは、スケールアップ対スケールアウト対スケールアクロスについて考えると、特に推論対トレーニングでは、最適化される異なるものがあります。トレーニング実行では遅延をはるかに最適化するかもしれませんし、推論ではメモリをはるかに最適化するかもしれません。アーキテクチャ上の考慮事項があります。

ですから、ネットワーキングが進化する方法は、トレーニングインフラストラクチャがあって、それが推論に適用されるというよりも、推論ネイティブインフラストラクチャが時間をかけて構築されるかもしれません。ですから、すべてのアーキテクチャコンポーネントがどのように動いているかについて、良い考慮事項があります。

しかし、私の考えでは、戦略的にネットワーキングで起こっている最大のことの一つは、もしあなたがBroadcomの周りの単なるラッパーであるなら、非常に略奪的な独占を持つことになるということです。

ですから、Ciscoが非常に関連性がある大きな理由の一つは、Broadcomの周りにシステムをラップするだけの人々とのBroadcomの世界だけではなく、実際にシリコンの選択肢を持つことができるということです。そして、そのシリコンの選択と多様性は、特に大量消費パターンにとって非常に重要になるでしょう。

推論アーキテクチャと最適化

それでは、あなたがそれを持ち出したので、システムに関する最後の質問をして、ユースケースに移りましょう。推論、お二人とも言及されましたが、プロセッサのコンテキストで話しましたし、アーキテクチャについて話し始めました。今日、推論用の特定のアーキテクチャをデプロイしていますか。それとも、まだ共有ワークロードですか。

私たちは推論用の特殊化されたアーキテクチャをデプロイしています。ハードウェアと同じくらいソフトウェアだと思いますが、ハードウェアも異なる構成でデプロイされていると言えます。そして、推論のもう一つの側面は、本当に興味深くなっているのは、特にサービングのクリティカルパス上での強化学習です。なぜなら、遅延が絶対的に重要になるからです。

ですから、システムをどのように構築し、どのように互いに接続するか、そしてもちろんネットワーキングがそこで重要な役割を果たすことが、ますます興味深くなっています。推論コストを1000分の1に削減する必要がある場合、削除すればそれを加速する単一のチョークポイントがありますか。それとも、これは私たちが乗っている自然なカーブですか。

私たちは大規模です。つまり、ここで2つのことがあります。一つは、繰り返しますが、多くの方がこれに精通しているかもしれませんが、推論のプリフィルとデコードは非常に非常に異なって見えます。ですから、実際には理想的には、異なるハードウェアを持つことになります。実際、バランスポイントが異なります。ですから、それは一つの機会です。欠点が伴います。それについて話すことができます。

私が言いたいことは、人々が実際に気づいていないかもしれないことは、私たちが推論コストの大幅な削減を実際に推進しているということです。つまり、10倍、100倍です。問題または機会は、コミュニティ、ユーザーベースがより高い品質を求め続けているということです。

より良い効率ではありません。ですから、私たちが求めているすべての効率改善を提供するとすぐに、次世代モデルが登場し、それはドルあたりの知性が何であれはるかに優れていますが、それでも前世代と比較してより多く支払い、コストがかかります。そして、サイクルを繰り返します。

そして、それはほとんど推論が長ければ長いほど市場が焦りを感じるようなものです。例えば、Deep Researchのような20分の推論サイクルがある場合、約20分間の自律実行が可能で、それは興味深いものでした。

今、最大7時間から30時間の自律実行期間に行くことができるほとんどのコーディングツールがあります。それが起こると、実際にその時間を圧縮するように言うためのより大きな需要があります。

ですから、それは自己実現予言のようなもので、より長い自律的な時間できることができたという事実のために、より多くのパフォーマンスを持つ必要があります。ですから、それはほとんど推論のためにより多くのパフォーマンスを必要とする終わりのないループです。

永久に。ただし、ドルあたりの知性はビジネスモデルメトリックです。ですから、それはプロセッサ能力だけではありません。いいえ、それはエンドツーエンドです。絶対に。

企業内部でのAI活用事例

では、トピックを変えて、実際の使用について話しましょう。お二人とも大規模な組織を持っています。利用可能なすべてのAIを適用することで、今日得ている主要な勝利はどこですか。それから、お客様が何をしているかについて話しましょう。しかし、実際にはチーム内で内部的に何をしているかについて興味があります。

コーディングは明白なものです。そして、それは実際に牽引力と能力を高めています。私たちは実際に過去数日で、x86からARMへの命令セット移行を行うためにAI技術をどのように適用したかを示す論文を発表しました。

言い換えれば、私たちは実際にかなり大規模な移行を行いました。私たちの全体のコードベースを、Googleではそれは非常に非常に大きなコードベースですが、命令セットに依存しないようにしました。将来のRISC-Vやその他のものを含めて、数万、数十万の個々の、全体のコードベースを、不可知論的にするつもりです。

全体のコードベースですか。私たちは、私たちのすべてのコードベースが必要で、それを必要としています。それはクレイジーなプロジェクトです。ですから、それはそうでした。そして、しかし、これの動機は実際に数年前でした。

私たちはBigtableと呼ばれる素晴らしいレガシーシステムと、Spannerと呼ばれる新しい素晴らしいシステムを持っていました。そして、私たちは会社に、みんなBigtableからSpannerに移動する必要があると伝えることにしました。ちなみに、Bigtableはその時代には素晴らしかったですが、Spannerの方が優れていました。

Googleのためにその移行を行うための見積もりは7スタッフミレニアムでした。どれくらいですか。7スタッフミレニアム。私たちは実際に新しい単位を持たなければなりませんでした。そして、それは人々が怠惰であるとか作り上げたものではありませんでした。これがそうだったのです。

彼らがそれを思いついたのは愛らしいですね。そして、私たちが決めたことを知っていますか。Bigtableよ永遠に。それは単に価値がありませんでした。正直なところ、機会コストが高すぎました。

ですから、私たちはこの種の移行を持っています。ですから、TensorFlowからJAXへ、私たちは実際に、再び多少プライベートですがあまり秘密ではありませんが、私たちはAIアシストでこれを内部的に影響を与え、整数係数倍速くなりました。

さて、ツールがまだ標準に達していない他のタスクがありますが、曲線下の面積はどんどん大きくなっています。ですから、私たちはおそらく3つか4つの本当に良いユースケースを見ています。そして、まだうまくいっていないいくつかのユースケースを見ています。

それで、何がうまくいっているかというと、コード移行はこれまでのところ比較的うまくいっています。私たちは主にCodex、Claude、そしていくつかのCursorやSurfの組み合わせを使用しています。コード移行はうまくいく傾向があります。

デバッグは、奇妙なことに、特にCLIでこれらのツールで非常に非常に生産的でした。そして、フロントエンドのゼロから1へのプロジェクトは非常にうまくいく傾向があります。エンジニアは非常に生産的です。

古いコードに行くとき、特にインフラストラクチャスタックのさらに下の方では、それを実現させるのははるかに困難です。しかし、これにエンジニアを方向付けるために私たちが持っている課題は、実際には技術的な問題よりもはるかに文化的なリセット問題です。

誰かが何かを使って「これはうまくいっていない」と言った場合、6か9ヶ月間「これはうまくいかない」と言って棚に戻すことはできません。4週間以内に戻ってきて、それが再びうまくいくかどうかを確認する必要があります。なぜなら、これらのツールが進歩している速度が非常に速いため、ほとんど必要があるからです。

ですから、私は今日150人の私たちの著名なエンジニアと会っていましたが、彼らにやってもらわなければならなかったことは、これらのツールが6ヶ月以内に無限に良くなると仮定することです。

そして、そのツールが6ヶ月後にどこにあるかに精神モデルを持っていき、6ヶ月後にベストインクラスになるために何をするつもりかを確認してください。今日それがどこにあるかを評価して、それが今後6ヶ月間うまくいかないと仮定して6ヶ月間脇に置くのではなく。それは大きな戦略的エラーだと思います。

ですから、私たちは25,000人のエンジニアを持っています。次の年以内に、非常に短い時間内に少なくとも2倍か3倍の生産性を得られることを望んでいます。それが起こるかどうかを見ることができるでしょう。

二番目に、私たちが良い反応を見始めているいくつかの大きな分野は、アカウントコールに行く前の営業準備で本当に良いです。法的契約レビューも、私たちが考えていたよりも実際にはるかに優れています。そして最後のものは、超高推論ボリュームではありませんが、プロダクトマーケティングです。

競争に関する最初のChatGPTのテイクは、常に私のプロダクトマーケティング担当者が自分で考え出すものよりも優れています。ですから、私たちは決して白紙の状態から始めるべきではありません。ChatGPTから始めて、そこから進めるべきです。

さて、私たちはこのトピックについて長い間話すことができますが、彼らは私に2分の警告を見せました。ですから、最後の質問に焦点を当てたいと思います。

ですから、私たちはここに多くの創業者がいますよね。素晴らしい会社を構築しています。では、次の暦年、例えば次の12ヶ月で彼らが楽しみにするべき最も興味深い展開は何ですか。あなたの会社からのAと、あなたがクリスタルボールを見る場合の業界からのBです。

今後12ヶ月の展望

つまり、私は、ポイントに基づいて、これらのモデルが月ごとにますます壮観になっていると思います。そして、それはあなたが好きな会社からのものであり、私たちのものを含めて、本当にエキサイティングな束があるでしょう。あなたは言うことが許されていないことを忘れていました。モデルは良くなるでしょう。誰もがモデルを知っています。

しかし、モデルは恐ろしいほど良くなっていると私が言う部分です。しかし、その上に構築されるエージェントとそれを実現するためのフレームワークも恐ろしいほど良くなっています。

ですから、今後12ヶ月にわたってかなり長い間物事がかなり正しく進む能力は変革的になるでしょう。何でも。ロードマップの次の12ヶ月の側面をリークしたいですか。今のところはしません。

わかりました。大きなシフトは、そしてスタートアップに促したいことは、他の人のモデルである薄いラッパーを構築しないでください。

製品と非常に密接に連携するモデルの組み合わせと、製品にフィードバックがあるときにモデルが良くなることが非常に重要になると思います。ですから、基盤モデルが必要になりますが、薄いラッパーだけがある場合、ビジネスの耐久性は非常に非常に短命になると思います。

ですから、それは私が促したいことです。そして、私はこれらのことに私のモデルを使うつもりだと言うある種のインテリジェントルーティングレイヤーだと思います。おそらく他のことには基盤モデルを使うつもりで、動的に最適化し続けるでしょう。Cursorはそれをかなりうまくやっていると思います。

しかし、それはソフトウェア開発ライフサイクルが進化する良い方法になるでしょう。Ciscoから期待すべきことは、正直に言うと、長い間人々はCiscoがレガシー会社だと思っていました。彼らは過去の遺物だと。そして、過去1年間で注意を払っていただければと思いますが、ビジネスには勢いのレベルがあり、従業員ベースには活気があります。

ですから、私が言ったように、物理から意味論まで、シリコンからアプリケーションまで、すべてのレイヤーで、シリコンとネットワーキングとセキュリティと可観測性とデータプラットフォーム、そしてアプリケーションで、かなりの量のイノベーションを期待してください。

そして、私たちはスタートアップエコシステムと協力することに興奮しています。ですから、もし私たちと協力したいと感じたら、私たちに連絡してください。あなたは何か言うつもりでしたか。

つまり、モデルについて強調したい一つの側面は、例えば2年半から3年前にテキストモデルでどこにいたかということです。それらは楽しいものでした。ねえ、マーティンについて俳句を書いて、素晴らしい仕事をした。今、それらは素晴らしいです。

今後12ヶ月で起こることは、これらのモデルへの画像とビデオの入力と出力で同じことが起こることだと思います。そして、画像についても、それらを生産性ツールと教育ツールとして想像してください。単なる、はい、これはスーパーマンのマルティネスです、というようなものではありません。それもクールですよね。

しかし、生産性の向上と学習のためにそれを使用することは、本当に本当に変革的になると思います。

素晴らしい。そのことで、このセッションを終了しなければなりません。素晴らしい会話をありがとうございます。ありがとう、ティト。

コメント

タイトルとURLをコピーしました