
14,931 文字

o3、o4、o4-mini、o4-mini high、GPT-4o、GPT-4.5。あなたはどのモデルを使っていますか?クリス・ヘイはディスティングイッシュド・エンジニアで顧客変革担当CTOです。クリス、番組へようこそ。あなたの好みのモデルは何ですか?
ティム、4.1を忘れていますね。それが私のモデルになります。ティムが選ばなかった4.1を選びます。
ありがとうございます。ヴィヨマ・ガジャールはAIテクニカルソリューションアーキテクトです。ヴィヨマ、番組へようこそ。あなたの好みのモデルを教えてください。
ありがとうございます。私はオリジナルのo4だと思います。
クラシックですね。そして初めて参加いただくジョン・ウィリスさんは、著者でボッチャガルーペ・テクノロジーのオーナーです。ジョン、番組に参加いただきありがとうございます。あなたの好みのモデルは?
やあティム、Gemini 2.5…おっと、すみません。実際には、私はo3だと思いますが、今のところコーディングには4.1が一番のお気に入りです。
素晴らしいですね。今日のミクスチャー・オブ・エキスパートではこれらすべてを扱います。
私はティム・ホワンです。ミクスチャー・オブ・エキスパートへようこそ。毎週、MoEは世界クラスの技術エキスパート、ウィットに富んだ方々(クリスのことですよ)、そして業界のベテランを集めて、人工知能に関する最大のニュースについて議論します。いつものように話題は盛りだくさんです。Geminiのオンプレミス提供、ジョンのAI評価ツールに関する素晴らしいブログ投稿、そしてNVIDIAが米国でチップ工場を開設することについて話し合います。
まずはOpenAIの発表から始めましょう。今週彼らはo3とo4-miniを発表しました。これらは彼らの最新世代のモデルシリーズです。クリス、まずあなたの印象を聞かせてください。これらは本当に優れているように見えます。o3は素晴らしいですね。初期の印象として、どう感じましたか?
はい、昨晩それらのモデルでたくさん遊びました。o3は本当に素晴らしいです。特に評価すべき点として、パーソナリティが本当に向上しています。コードのリファクタリングの提案や、アーキテクチャをどう改善すべきかについて実に良い提案をしてくれます。現時点でo4-miniは、素早く作業を完了するのに最適です。ユニットテストを作成したり、コードをリファクタリングしたりするだけなら、o4-miniは素晴らしく、超高速です。モデルには感心しています。冒頭で言ったように、コードXCLIの中の4.1も気に入っています。モデルにとって素晴らしい一週間です。
ジョン、あなたの意見も聞かせてください。Twitterでは不機嫌な人々がいつもいますが、今回の発表に対しても「これは単なる漸進的な改良に過ぎない。大きな新機能はない。単なる小さな改善を発表しているだけだ」と言う人たちがいます。OpenAIは停滞しているという議論がありますが、この新発表についてそのように考えますか?
いいえ、彼らは常に進化しています。冗談半分で言ったGemini 2.5の話は実際には全く冗談ではなく、それがどれほど強力かという話ですが、これはGoogle関連のセクションで話しましょう。私はDeep Researchとo3-miniに完全に移行し、「これで私の人生が変わる」と思いました。そして文字通り1ヶ月後には、Geminiのリサーチのほうがさらに良いことに気づきました。Twitterの不満や比較は全てナンセンスです。あなたが何を解決したいかが重要なのです。
私はDevOpsの専門家であり、DevOps運動の創始者の一人であり、DevOpsハンドブックを書きました。私はまずSW Bench(ソフトウェアエンジニアリングベンチマーク)を見ます。o3モデルとo4-miniモデルは、彼らのベンチマークに基づいてSW Benchで大幅な向上を示しているようです。私が顧客と直面する問題をどう解決するかが重要です。ベンチマークを信じるなら(まだ自分では試していませんが)、それは素晴らしいことです。AI Polyglotベンチマークも見るべき良いベンチマークの一つです。私がAIとDevOpsとインフラについて知っておくべきこととして人々が期待することに対応するために、私はそれらを追いかけています。
ヴィヨマ、あなたはモデルを試してみましたか?その印象はどうでしたか?
少し試してみました。すぐに気づいたことの一つは、推論に時間がかかるようになったことです。推論時間が増加しましたが、それによって精度が向上しています。「精度」という言葉を安易に使いたくありませんが、より関連性のある回答を提供する精度が向上したと感じます。それが向上した素晴らしい点の一つです。また、視覚的推論も多く追加されています。画像があって質問すると、「結婚式の計画をしています。装飾についてどうすればいいですか?何をすべきですか?」などと質問し、Pinterestの奇妙な画像アドレスを与えて推論させると、「これは機能しない、これは機能する」と教えてくれます。
このポッドキャストで最初に言いますが、クリスではなく私が言いますが、これらの特定のハイパーアーティストとAIを使用するエージェント的な側面は、ゲームチェンジャーになると思います。はい、これらのモデルはそれぞれ小さな改善がありますが、企業でこれらの改善をどう活用できるかが重要です。私はこれらのモデルがエンタープライズAIでの優位性を持つと感じています。
確かに、それについてもっと掘り下げたいですね。友人が「エージェントが結婚式を計画できるようになった瞬間、AGI(汎用人工知能)の到来だ」と言っていたのが面白いです。それが私たちが超えるべき閾値なのでしょう。
その通りです。OpenAIの発表ではあなたが言及した両方の点を強調していました。一つはエージェントツールの使用が改善されたということでした。私が試した限りでは、確かにそれは良くなっています。しかし、一つ理解しきれていないのは、「モデルが文字通り画像で考えるようになり、それが視覚的推論のパフォーマンス向上につながる」という彼らの主張です。ヴィヨマ、「画像で考える」とは具体的にどういう意味でしょうか?
画像で考えるとは、質問に基づいて様々なグラフを作成したり、分析を並べて行ったりすることだと思います。例えば、推論するための画像(ピボットテーブルのスクリーンショットなど)を与え、「これが私が欲しいもので、このピボットテーブルについてこのように推論してほしい。そしてレポートを作成するのを手伝ってほしい」と言うと、モデルがこれらの画像を理解し、その微妙なニュアンスを把握し、質問に関連付けて答えを提供します。
「画像を与えるだけで、すごい」というだけでなく、その背後には膨大な数学があり、これらの画像や視覚情報を推論できるレベルに達したことは驚くべきことです。
私の理解では、以前のモデルに画像を読み込むと、基本的にその画像の解釈を得ることができました。しかし今では、質問に関する思考連鎖(チェーン・オブ・ソート)推論を行い、特定の画像理解タスクを処理できるようになっています。これは全体的な推論とタスク指向の考え方がエージェント処理に関連しています。
以前のモデルでは、ファイルの読み取りや検索、情報の整理などのタスクを扱うことが少し難しかったですが、今ではそれらのタスクを引き受けてくれます。私の理解では、画像での推論も同様の進化を遂げているようです。
クリス、この話題について別の観点から質問させてください。オープンモデルとクローズドモデルの競争については、毎月のように一進一退の状況があります。オープンソースモデルが急速に追いついているように見えたかと思えば、クローズドソースモデル企業が何か本当に興味深いものをリリースします。o3とo4-miniをどう評価しますか?クローズドはまだ先を行っているのでしょうか?オープンは追いついているのでしょうか?この競争についてのあなたの見解を聞かせてください。
更新する必要はないと思います。先ほど言ったように、私はo3モデルとo4モデルの大ファンです。実は今、4.1 miniが本当に気に入っています。推論モデルではないにもかかわらず、コーディングタスクや思考連鎖を引き出すのに本当に良いと思います。
クローズドとオープンに話を戻すと、予測をしましょう。この予測にはかなり自信があります。今日は「すごい、これは最高だ」と驚くでしょう。そして1ヶ月以内に、DeepSeekが最新モデルで更新し、o3やo4で見られる推論の進歩のほとんどが、おそらくそのモデルでも同等に見られるようになるでしょう。そしてまた「驚いた、オープンソースが追いついた」となり、このサイクルが続くでしょう。
クローズドモデルから画期的なものが登場してから、オープンソースが追いつくまでの時間には遅れがあります。オープンウェイト(コメント欄が荒れると思いますが、私が言っているのは「オープンソース」ではなく「オープンウェイト」です)コミュニティがクローズドソースプロバイダーを追い越す日が来るのを見てみたいですね。それは大きな変化を意味するでしょう。現在はまだ常に遅れがあります。小さな遅れですが、依然として遅れています。
しかし、新しいo3モデルとGPT-4.1モデルは本当に素晴らしいです。回答は良く、推論は優れていて、パーソナリティは素晴らしい。現時点では本当に気に入っています。
言葉では表現できない何かを持っていますね。OpenAIのチームの立場は厳しいと思います。その優位性のウィンドウはどんどん短くなっています。何かを再リリースして先行しても、オープンウェイトが追いつくまでの時間はごくわずかで、戦略的かつ競争的に厳しい状況です。
でも本当に追いついているのでしょうか?私はオープンウェイトとオープンソースモデルを支持しています。ここで話す以上の多くの理由で、彼らが勝つことを望んでいます。しかし、政府の戦略的競争に関する特別委員会によるDeepSeekについての論文が数日前に出たばかりです。DeepSeekには多くの問題があります。DeepSeekがオープンウェイトの代表例だとすると、それは心配です。
現在、私はコーディングよりも研究に多くの時間を費やしていますが、かなりのコーディングもしています。現在使用しているモデルは主にSonnet(Claude Sonnet)で、研究にはGemini 2.5を使用しています。私にとってより良く機能する可能性のあるものを見つけるための調査作業量は、今のところ地平線上には見えません。
これは常に変化し続ける分野だと思います。企業AIの世界では、クライアントはより複雑なユースケースを求めるようになっています。一つのモデルがすべてに対応するソリューションは役立たないと思います。新しいモデルがある限り、それぞれのモデルには異なるユースケースがあり、それぞれに市場があるでしょう。本番環境に移行するにつれて、どのモデルが優位に立つか見ていきましょう。ここ数ヶ月間はまだ本格的ではありませんでした。今年は完全にエージェント的な環境が実現する年になることを願っています。誰かからそれを聞くのを楽しみにしています。
ヴィヨマの意見に付け加えさせてください。実際にはモデルよりもエコシステムとツールが重要だと思います。以前の議論で「Manus」のようなものについて話しましたが、この場合の計画を誰が行っているのかという点が重要です。計画と推論を行うのは大規模モデルかもしれませんが、それがどのようなツールを使用できるかも重要です。
ジョン、あなたの世界では、コンパイラにアクセスできるでしょうか?Terraformのようなものにアクセスできるでしょうか?優れたCICDパイプラインの構成、優れたTerraformテンプレート、Kubernetesクラスターのベストプラクティスを説明する知識モデルはありますか?モデル自体に存在する必要のない知識のセット全体と、利用可能にする必要のあるツールのセット全体があります。
良いオーケストレーター、良いコンテキストが必要で、それがモデルの重要性の理由です。しかし、あなたの知識リポジトリへのアクセスやツールの良いエコシステムへのアクセスを持たない全知のモデルは、適切なエージェントワークフローほど優れていないでしょう。これが来年の大きな動きになると思います。
モデルの話から離れて、このエコシステムの世界に入りたいと思います。ティムが先ほどTwitterやどこかでの噂について私に尋ねたとき、それはモデルについてではなく、あなたが行う作業についてです。毎週別のモデルが進化して出てきて、このモデルの方が良いとベンチマークが言うという話ではなく、企業空間では、オーケストレーションされたモデルの組み合わせになり、その多くは手元のタスクに非常に焦点を当てたものになるでしょう。
先週取り上げる機会のなかったお知らせがあります。Google Cloud Nextの一連の発表の一部として発表されたものですが、私はこれが非常に興味深い動きだと思うので触れておきたいと思います。その発表の内容は、GoogleがGeminiモデルを企業が自社のデータセンターで実行できるようにするというものです。これは第3四半期から始まります。
これは基本的に、企業が「我々はこれらのモデルをオンプレミスで実行することを許可します」と言っているようなものです。ジョン、これは大きな問題だと思いますか?企業は伝統的に、誰かに自社のインフラストラクチャー上でモデルを実行させることについて非常に警戒心が強かったと思いますが、Googleはここに明らかにメリットがあると考えています。この動きをどう読みますか?
彼らはKubernetesをオンプレミスで実行することに最初に取り組みました。良い動きだと思います。これは彼らがモデルの層をリバースエンジニアリングされることについてあまり心配していないことを示しています。それが危険です。DeepSeekがOpenAIに対してそれを行えたとしても。しかし、私は何年もGoogleの大ファンでした。
Vertexをオンプレミスで実行するための様々な要素を加えると、Geminiモデルは他のものと同じように最前線にあります。彼らはエアギャップの問題を解決しており、企業がGoogleのインフラに完全に移行する理由についての強力な議論を展開しています。
エージェントスペース(現在はWorkspaceと呼ばれています)もあり、Vertexでいくつかのハッカソンを行いました。GoogleのインフラストラクチャーであるGmailなどを使用している場合、非常に強力な作業自動化構造になります。
ジョン、それについて考えていませんでした。クリス、コメントはありますか?これをDeepSeekのようなリバースエンジニアリングの観点からどう考えるべきでしょうか?通常の懸念は「オンプレミスで実行させるとモデルをリバースエンジニアリングされる」ということですが、これは「リバースエンジニアリングはどのみち起こるだろうから、心配する必要はない」という考え方への妥協なのでしょうか?
私のマシンでGeminiを実行できれば、それを逆解析して彼らが何をしているのか、Gemini 1.5とどう違うのかを調べることができるので素晴らしいですね。ぜひお願いします、Google。
オンプレミスの発表は実際に非常に重要だと思います。なぜなら、政府機関や軍事機関など、ワークロードをクラウドで実行できない組織のセットが現実に存在するからです。したがって、セキュリティの観点からオンプレミスでAIワークロードを満たすことができることは非常に必要だと思います。
また、以前レイテンシーについて議論したように、エージェントワークロードに移行するにつれて、AIをデバイスやシステムに近い場所で実行する必要も出てくるでしょう。例えば、ゲーム環境やスタジアム、オンプレミスのカメラなどを持つ環境では、そのデータをクラウドに送らず、できるだけ近くで処理する必要があります。そこには間違いなく十分にサービスを受けていない市場があり、Googleがそこに参入するのは理にかなっていると思います。
重要な違いは、彼らがモデルの重みがリバースエンジニアリングされないという安全性と確実性をどれだけ感じているかです。これらのブラックウェルチップなどの暗号化がどれほど優れているのかわかりませんが、これらのものが一旦公開されると、誰かがどこかでリリースすることになるでしょう。おそらく彼らはそれを受け入れているのでしょう。これは興味深い動きであり、業界が向かう必要のある必要な動きだと思います。Googleはよくやっていると思います。
ただ、これらの非常に大きな組織以外では、Geminiモデルのサイズを考えると、本当にそのためのGPUワークロードを持つでしょうか?小さなモデルでは理解できますが、彼らのフロンティアモデルでは、組織は本当に必要なGPUを持っているでしょうか?持っていたとしても、それを何もせずに回転させておきたいでしょうか?良い動きだと思いますが、時間の経過とともにどう展開されるか興味深いと思います。
そうですね。ヴィヨマ、これは市場規模についてあなたの意見を聞きたい方向に向かっています。Googleがオンプレミスでこれらの巨大なモデルを実行できるという独自の利点を持っているように感じますが、この規模の大きな推論クラスターを実行するための技術的な能力を持つ顧客のセットは何でしょうか?もしかすると、市場は実際には小さなモデルにあるのかもしれませんが、その場合、オープンソースを使用して自分のインフラで実行する方が安くて簡単なのではないでしょうか?Googleが本当に話している市場はどのくらいの大きさなのか疑問があります。クリスが指摘したように、それは政府だけかもしれませんが、それは大きな顧客です。あなたはどう評価しますか?
これは私たちの前の質問に戻ります。Googleは政府、医療、訴訟リスクの高い産業、金融など、AIの適応がやや遅い産業でのポジショニングを図っていると思います。彼らはこれらの業界で主要なリーダーとしての位置づけを試みています。「今、モデルがあります。これを活用できます。少なくともAIの旅に乗り出してください」というメッセージを発信しています。そして、このAI空間の進化に伴って、より小さなモデルが登場し、スペースやGPUの要件を削減するのに役立つでしょう。
しかし、これは一種のキックスターターイベントだと思います。「ここに一つあります。この革命を始めました」というメッセージであり、数ヶ月、というか数週間でクラウドとオンプレミスの間のギャップは大幅に縮小するでしょう。
すでに、どこに行ってもクライアントと会うと、彼らの最大の問題はデータの主権、ガバナンス、AIです。このようなものを導入すると、「これを適応させますか?適応させるなら、10の異なる問題が出てきます」という状況になります。他の誰かがより小さなモデルでそれらの問題を解決しようとするでしょう。
これは今後数ヶ月で進化していくと思います。オープンソースモデルについては、小さなモデルを利用できますが、オンプレミスでなければ、厳しい規制のある業界の大きな市場にとっては役に立ちません。
レイテンシーは大きな問題です。音声統合などを構築しようとしましたが、本当に難しいです。しかし、Googleはスケールについて理解しています。彼らは何年もスケールでGDCを実行し、Kubernetesを実行し、Wizzを買収しました。そこには大規模な製造企業向けの本当の材料があります。トラクターを製造するIPなど、IPが外部に流出することを非常に懸念している企業がたくさんあります。
政府は確かに、トップシークレットのクリアランスが必要ですが、単なるIP、重要なIPだけでも懸念があります。DevOpsの観点から言えば、オープンソースモデルを使うとしても、どのKubernetesを使うのかという問題が出てきます。それらを管理するコストが組織内で小さな産業になります。非常に魅力的な機会に見えます。
次のトピックに移りましょう。ジョン、あなたは今年初めにAll Things OpenでAI評価ツールに関するブログ投稿をしました。過去のエピソードでも触れたことがありますが、正面から取り上げたことはありません。まず基本的な質問ですが、AI評価ツールとは何ですか?なぜそれらが重要なのですか?
私はDevOpsについての本と、自動化されたガバナンス、そして内部監査人がどのように作業するかについて書きました。今日、彼らがシステムを扱う方法は、変更記録を取り、それを出所から追跡することです。新しい世界では、答えがあり、「なぜこの答えを得たのか」という疑問に対応する必要があります。プロンプトの入力と出力、RAGを使用している場合はどのようにチャンキングしたか、情報源はどこからか、そのすべての証拠を示す必要があります。
その証拠の大きな部分は、それを真実でテストしたかどうかです。つまり、1000の質問を投げかけ、パイプラインの何かを変更するたびに、それが93%の正確さで測定され、2%未満の幻覚で測定されることを確認したかどうかです。これらは確率的なシステムであり、100%に達することはないことを知っていますが、新しい監査は、方針を受け入れ、リスクがあることを認め、方針を遵守したという証拠を示すことを要求するでしょう。
評価は、これらのシステムの確率的な出力を測定するための本当に信じられないほどの計算的、定量的、そして質的な実装になります。そしてそれを非常に監査可能な方法で行うことができます。正確さ、評価、比率のための計算を行うシステムがあります。そしてLLMをジャッジとして使用することも大きな部分です。
最後に興味深いのは、評価モデルとして設計された新しいフロンティアモデルです。通常、LLMをジャッジとして使用する場合、評価には推論に使用したものとは別のモデル(例えばGPT-3.5など)を使用します。しかし今、評価用に特別に設計されたモデルが成熟しつつあります。これが記事の短いバージョンです。エンタープライズ向けに本当にワクワクしており、全面的に取り組んでいる企業にとって最も重要な会話の一つだと思います。
ヴィヨマ、顧客からこれに関する同様の要求を見ているか興味があります。機械学習の伝統的なアプローチは「どのように機能するかわからず、ただたくさんのデータを投入すると問題を解決できるようになるので、質問するのをやめてください」というようなものだったと思います。しかし、AIがこれらの問題についてより深刻な懸念を持つ顧客にサービスを提供しようとするにつれて、これらのツールへの市場圧力も高まっているように感じます。実際にクライアントと話している中でそれを感じていますか?
その通りです。過去に行っていた機械学習モデルでも、企業の顧客に「これが構築したソリューションです」と言うと、彼らはソリューションエンジニアやソフトウェア開発者に参加してもらいます。彼らのために何かを構築すれば、彼らはそのシステムを隅々まで知っています。これは最初から傾向としてありました。彼らは何が起きているのか、どのようにモデルを使ったのか、なぜ回帰モデルや分類モデルなどの特定のモデルタイプを使ったのか、どのような異なるメトリクスが使われたのかを知りたがります。
以前は構造化データを扱っていたので、グラウンドトゥルース(真実のデータ)は常に利用可能でした。彼らはそれに関する多くのルールを持っていたため、独自のものを作成しました。最初から、作成されたメトリクスに基づいて様々なルールや規制がありました。
しかしLLMの世界に移行すると、これらすべてを失い始めました。なぜなら人間がこれを行うことはなくなったからです。今や機械に全ての権限が与えられていますが、それがどのように機能するかは誰も知りません。誰かにトランスフォーマーアーキテクチャとは何か、エンコーダーとは何か、デコーダーとは何かを尋ねても、明確な答えは得られないでしょう。
人々はそれらの答えを求めています。これは企業で見ています。顧客と話すたびに「生成された答えが正しいか間違っているかをどうやって知ることができますか?」という質問が出ます。そして今はより多くのことが危険にさらされています。ジョンが言ったように、公共のチャットボットを公開すれば、「素晴らしいチャットボットがあります」と言えます。誰かが世界のどこかの遠隔地で時間をかけてチャットボットをマニピュレートしようとする可能性があります。その例を見てきました。そこで数十億ドルを失う可能性があります。
これらのガードレールがなければ、政府もそれを強化すると思います。なぜなら訴訟リスクの高い産業でこれを使い始めると、「これは我々のルールに従っています」と言われ、民間企業もそれを見て「彼らには素晴らしいルールがある、我々も取り入れよう」と考えるからです。これは長い間続いており、今後も続くと思います。しかし、今ではその必要性が始めた頃よりもはるかに強くなっています。なぜなら誰もが実験を終え、価値の証明を示さなければならないからです。研究にいくら使ったのか、それから何が得られたのか示してください。これは非常に強く粘り強いトレンドになると思います。
私がこれについて感じる問題は、ジョン、おそらくDevOpsの世界からのあなたの分野ですが、私たちは怠け者です。私たちのうち何人がユニットテストを最初から書いているでしょうか?そしてジェネレーティブAIで最初に何をしましたか?「ユニットテストを書くためにAIを使おう、ここに私のコードがあるから、ユニットテストを書いてくれ」というものでした。評価ツールはどうなるでしょうか?私たちは自分で評価を書くでしょうか、それとも「AIよ、評価のセットを作ってくれ」と言うでしょうか?LLMをジャッジとして使う場合も同様です。「自分でこれを考えるのは面倒だから、他の3つか5つのLLMに答えを出してもらおう」というようなものです。
私たちは評価やLLMジャッジなどに過度の信頼を置くリスクがあり、結果的に以前と同じシナリオに陥ることになると思います。私たちは評価を書くべきであり、優れたエンジニアリング実践と同様にガードレールを完全に持つべきだと思います。しかし現実には、今日のテストで見られることが評価にも同様に適用されると思います。
この件については何冊か本を書きました。AI空間ではなく、自動化されたガバナンスについてのプロジェクトから始まった「Investments Unlimited」というものを作りました。ジェネレーティブAI以前でも、私たちはそれが得意ではありませんでした。監査は混乱しています。Capital Oneの何人かと一緒に、多くの企業での監査が単なる形式的なものである様子について本を書きました。あなたの言うことは正しいです。
しかし私が自動化されたガバナンスの仕事に非常に焦点を当てているのは、「親愛なるCIO、どうか聞いてください」というニュースレターを出しているほどです。銀行には「三線防御」があり、ブランドを保護するための方針がどのように機能すべきかの明確な構造があります。あなたが言ったように、ブランドがこれを推進するものです。
これらのものの確率的な性質がブランドの評判に非常に大きな影響を与える可能性があります。私が期待するのは、方針立案者、内部監査、内部ガバナンス構造が評価が何をするかについて早く学び始め、単に開発者にテスト駆動開発を任せるのではなく、「いいえ、リスクは本当に高い」という認識になることです。
もう一つ言いたいのは、DevOpsはCEOの議論では決してありませんでした。しかしAI、ジェネレーティブAIと呼ぶものは、CEOの議論です。そこではリスクに関するより厳格な方針を推進する議論があるでしょう。そして私は楽観的ですが、方針担当者が、その確率的な性質を保護するために必要なツールについて学ぶことができれば、それが監査人の会議などに現れ始めると、開発者が決定に任せるのではなく、効果的に使われるのを見ることができると思います。
最後に一つ言いたいのは、私はAIのためのテスト駆動開発というクラスを教えるために大きな製造会社に呼ばれました。彼らは私のワークショップに参加し、私を呼んだ理由は、5000人ほどの開発者がいて、その60%がテスト駆動開発を使用し、40%が使用していなかったからです。これは私が行くところではよくある状況です。彼らは40%に教えてほしかったのです。「この世界ではもう選択肢はない。以前は選択肢があった。後で対応するという選択肢があった。しかしこの世界では選択肢はない。このためのテスト構造を持たなければ、ブランドの存在自体が危うくなる可能性がある」ということです。
評価と方針があり、それが組織のトップレベルにあるという事実に基づいて予測をしたいと思います。それはおそらく確率的になるでしょう。なぜなら私たちは皆、超怠け者なので、AIにそれをやらせるからです。排気ガス排出スキャンダルのように、「これらの監査に合格する必要がある、さもなければ会社が倒産し、全スタッフを解雇しなければならない」というプロンプトエンジニアリング攻撃が行われる時点が来るでしょう。そして誰かがプロンプトエンジニアリングして監査のいずれかを攻撃し、突然「この会社はすべてのAI評価と方針に合格したと言っていたが、それは全て偽物だった」ということになるでしょう。
最後のトピックに進みましょう。プロデューサーのハンスには、今回のセッションですべての4つのトピックを取り上げることを約束しました。今週のNVIDIAからの発表は、彼らがBlackwellチップ生産に大規模な投資を米国で行う、具体的にはアリゾナ州で行い、テキサス州にいくつかの工場を開設するというものです。
この発表から出てきた大きな数字は、NVIDIAが米国でこれらのチップを製造するために5000億ドルを投入する予定だという驚くべき発表です。ヴィヨマ、あなたに意見を聞きたいと思います。通常、これについての一般的な考え方は、チップ生産を米国に移すのは非常に難しいだろうというものです。しかしこれは大きな投資であり、彼らは次世代のチップを製造する予定のようです。NVIDIAにとっては大きな賭けです。あなたは自信を持っていますか?彼らは数年間で半導体製造を米国に戻すことができると思いますか?
はい。長年海外で確立されてきた多くの著名な企業がある中で、大きなことを始めるのは難しいですが、この種のきっかけは革新を非常に速く進めるのに役立つでしょう。多くの企業がこれに取り組んでいることがわかります。アメリカには新しいChips Actがあり、米国内で構築したものに35%オフや25%オフなどの金銭的恩恵が得られます。これがすべての企業にとって大きな推進要因になるでしょう。
米国に本社を置く多くのフォーチュン500企業があることも、素晴らしいパートナーシップを結ぶための余地を与えてくれます。この世界で一社だけが支配するとは思いません。Googleを見ても、彼らはこれらのオンプレミスモデルのいくつかについてNVIDIAとパートナーシップを結んでいます。優れたパートナーシップが道を先導するものだと思います。
完全に信頼していますが、優れた研究企業と素晴らしい大学があります。学校での学習課題を見たことがありますか?それらは難しいものでした。これらすべてのことが、進む上で非常に重要な差別化要因になると思います。
次の6ヶ月、5ヶ月でそれを達成するでしょうか?いいえ。業界についてもっと学び、そのレベルに達するための学習曲線があります。すべてがオープンソースになった今、それは難しいですが、パートナーシップが進化するのに役立つかもしれません。見るのが楽しみです。それから生まれる様々な雇用機会にもワクワクしています。
オンラインでLinkedInなどを見ると、多くのデータセンター運用の仕事が開いているのがわかります。アメリカ合衆国で起きているこの素晴らしい機会だと思いますが、どこでどれだけ早く起こるかについては答えを持っていません。
クリス、そうですね。これはNVIDIAにとって難しいことになるように思います。部分的には、Blackwellチップは誰もが切望するものだからです。彼らが示している数字を信じるなら、これはAIを行いたいなら必要とするプラットフォームです。多くの企業が「これは米国製のBlackwellチップですか、それとも台湾製のものですか?台湾から来るものの方が保証があります」と言うのを想像できます。そのような動態がNVIDIAがこれを機能させることを難しくすると思いますか?
まず、アメリカ人ではない私に、5000マイル離れた方向にあるチップと別の5000マイル離れた方向にあるチップのどちらを気にするかを尋ねています。それはあなたへの質問です、クリス。もし彼らが、例えばイングランドのスウェルズでチップ製造工場を始めると言ったら、そのときは気にするかもしれません。しかしそれまでは、いいえ。
実際には重要だと思います。特定の地域に知識ベースが集中している場合、それはハミルトン砂漠のようなリスクです。できる最善のことは、そのリスクを複数の場所に分散させることであり、それによってサプライチェーンを確保し、グローバルシナリオ全体に影響を与えることができます。ですからこれは前向きな動きだと思います。
米国にとって素晴らしいことであり、ヴィヨマの指摘通り、米国の雇用にとっても素晴らしいことだと思います。実際には、世界中でより大きな影響を与えると思います。私はすべて肯定的です。しかし、イギリスでもBlackwellチップを見たいものです。そして正直なところ、あなたの質問は何だったか忘れてしまいました、ティム。5000マイルのプロクレイマーズについての話に夢中になっていました。
ジョン、この新しい話題についての最後の考えは?
労働力が問題です。それはすべて労働力に行き着きます。この映画を50年前のトヨタとGMで見ました。ヌミプランをご存知ですか?文化を移動させるのは非常に難しいです。
私はNVIDIAよりもTSMCについて考えています。どれだけの誤ったスタートがあったでしょうか。それはすべて組合であり、私は組合に反対しているわけではありませんが、そのような製造文化を米国に戻すのは難しいと言っているだけです。私はやや悲観的です。
ジョンに同意します。私も考えていたのは、現在の状況に基づいて多くのアップスキリングを行う必要があることです。従業員の多くをそのレベルに到達させるためにアップスキルする必要があります。だから多くの学習が必要です。だからこそ短期的なことは分かりません。短期的なことは分かりませんが、長期的には、多くのリソース、学習リソースがそこに投入されなければなりません。専門家を呼んでこれらの施設全体を訓練し、これらの人々がどのようにパフォーマンスを発揮するかを見る必要があります。誰もパフォーマンスできなければ、規模を縮小するのでしょうか?
しかし、少なくとも政府の援助が多くあることは良いことです。だから、誰もがこれを試す少し多くの余裕を持つでしょう。
注目すべきことはまだまだたくさんあります。いつものように、取り上げる時間よりもニュースストーリーが多いです。クリス、いつも番組に参加してくれてありがとう。そしてジョン、将来的にまた参加してくれることを願っています。番組を楽しんでいただけたなら、Apple Podcasts、Spotify、そしてあらゆるポッドキャストプラットフォームで聴くことができます。来週のミクスチャー・オブ・エキスパートでお会いしましょう。


コメント