本動画は、Google DeepMindでGemini 3の事前学習リードを務めるSebastian Bourjouへの初のポッドキャスト出演インタビューである。Gemini 3が前世代から大幅な性能向上を実現した背景として、アーキテクチャの革新というよりも、多数の改善の積み重ねと大規模チームの協働が鍵であったことが明かされる。無限データ時代から有限データ時代へのパラダイムシフト、Mixture of Expertsアーキテクチャの採用、ネイティブマルチモーダル設計など、Gemini 3の技術的詳細が解説される。また、研究と工学の境界が曖昧になる現代のAI開発において、複雑性への警戒心や研究の統合性が重要であること、さらに事前学習におけるスケーリング則の継続的な有効性が確認される。DeepMindにおける組織構造、評価手法の重要性、そして継続的学習や検索拡張といった今後の研究方向性についても議論が展開される。

Gemini 3の秘密とAI進化の本質
正直に言えば、私たちは自分が思っていた以上に先に進んでいると思います。もはや私たちは単なるモデルを構築しているわけではありません。この時点で、本当にシステムを構築しているのだと思います。起こっているのは、ある種のパラダイムシフトかもしれません。以前は、データが無制限にある状況でスケーリングしていましたが、今はデータが制限された状況へと移行しつつあります。これは実際、研究の多くの部分と問題への取り組み方を変えるものです。
この種の作業が進歩をもたらし続けることに、私は終わりが見えていません。
こんにちは、Matt Turkです。Mattポッドキャストへようこそ。今日のゲストは、Google DeepMindでGemini 3の事前学習リードを務めるSebastian Bourjouさんです。Sebastianは世界トップクラスのAI研究者の一人であり、Metasリストのメンバーでもあります。
今回は特別なエピソードです。なぜなら、これが彼の初めてのポッドキャスト出演だからです。私たちは、Gemini 3がどのように構築されているか、無限データの世界からデータ制限された体制への移行、DeepMindでの研究チームの組織構造、そしてAIの次なる展開について話しました。Sebastianとのこの素晴らしい対話をぜひお楽しみください。
Sebastian、ようこそ。ありがとうございます。
Gemini 3の飛躍的進化の背景
この対話を、Google DeepMindの研究・深層学習担当副社長でGeminiの共同リーダーであるOriol Vinyalsのツイートから始めたいと思いました。Gemini 3がリリースされた際、彼はモデルの秘密が驚くほどシンプルだと述べました。より優れた事前学習とより優れた事後学習です。Gemini 3が以前の最先端モデルから示した飛躍を考えると、これは驚くほど控えめな表現に聞こえます。あなたの視点から見て、本当にそれほどシンプルなのでしょうか。
そうですね、これが大きな秘密だとは思いません。少なくとも私の視点からは、これはごく普通のことに思えます。人々は時々、あるGeminiバージョンから次のバージョンへと移行する際に、大きな変化があり、それが本当に大きな違いを生むという期待を持つことがあります。
私の経験では、他のものより大きな影響を与えるものが1つか2つあるかもしれませんが、実際にはGemini 3を以前の世代よりもはるかに優れたものにしているのは、非常に多くの変更と、非常に大規模なチームからの非常に多くの貢献の集大成なのです。これは恐らく後で繰り返し出てくるテーマだと思いますが、Gemini 3のようなリリースにまとまるのは、本当に大規模なチーム努力なのです。
それは、AIの進歩という観点で、私たちがどこにいるかについて何を教えてくれるのでしょうか。遠くから見ると、いくつかのつまみを回すことで飛躍的な進歩が得られるというのは、今後何を期待できるかという点で何を意味するのでしょうか。
2つのことがあります。1つ目は、このような方法でどれだけの進歩を達成できるかが、依然として注目に値することです。そして、それは本当に減速していません。こうしたつまみは非常に多く、日々、ほぼ毎日といっていいほど、モデルをより良くする改善が見つかっています。それが第1のポイントです。
第2のポイントは、もはや私たちは単なるモデルを構築しているわけではないということです。この時点で、本当にシステムを構築していると思います。人々は時々、私たちがニューラルネットワークアーキテクチャを訓練しているだけだという見方をしますが、実際にはネットワークの周辺にあるシステム全体も、私たちが集団で構築しているものなのです。それが第2の部分です。
知能への道筋とベンチマークの意味
誰もが抱く大きな疑問は、これが実際の知能への進歩という観点で何を意味するのかということです。必ずしもAGI全体の話に入る必要はありません。それが何を意味するかは誰にも分からないので。しかし、このようなモデルの進歩を、このベンチマークやあのベンチマークで成功しようとすることと対比して、実際の知能への道筋として考えるのが正しい方法なのでしょうか。コアモデルが賢くなっているという確信を与えてくれるものは何でしょうか。
ベンチマークは確実に改善し続けています。最前線を見て、ベンチマークがどのように設定されているかを見ると、それらはますます難しくなっています。コンピュータサイエンスのバックグラウンドを持つ私自身にとっても、モデルが答える質問のいくつかは、答えるのにかなりの時間がかかるでしょう。これは1つの見方です。ベンチマークの見方です。そして、テストセットを保持することなどについて非常に注意を払っていますが、それでもこれらに過剰適合するという懸念がよくあります。人々がベンチマキシングと呼ぶものです。しかし、それは1つの側面です。
これらの懸念は十分に根拠があるとは思いませんが、第2の側面があり、それが本当に私に確信を与えてくれるものです。それは、人々が社内でモデルを使って生産性を高めるために費やす時間が、時間とともに増加しているということです。新世代のモデルごとに、モデルが新しいことができるようになり、私たちの研究や日々のエンジニアリング作業で、以前の世代のモデルよりもはるかに私たちを助けてくれることが非常に明確です。
ですから、この側面も、モデルがより能力を持つようになり、実際に非常に有用なことをしているという確信を与えてくれるはずです。
予想を超える進化速度
AI研究者として、これらすべての中心部にこれほど深く入り込んでいる立場から、ズームアウトしたとき、あなたは今の状況に驚いていますか。あなたの視点から見て、私たちは数年前にあなたが思っていたよりもはるかに先を行っているのでしょうか。それとも予定通りでしょうか。あるいは遅れているかもしれませんか。
後知恵で「予定通り」と言うのは簡単だと思います。正直に自分自身に向き合うと、私たちは自分が行けると思っていたところよりも先に進んでいると思います。2019年か2020年にLLMの作業を始めたとき、私たちが行っているすべてのスケールを信じるのは難しいことでしたが、今日モデルができることも同様です。
当時のスケーリング則を見れば、それらは確かにその方向を示していました。そしてそれを深く信じている人もいました。私自身、それが実際に実現し、今日のような状況になることに多くを賭けていたかどうかは分かりません。
それに続く興味深い質問は、同じ進歩を仮定した場合、あるいは過去5年間に見てきたような進歩を仮定した場合、それが私たちをどこに連れて行くかということです。今後数年間に何が起こるかは、非常に非常にクールなものになると思います。
その点について、あなたはどう思いますか。それは、AIが新しい科学的発見を思いつく、AIがノーベル賞を受賞する、といったことを意味するのでしょうか。短期的、つまり2〜3年後には、どこに向かっていると思いますか。
そうですね、それも一部だと思います。科学の側面では、DeepMindは歴史的に多くの作業を行ってきましたし、確実にその方向での作業も多くあります。今後数年間で、いくつかの大きな科学的発見ができると思います。それが一方です。
もう一方では、私の日々の作業、研究と工学の両方においても、これらのモデルをどのように使用してさらなる進歩を遂げられるか、そして私たちが構築しているシステムをより良く理解し、私たち自身の理解と研究をさらに発展させられるかについて、非常に興奮しています。
AI研究の自動化と実用的な活用
業界には、AI研究と工学の自動化についての大きなテーマがあります。これを外挿すると、AI 2027のようなシナリオ、つまり不連続な瞬間があるという方向に向かいます。非常に実用的なレベルで、今日のあなた自身の仕事にAIを使用することは何を意味し、数年後にはそれが何を意味すると思いますか。
自動化というよりも、私たちをより速く前進させ、より高いレベルで研究部分に多くの時間を費やせるようにすることだと思います。言語モデルの研究における日々の作業の多くは、インフラレベルで非常に複雑で大規模なシステムを扱っているということです。ですから、実験の実行、実験の監視、大量のデータの分析、結果の収集に、実際かなりの時間が費やされています。そして興味深い部分は、仮説を形成し、新しい実験を設計することです。
最後の2つの部分は、私たちが非常に関与し続けるものだと思います。最初の部分については、特に来年、よりエージェント的なワークフローがますます可能になることで、そこでの私たちの作業を本当に加速できるはずです。
主要AI研究所の競争と差別化
様々なフロンティアAI研究所は、効果的に同じ方向で作業し、同じことをしているというのが、あなたの感覚でしょうか。
素晴らしいことですが、ある意味困惑させられることとして、私たち全員が業界参加者や観察者として経験しているのは、毎週、隔週、あるいは毎月、別の素晴らしいモデルが登場するという明白な現象です。私たちは完全に甘やかされています。Gemini 3が出たばかりですが、同時に、文字通り私たちがこれを録音する2時間前にGPT-5.2が出ました。あなたの視点からそれをどう理解していますか。また、それはどのように展開すると思いますか。誰かが抜け出すのでしょうか。それとも、業界は実質的に一握りのトップ研究所と、現れつつあるいくつかの新しい研究所で継続するのでしょうか。
まず最初の質問について、異なる研究所が取り組んでいることには確かに類似点があります。基本技術は似ている部分があると思います。アーキテクチャの面で、例えばトランスフォーマーのようなモデルを全員が訓練しているとしたら、私は驚くかもしれません。
しかし、その上には確実に専門化が起こっていると思います。そして、異なる企業によって探索され、活用されている研究の木における異なる枝や分岐があります。例えば、DeepMindは歴史的に、そして今日でも、ビジョンとマルチモーダルの面で実際に非常に強力でした。それは今日も続いており、人々がモデルをどのように使用するかだけでなく、もちろんベンチマークにも表れています。そして、推論のようなことについても、OpenAIが最初のモデルを出しましたが、私たちもその研究の流れを持っていました。類似点はありますが、完全に同じというわけではありません。
2番目の質問については、良い答えを持っているかどうか分かりません。明確なことの1つは、今日Geminiのようなモデルで進歩を遂げるには、非常に大規模なチームと多くのリソースが必要だということです。
ただ、それは今日私たちが行っていることがどんな形であれ最適であることを必ずしも意味しません。そして、何か破壊的な研究が確実に登場し、より小さなチームが実際に主導権を握ることを可能にするかもしれません。
これが、私が実際にGoogleにいることをこれほど楽しんでいる理由の1つでもあります。Googleには、よりエクスプローラティブな研究を行い、その研究の幅が非常に広いという歴史があります。そしてそれは今日も続いています。主にGeminiと並行して行われていますが、私たちは確実にそれを活用し、そうした進歩のいくつかをGeminiに取り入れることができています。
ポストトランスフォーマーアーキテクチャの可能性
DeepMindであれ、業界の他の場所であれ、ポストトランスフォーマーアーキテクチャに半秘密または完全秘密で取り組んでいる他のグループがあり、いつか何かが出てきて、私たち全員が驚くということはあるのでしょうか。業界にそのようなグループはありますか。
信じています。GoogleとDeepMindの中には、モデルアーキテクチャ面で研究を行っているグループが確実にあります。その研究が実を結ぶかどうかは、なかなか言えません。研究ですからね。研究アイデアのごくわずかしか成功しません。
それで、その間、ある企業が他の企業に対して持つコアな優位性は、人々の質ということになります。Googleの場合、私が言及していたOriolのツイートが、Demis Hassabisにリツイート、引用ツイートされて、彼は本当の秘密は研究、工学、インフラの組み合わせだと言っていました。それがGoogleの秘伝のタレなのでしょうか。スタック全体を自分たちで行うという事実が。
それは確かに役立ちます。重要な部分だと思います。研究対工学も興味深いです。時間とともに、その境界はかなり曖昧になってきたと思います。今、これらの非常に大規模なシステムで作業しているので、研究は本当に工学のように見えますし、その逆もまた然りです。これは、DeepMindで過去数年間で本当に進化した考え方だと思います。以前はもう少し伝統的な研究の考え方があったかもしれませんが、今はGeminiを使って、本当に研究工学についてのものになっています。
インフラ部分も非常に重要です。私たちはこれらの超複雑なシステムを構築しているので、信頼性があり、機能し、スケーラブルなインフラを持つことは、研究工学を遅らせないという点で鍵となります。
Gemini 3はTPUで訓練されたのですよね。Nvidiaチップではなく。完全に統合されているわけですね。
Gemini 3の舞台裏
では、Gemini 3について深く掘り下げたいと思います。その前に、あなた自身について少し話しましょう。あなたはGemini 3の事前学習リードですが、それはどういう意味ですか。そして、あなたの背景とストーリーについて話しましょう。
私はGeminiの事前学習リードの1人です。これが何を伴うかというと、異なることの混合です。私の仕事の一部は実際の研究です。つまり、モデルをより良くしようとすることです。しかし最近では、自分で実験を実行することは少なくなり、チームの人々と実験を設計し、結果をレビューするのを手助けしています。それが第1の部分です。
第2の部分は、非常に楽しいものですが、調整と統合のようなものです。この時点で、かなり大規模なチームです。正確に数えるのは少し難しいですが、おそらく150人から200人が事前学習側で日々作業しています。データ、モデル、インフラ、評価などの間で、これらすべての人々の作業を、私たちが一緒に構築できるものに調整することは、実際にはかなり複雑で、かなりの時間がかかります。特に、うまくやるには時間がかかります。
私にとって、これは非常に重要です。なぜなら、実際に全員から進歩を引き出すことが、おそらく1人か2人、あるいは10人の小さなグループだけを前進させるよりも、本当に最大の進歩をもたらすからです。それは短期間なら機能するかもしれませんが、長期間にわたっては、本当に成功してきたのは、多くの人々からの作業を統合できることです。
研究者としての成長の軌跡
あなたの個人的な背景について、私は常に興味があります。どこで育ったのですか。どんな子供や十代だったのですか。このトップAI研究者がどこから来て、どのようにして、なぜあなたが今のあなたになったのかを逆算しようとしています。
私はヨーロッパのあちこちで育ちました。かなり移動しました。実際、オランダで生まれ、7歳のときにスイスに引っ越しました。父はスイス出身で、母はドイツ出身です。ですから、私の学校のほとんどと高校の最初をスイスで、主にフランス語で、一部ドイツ語で過ごしました。そして15歳のときにイタリアに引っ越し、19歳くらいまで高校を終えました。
その時点で、チューリッヒのETHに進学する予定でしたが、ある朝、ランダムな出来事で、何かのランキングでトップの大学を調べただけだと思います。そしてケンブリッジがトップにあるのを見ました。それで、応募してみようと思いました。なぜダメなんですか、と。そして数ヶ月後、合格通知を受け取りました。それでケンブリッジに移ることにしました。そこでコンピュータラボで学部と修士課程を過ごしました。
育つ中で、あなたは数学が強い、コンピュータサイエンス系の子供でしたか。
父は技術的なバックグラウンドを持っています。10歳か11歳のときに父と一緒にプログラミングを始め、学習したことを覚えています。それがずっと好きでした。そして学校では常に数学と科学が得意でした。数学の試験のために本当に勉強する必要は一度もなかったことを覚えていますが、常にかなり良い成績でした。それは確実に大学で変わりましたが。それが私の高校時代の経験でした。
学校から今日のあなたへの道筋は何でしたか。
それもまた、幸運な瞬間だったと言えると思います。修士課程で受けた講義の1つが、DeepMindの研究者でもある人物によるものでした。最後の講義の終わりに、荷物をまとめながら、彼に紹介を頼んでみようと思ったことを覚えています。リスクは何でしょう。断られるかもしれませんが、どうってことありません。それで実際に勇気を出して、彼のところに行って、紹介してくれるか尋ねました。
案の定、彼は「もちろん、CVを送ってくれたら、何ができるか見てみます」と言いました。そしてそれが、DeepMindでの面接を得た経緯です。これは2018年のことでした。大学卒業後、当時はDeepMind、Google DeepMindではなく、ただのDeepMindに研究エンジニアとして入社しました。
最初は何をして、それがGemini 3の事前学習リードの1人になることにどう発展したのですか。
最初は、DeepMindに入社し、DeepMindが強化学習で知られていたので、最初に取り組んだ、あるいは取り組むことにしたプロジェクトは、強化学習側のものでした。具体的には、教師なしネットワークを訓練して、Atari環境でキーポイントを学習し、エージェントにAtariをプレイさせようとしました。これを約6ヶ月間行いました。
おそらく十分ではありませんでした。このシンセティックな側面が好きではなかったという意味で。私は常に、実世界のデータでより多く作業し、実世界への影響を持ちたいと思っていました。一般的に、私は物を作り、機能する物を作ることが好きです。学術的な純粋な研究部分はあまり好きではありません。それが私を表現学習の作業へと駆り立てました。
つまり、異なるタスクを実行するための良い表現を持つニューラルネットワークを作成、訓練することです。そしてここでの面白い逸話は、チームの人々に話すことですが、私が参加した最初の取り組みは「実世界データからの表現学習」と呼ばれていました。当時、このプロジェクトの名前に「実世界データから」を追加する必要がありました。なぜなら、人々はそうでなければ、それがシンセティック環境やシンセティックデータだと想定するからです。それは確実に完全に変わりました。
それが私の最初のプロジェクトでした。具体的にはLLMとトランスフォーマーについて、トランスフォーマーのようなアーキテクチャと、これらの表現を学習するBERTやXLNETのようなモデルを見て、それらの表現を改善し、その側面で研究を行おうとしていました。
それからRetroに取り組みましたね。それについて話していただけますか。
その後、LLMのスケールアップとLLM全般に取り組み始めました。まずGopherでこの作業を始めました。これはDeepMindの最初のLLM論文だったと思います。その時点で、すでに10人か12人くらいのチームでした。その時点で、この研究を自分だけで行うことはできないことが非常に明確でした。そしてこれが本当に、私が事前学習と大規模な事前学習を始めたところであり、研究の好みを発展させた場所でもあります。
最初の高密度トランスフォーマーモデルを訓練しました。2800億パラメータだったと思います。当時は3000億トークンで訓練しました。今日では、当時行っていたようなやり方は絶対にしませんが、素晴らしく、非常に楽しい学習体験でした。その後、2つのプロジェクトが出てきました。1つはChinchillaで、もう1つはRetroです。
Chinchillaでは、モデルサイズをどのようにスケールすべきか、データをどのようにスケールすべきか、特に訓練計算最適の観点から再検討していました。つまり、固定量の訓練計算がある場合、どのように最良のモデルを訓練すべきかという質問です。モデルサイズを増やすべきか、データサイズを増やすべきか。そしてこの領域には、特にOpenAIからの以前の研究がありました。それを再検討し、実際には、モデル側をスケールするよりも、データ側をはるかに迅速にスケールしたいことを発見しました。以前考えられていたよりも。
面白いことに、これは今日の日々の作業でも依然として非常に関連性があります。特に、サービングコストと、訓練後のモデルを使用するのにどれだけ高価かについて多くの影響があるからです。それが一方です。
もう一方の研究ラインはRetroに関するもので、これはアーキテクチャイノベーション側のものです。ここでは、大規模なテキストコーパスから検索する能力をモデルに与えることで、モデルをどのように改善できるかを見ていました。つまり、モデルがすべての知識をパラメータに学習して保存させるのではなく、訓練中だけでなく、推論中にも特定のものを検索する能力をモデルに与えるのです。
研究センスの重要性
研究センスという言葉を使いましたが、これは非常に興味深いと思います。それはどういう意味ですか。どのように定義しますか。そして研究者にとってそれはどれほど重要ですか。
最近では非常に重要で、数値化するのは非常に難しいですが、重要ないくつかのことがあります。最初の1つは、あなたの研究は独立したものではないということです。これは以前に言及したことですが、あなたの研究は他の人全員の研究とうまく機能し、統合されなければなりません。例えば、モデルに何か改善があるとしましょう。しかし、それが他の全員にとってモデルを5%使いにくくするものだとします。これはおそらく良いトレードオフではありません。なぜなら、あなたは他の全員とその研究を遅らせることになり、それが累積的に持続可能な研究の進歩を遅らせるからです。それが第1のことです。
第2のことは、複雑さにアレルギーを持つことです。しかし、複雑さは人々が慣れているものという点でかなり主観的です。それでも、私たちが使用できる複雑さの予算と、物事が悪くなる前に蓄積できる研究リスクの量があります。それを認識し、管理することが非常に重要です。
ですから、多くの場合、研究アイデアの最高のパフォーマンスバージョンを必ずしも使用したくないのです。むしろ、将来さらに多くの進歩ができると考えるので、複雑さが少し低いバージョンのためにパフォーマンスの一部をトレードオフしたいのです。これらが研究センスに関する主な2つのことだと思います。
魅力的ですね。そして恐らく、その一部は、何が機能するかしないかについて直感的な感覚を持つことと関係しているのでしょうね。使用できる計算には限りがあるので。それは公正ですか。
ええ、確実にそれも重要な部分です。それは他の人よりも持っている人もいますし、多くの経験が本当に役立ちます。しかし確実に、私たちは研究側で計算によってボトルネックになっています。もっと多くの計算があれば、もっと早く、もっと多くの進歩を遂げられると思います。
ですから、ある程度、研究の木のどの部分を探索したいかを推測しなければなりません。そしてその中で、正しい最初の実験は何かを推測します。しかし、研究は常に、ほとんどの研究アイデアは失敗するものです。ですから、この方向で十分に行ったかどうかを判断し、他のものに移るべきか、押し続けるべきかを見極める必要があります。
そしてもう1つの興味深いことは、特に深層学習では、ネガティブな結果は何かが機能しないことを意味するのではなく、まだ機能させていないことを意味することが多いということです。それを認識することも非常にトリッキーです。
研究組織の最適化
研究とその研究チームを成功させるための組織化についてこの話題に触れているので、これについてもう少し詳しく見てみましょう。トレードオフについて言及しましたね。恐らく1種類のトレードオフは短期対長期です。それはどのように機能しますか。どのように考えていますか。
これも私が多くの時間を考えていることの一部です。常に、実行すべきクリティカルパスのことや、モデルのこの部分は改善が必要、あるいはモデルのこの部分は最適ではないとわかっていることがあります。ですから、これらの直近のことを修正することにかなり投資しています。
それにはいくつかの理由があります。第1に、これがモデルを良くすることがわかっています。ですから、かなり安全な賭けです。しかし、かなり良く見えない、または完璧に見えないものは、スケールアップするときや、モデルがより強力になったときに問題が発生する傾向があることもわかっています。ですから、実際にこれらに取り組み、修正することに非常に勤勉であることが本当に重要です。それが第1の部分です。
第2の部分は、もう少し探索的な研究です。次のバージョンのGemini、またはその次のバージョンに着地する可能性のあるアイデアで、モデルパフォーマンスにもう少し大きな影響を与えるかもしれませんが、まだ検証されていないものです。
これらのバランスをどう取るかについて、非常に明確な答えはないと思います。周期的な部分もあります。例えばスケールアップを行っているときは、並行して今すぐ修正する必要があるものがないため、少し探索的な研究が多くなることがよくあります。しかし、新しいアーキテクチャや新しいモデルをスケールアップする準備ができる直前は、最後の部分をデリスクしましょうという感じです。非常に実行に焦点を当てています。
研究と製品のバランス
同じ流れで、研究と製品の間の緊張はどのように機能しますか。先ほど議論したように、あなた方は他の研究所との絶え間ない競争の中にいるので、恐らく、より良いスコアを取る必要がある、IMOで勝つ必要がある、というような圧力があるでしょう。非常に実用的で直接的な製品目標対、長期的にモデルを改善するとわかっているものとの対比です。それはどのように機能しますか。同じテーマのバリエーションだと思いますが。
これが、Googleでもそうですが、実際にはそれがほとんどないと思う理由です。なぜなら、すべてのリーダーシップが研究のバックグラウンドを持っており、ある程度特定のベンチマークと特定の目標を強制し、加速できるが、結局のところ、進歩を遂げ、研究を機能させることが本当に重要だということを非常によく認識しているからです。
ですから、私個人は、少なくとも日々の業務で、そのプレッシャーを感じることは決してありません。
DeepMindのチームはどのように組織されていますか。正しく聞いたなら、事前学習として数百人と言及しましたね。事後学習チームのようなものはありますか。アライメントチームのようなものはありますか。皆はどのように協力しているのですか。
非常に高いレベルでは、事前学習チームと事後学習チームがあります。事前学習側には、モデル、データ、インフラで作業する人々がいます。評価も非常に重要です。人々は評価研究の重要性を過小評価することが多いと思いますが、これをうまく行うのは実際にはかなり難しいのです。そして、事後学習チームがあり、もちろん、インフラとサービングで作業する大規模なチームもあります。
Gemini 3のアーキテクチャ詳細
さて、ありがとうございました。少し話題を変えて、約束通り、Gemini 3についてかなり深く掘り下げましょう。Gemini 3の内部、アーキテクチャ、ディープシンキング、データ、スケーリング、そういった良いものすべてについてです。
高いレベルでアーキテクチャから始めましょう。Gemini 3は、献身的なユーザーとして、2.5とは非常に異なるように感じます。その違いを説明する大きなアーキテクチャの決定はありましたか。そして、そのアーキテクチャをどのように説明しますか。
高いレベルでは、前のものと比較してアーキテクチャがそれほど変わったとは思いません。むしろ、以前に言っていたことで、いくつかの異なることが集まって、一緒に大きな大きな改善を与えるということです。
高いレベルでは、Mixture of Expertsアーキテクチャで、トランスフォーマーベースです。その観点から、十分に目を細めれば、その中に元のトランスフォーマー論文の多くの部分を認識できるでしょう。
MOEアーキテクチャとは何か、人々に説明していただけますか。
高いレベルでは、トランスフォーマーには2つのブロックがあります。アテンションブロックがあり、これは異なるトークン間、時間を越えて情報を混合する責任があります。そしてフィードフォワードブロックがあり、これはモデルがこれらの推論を行うためのメモリと計算能力を提供するもので、単一のトークンで動作します。並行して動作します。
元のトランスフォーマーアーキテクチャでは、これは単なるニューラルネットワークの単一の隠れ層です。つまり、入力が隠れ次元に線形変換される高密度計算です。いくつかの活性化関数を適用し、それが再び線形変換されて、高密度ブロックの出力になります。
それが元の論文です。そして、トランスフォーマー以前にもMixture of Expertsに関する多くの研究がありました。ここでのアイデアは、使用する計算量と、それを使用するパラメータの大きさを切り離すことです。そして、計算能力をどのエキスパートに使用したいかを動的にルーティングします。それを結合するのではなく。
ネイティブマルチモーダルの実装
Geminiはネイティブにマルチモーダルです。実際には、モデルがテキスト、画像、またはビデオについて考えるとはどういう意味ですか。
これが意味することは、画像を処理するために訓練された特定のモデルがあるわけではなく、オーディオを処理する別のモデル、テキストを処理する別のモデルがあるわけではないということです。同じモデル、同じニューラルネットワークが、これらすべての異なるモダリティを一緒に処理するのです。
恐らく、これにはコストの側面があるのでしょうね。ネイティブにマルチモーダルであることは、トークンの観点からより高価であることを意味しますか。
非常に良い質問ですね。これには2種類のコストがあります。ここでは利点がコストを大幅に上回っていると言えます。だからこそ、これらのモデルを訓練するのです。
最初のコストは人々にはあまり明らかではないかもしれませんが、この複雑さのコストと、私が話していた研究のビットです。なぜなら、多くのことを行っており、特に異なるモダリティが何らかの形で相互作用するため、これは研究の異なる部分と相互作用し、複雑さのコストがあるからです。ですから、これらのことについて考える時間を費やす必要があります。
第2のコストは、そうです、画像は純粋なテキストよりも入力サイズの点でしばしば大きいです。ですから、実際の計算コストは、ナイーブに行えば高くなります。しかし、もちろん、これらを効率的にする方法についての興味深い研究があります。
スケーリング則の現状
事前学習について話しましょう。あなたが特にカバーする領域なので。高レベルの質問から始めます。もちろん、この会話の冒頭でスケーリング則という用語に言及しました。数分前にもChinchillaについて話しました。
2025年、特に事前学習におけるスケーリング則の死についての議論されたテーマがありました。Gemini 3は、これらすべてが真実ではなく、実際にスケーリング則が継続していることを示す答えなのでしょうか。
そうですね、私にとって、その議論は常に少し奇妙でした。私の経験はそれらと一致しなかったからです。私たちが見てきたのは、スケールは事前学習において特に非常に重要な側面であり、モデルをより良くする方法だということです。
しかし、人々はその側面を過大評価してきたと思います。つまり、それは非常に重要な側面ですが、唯一の側面ではありません。スケールはモデルをより良くするのに役立ちます。そしてスケールについて素晴らしいのは、かなり予測可能にそれを行うことです。それがスケーリング則が教えてくれることです。モデルをスケールするにつれて、モデルは実際にどれだけ良くなるかということです。しかし、これは一部にすぎません。
他の部分はアーキテクチャとデータイノベーションです。これらも事前学習のパフォーマンスにおいて非常に非常に重要な役割を果たしており、最近ではおそらく純粋なスケール以上に重要です。しかし、スケーリングも依然として重要な要素です。
そして、事前学習について具体的に話しているのですよね。なぜなら、今年は事後学習でRLをスケールし、テストタイム計算をスケールし、そういったすべてのことをスケールしたようだからです。事前学習について、スケーリング損失が減速していないだけでなく、データと異なるアーキテクチャによる加速が見られるということを正しく理解していますか。
私が言いたいのは、これらすべてが複合するということです。スケールは1つの軸ですが、このモデルとデータも実際のパフォーマンスをより良くします。そして時々、イノベーション部分がさらにスケーリングする利点を上回り、時々は純粋なスケーリングがモデルをより良くするための正しい答えです。
それが事前学習側です。そしてRLとRLスケーリング側では、私たちは事前学習で見ているのと同じことを多く見ていると思います、あるいは事前学習で見てきました。ここで興味深いのは、事前学習の経験があるので、多くの教訓が適用され、その知識の一部をRLスケーリングにも再適用できることです。
データの課題と合成データの役割
データについて言えば、Gemini 3の事前学習データミックスは何ですか。あなた方はこれについて少し話したモデルカードを一時期出していたと思います。何が入っていましたか。
いくつかの異なるものの混合です。データは最初からマルチモーダルで、多くの異なるソースがこれに入っています。
この全体の議論におけるもう1つの古典的な質問は、私たちはデータを使い果たそうとしているのかということです。ですから、常に、十分な計算がないのかという質問があります。そしてもう1つの質問は、十分なデータがないのかということです。明らかに今年、合成データの使用が増加しています。
あなたの日々の作業で、あるいはおそらく一般的に、合成データはどこで役立ち、どこで役立たないと思いますか。
合成データは興味深いです。使い方には非常に注意しなければなりません。間違った方法で使用するのは非常に簡単だからです。そして、合成データでよくあるのは、強力なモデルを使用して合成データを生成し、その後、より小規模な実験を実行して合成データの効果を検証することです。
しかし、本当に興味深い質問の1つは、将来訓練したいモデルを作るために合成データを実際に生成できるか、そしてそれが実際に合成データを生成したモデルよりも優れているかということです。そのモデルもより良くできるのでしょうか。それについて多くの時間を考え、この方向で研究を行っています。
あなたの質問の他の部分、データを使い果たしているのか。私はそうは思いません。それについても取り組んでいます。しかしそれ以上に、起こっているかもしれないのは、ある種のパラダイムシフトです。以前は、データが望むだけスケールするデータ無制限の体制でスケーリングしていましたが、データ制限された体制へと移行しつつあります。これは実際、研究の多くと問題への取り組み方を変えます。
この良い類推は、LLM以前、多くの人々がImageNetや他のベンチマークで作業しており、非常にデータ制限された体制にありました。ですから、その時代の多くの技術も興味深くなり始めています。
おそらくそれがその1つで、どの程度話せるかわかりませんが、もし話せないなら一般的に話してください。業界全体に推論トレースに基づいてモデルを訓練するという概念があります。基本的に、モデルにその作業、特定の結果に至った経緯を示すことを強制し、それを使って次のモデルを訓練するということです。それはあなたがやっていること、または興味深いと思うこと、あるいは将来の方向性ですか。あなたの視点は何ですか。
残念ながら、詳細についてはコメントできません。
正しい質問をしているとわかります。でも、一般的には、業界の人々はそれに取り組んでいると思いますか。
そう信じています。そしてこれは、あなたが尋ねていた合成データに関する以前の質問にも当てはまります。それに対する私たちのアプローチも似ています。
未来的な会話にこれを持ち込まずに、もう1つの大きな質問とテーマは、モデルがより少ないデータから学習する方法のようです。これは、データ制限された体制について言及していたことだと思います。DeepMindでも一般的でも、有名な類推を使って、子供が学ぶようにモデルが学習できる興味深いアプローチは見られますか。
先ほど言ったことを明確にしておきますが、データ制限された体制で、より少ないデータという意味ではなく、有限量のデータという意味です。ですから、パラダイムシフトは、無限のデータから有限量のデータへというものです。
第2のポイントは、ある意味で、モデルアーキテクチャ研究はまさにあなたが言及したものです。モデルアーキテクチャ側で改善を行うとき、それが通常意味するのは、同じ量のデータを使用してモデルを訓練した場合、より良い結果が得られるということです。しかし同等に、以前のモデルよりも少ないデータで訓練することで、同じ結果を得ることができるということです。
それが第1の側面です。しかし、今日必要とされるデータ量という点では、人間が利用できるものよりも依然として桁違いに多いのは事実です。もちろん、進化のプロセス全体もあり、これらの高レベルの議論は、理解したりフォローしたりするのがかなり難しいと感じます。なぜなら、そのデータ量を今日の事前学習データに変換するために非常に多くの仮定をしなければならないからです。
しかし、少なくとも一次近似では、私たちは人間よりもはるかに多くのデータを使用しているように見えます。
事前学習の今後の方向性
業界全体の事前学習の進歩について、他にどのような方向性に興奮していますか。
1つは、Gemini 1.5で、モデルの長文脈能力において本当に良い飛躍があったと思います。そしてこれは、今日のモデルとエージェントの能力を本当に可能にしていると思います。コードベースがあり、それに多くの作業を行うため、文脈長が本当に増えるというこの作業です。
来年かそこらで、長文脈をより効率的にするだけでなく、モデル自体の文脈長を拡張するために、その側面でさらに多くのイノベーションが起こると思います。ですから、能力の前線では、これは事前学習が特に提供できることが多く、非常に興味深いことだと思います。
関連して、少なくとも私たちにとっては、アテンション側で、最近いくつかの本当に興味深い発見をしました。これが今後数ヶ月間に私たちが行う研究の多くを形作ると思いますし、個人的に非常に興奮しています。
繰り返しになりますが、冒頭で述べたポイントを強調したいのですが、物事が機能する方法は、本当に多くの異なることの集大成なのです。ですから、すでに現れてきている多くの小規模から中規模のことがあり、この問題を修正した、このバグを修正した、これは有望なことを示した興味深い研究だ、というようなことです。そしてこれらすべてのことが結合して、多くの進歩を推進すると思います。
少し前に話したRetroについて考えるのは興味深いです。Retroの共著者であるあなたは、効率性とより小さなモデルでより多くを行うことについてのものでした。そして今、あなたはGemini 3の世界にいます。これは膨大な量のデータと非常に長い文脈ウィンドウでの訓練のようなものです。
より大きなモデル、大きな文脈ウィンドウを持つこのパラダイムが、RAGや検索のようなものの必要性を事実上不要にすると思いますか。すべてがモデルに折り込まれるということです。明らかに企業データの部分はありますが、一般的に。
ここにはいくつか興味深い質問があります。まず第一に、Retroは本当に情報を保存するのではなく、検索することについてでした。必ずしもモデルを小さくすることについてではありません。ですから、知識を保存するのではなく、モデルを使用してより多くの推論を行う方法についてです。事前学習の意味での推論ですが。
ですから、これは今日でも依然として非常に重要な側面です。興味深い部分は、事前学習の反復サイクルが、つい最近まで事後学習よりもはるかに遅かったということです。ですから、事前学習側でこれらの大きな変更を行うことは、リスクとかかる時間の点でかなりコストがかかります。
そして、事後学習中に行えるRAGや検索のようなアプローチがあり、それらではるかに迅速に反復でき、非常に強力なパフォーマンスも得られます。根本的には、これを微分可能なエンドツーエンドの方法で学習することが長期的な答えだと信じています。つまり、事前学習、あるいは将来それがどのように見えるかわかりませんが、訓練の一部として検索することを学び、訓練の大部分として検索を行う方法を学ぶということです。
それがRLスケーリングがそのプロセスを開始するかもしれませんが、アーキテクチャ側でもやるべきことがまだたくさんあると思います。しかし、これは今後数年間で見られることで、すぐにではないと思います。
評価の重要性と課題
私が強調したい1つのことは、人々はモデルアーキテクチャについてよく話しますが、それは確かに事前学習をより良くする1つの部分です。しかし、他の部分もあります。インフラ、データ、そして特に評価は、常に同じように言及されるわけではありません。
評価は特に非常に難しく、事前学習ではさらに難しいと言えます。なぜなら、この2つのギャップを埋める必要があるからです。一方では、私たちが定期的に使用する評価やモデルは、スケールアップしたときよりもはるかに小さく、強力ではありません。
つまり、評価は大規模モデルのパフォーマンスを予測的でなければならず、大規模モデルでも機能し、正しい方向を示す必要があります。その側面で良いプロキシでなければなりません。
そして第2のギャップもあります。事前学習モデルを評価するとき、事後学習のギャップもあります。モデルが使用される方法は、事前学習後に使用されるだけではありません。その後さらに訓練が行われます。ですから、事前学習で使用する評価や事前学習モデルは、その後に何が起こるかの良いプロキシでなければなりません。
ですから、評価で進歩を遂げることは本当に重要で、かなり難しく、また、モデルやデータ側での実際の改善が何であるかを測定できることという点で、私たちが持っている進歩の多くを推進してきました。
評価は社内で構築されていますか。独自の評価セットを持っているのですね。
はい。かなりの程度、そしてますますそうなっています。なぜなら、外部ベンチマークは少しの間使用できますが、非常に迅速に汚染されることがわかったからです。つまり、それらは異なるフォーラムやウェブの異なる部分で複製され始め、それらで訓練すると、漏洩した評価を検出することが本当に難しくなります。
ですから、自分自身を騙し、実際よりも良くやっていると考えることを防ぐ唯一の方法は、実際に保持された評価を作成し、それらを本当に保持し続けることです。
同じ流れで、アライメントは事前学習レベルであなた方が多く考えていることの一部ですか。それとも、それはより事後学習の種類の会話ですか。それとも両方ですか。
大部分は事後学習だと思いますが、事前学習に関連する部分も確実にいくつかあります。ここであまり詳しくは述べられませんが、いくつかの部分は事前学習に関連しており、それについても考えています。
非常に単純なレベルで、私は常に、Geminiの文脈やそれ以外でも、コアデータセットがインターネットである場合、インターネットには多くのひどいものがあるので、アライメント101は、モデルに含めないものがあるということなのかと疑問に思います。
これは興味深い質問で、決定的な答えは持っていないと思いますが、モデルにこれらのひどいことをさせたくありません。ですから、基本的なレベルでは、モデルがそれらのことについて知る必要があります。ですから、それらについて少なくとも少し訓練する必要があります。モデルがそれらのことが何であるかを知り、それらから離れることを知るためです。
そうでなければ、ユーザーが何かひどいことを言及したとき、モデルは何について話しているのかさえわからず、これはひどいことだと言えないかもしれません。
Deep Thinkとエージェント能力
Gemini 3の数日後にリリースされたThinkingモデル、Deep Thinkについて話しましょう。まず、それは異なるモデルですか、それとも同じモデルの一部ですか。どのように考えるべきですか。
あまりコメントできません。
モデルが考えるとき、10秒または20秒、あるいは何らかの時間待つとき、舞台裏で何が起こっているのですか。
はい。これは以前のポッドキャストでもかなり取り上げられていたと思いますが、思考を生成することについてです。ですから、深さやモデル側で計算を行うのではなく、シーケンス長側で計算を行い、モデルにより多く考えさせることです。
ですから、モデルは実際に仮説を形成し、仮説をテストし、仮説を検証するためのツールを呼び出し、検索呼び出しなどを行い始めます。そして最後に、思考プロセスを見てユーザーに明確な答えを提供できるかもしれません。
業界はその訓練された思考のパラダイムを中心に正規化しましたね。
そうですね。
これのエージェント部分とGoogle Agentivityについて少し話していただけますか。何が興味深いと思いますか。人々はそれについて何を知るべきですか。
これは、私が以前に言及していた私自身の作業、特に興味深いと思うことだと思います。私たちが日々行っている作業の多くは、より実行ベースで、実験の監視などです。そして、これは少なくとも私がそれらから最も影響を受けると見ている場所だと思います。
事前学習のトピックに戻すと、知覚とビジョン側はこれにとって非常に重要だと思います。なぜなら、今、モデルにコンピュータ画面と相互作用するよう求めているからです。ですから、画面理解を本当に本当にうまく行えることが非常に重要です。それで、それは少なくとも事前学習側での重要な部分です。
Agentivityには全体的なバイブコーディングの側面があり、本当にバイブで、何が起こるかさえ見えません。尋ねると、同じ質問です。それは事前学習のことですか。それは単なる事後学習のことですか。どのようにしてバイブをモデルに構築しますか。
興味深いですね。おそらく5人の異なる研究者に尋ねれば、5つの異なる答えが得られると思います。大規模モデルフィールという概念もあります。人々はこれを呼びます。特にGPT-4.5が歴史的にこのいくつかを持っていたと推定されます。大規模モデルは異なる感じがするかもしれません。
私は実際にこれらの用語で表現することはしませんが、バイブはこれに帰着すると思います。そして実際、事前学習は今日、おそらく事後学習よりも、モデルがどのように感じられるか、一般的にどのように感じられるかにおいて、より大きな役割を果たしていると思います。
これは一般的にバイブコーディングに関しては、それはおそらくRLスケーリングと事後学習のことで、実際にかなり多くのデータを取得し、それを本当にうまく行うようにモデルを訓練できる場所だと思います。
継続学習とAIの未来
少しズームアウトして、この会話の最後の部分として、物事がどこに向かっているのか一般的に興味があります。今年のNeurIPSで議論された重要なテーマに、継続学習がありました。特に事前学習の観点から、あなたの視点に興味があります。
なぜなら、私たちは数ヶ月か年ごとに、私たちというのはあなたによってですが、非常に大きな新しいベースモデルを訓練するというパラダイムにあるからです。まず第一に、継続学習とは何ですか。そして第二に、継続学習が実現すれば、それは再訓練にどのような影響を与えますか。
継続学習は、新しい知識が発見されるにつれて、モデルを新しい知識で更新することについてだと思います。例えば、明日新しい科学的ブレークスルーがあったとしましょう。昨日訓練したベースモデルは、その事前学習の最初にそれについて実際には知らないでしょう。
まず、過去数年間でこの前線で多くの進歩があったと思います。これは主に事後学習についてで、検索ツールを使用した検索と、検索呼び出しを行うことについてです。そうすれば、その新しい情報にアクセスできます。ある意味で、これは私たちが話したRetroがやっていたことでもあります。データを検索し、知識コーパスを推論部分で外部化しようとすることです。それが第1の部分です。
第2の部分は、事前学習側では特に私が言及していた長文脈についてです。これを行う1つの方法は、ユーザーの文脈を拡張し続けることができれば、モデルはその文脈でますます多くの情報を取得し続けるので、その一部としてこの継続学習の側面を持つことになります。
しかし、もちろん、よりパラダイムシフト的なものがあります。人々が議論しているのは、基本的に世界から来るデータのストリームで継続的に訓練できるように訓練アルゴリズムを変更できるかということです。
継続学習を超えて、今日の現在の研究でホット、興味深い、または興味をそそるものは何だと思いますか。
多くの小さなことがあり、それらが蓄積されています。ですから、それが今私の頭に浮かぶ最初の考えです。そして歴史的に、それが本当に進歩を推進してきました。ですから、それが進歩を推進し続けることに賭けないわけにはいきません。
前に言及したこと、長文脈アーキテクチャと長文脈研究は1つの側面だと思います。事前学習側のアテンションメカニズムについてもです。
そして、無限データから制限されたまたは有限データ体制へのこのパラダイムシフトも、多くのことが変わり、多くの興味深い研究がある何かだと思います。それが事前学習単独側です。
もう一方の側面は、今日非常に興味深いのは、これらのモデルを使用する人々の量が非常に急速に増加しているということです。ですから、事前学習側でも考えなければならないことが増えているのは、モデルを使用し、サービングし、大規模に実際に展開するのにどれだけ高価かということです。そして、事前学習側で特に何ができるか、このモデルがより良い品質を持ち、サービングがより安価で、推論中により少ないリソースを消費できるようにすることです。
若手研究者へのアドバイス
これを聞いている学生やPhD学生にとって、数年後にあなたになりたい場合、どのような問題について考えたり焦点を当てたりすべきだと思いますか。1〜2年先ではなく、数年先のより興味深いものです。
ますます重要になっていることの1つは、研究を行えることですが、物事のシステム側を認識していることです。今、これらのかなり複雑なシステムを構築しているので、TPUから研究まで、スタックがどのように機能するかを理解できることは、ある種のスーパーパワーです。なぜなら、他の人々が必ずしも見ることができなかった異なる層の間のこれらのギャップを見つけることができ、また、研究アイデアの影響をTPUスタックまでずっと推論できるからです。
それをうまく行える人々は、一般的に多くの影響力を持っていると思います。ですから、専門化という点では、純粋なモデルアーキテクチャ研究だけでなく、この研究工学とモデル研究のシステム側面について本当に考えることです。
個人的に、私はこの検索研究に対して依然として多くの興味を持っています。Retroで始めたものです。今まではかなり成熟していなかったと思いますが、状況は変化しています。今後数年間で、そのようなものがGeminiのようなリーディングモデルにとって実際に実行可能になるかもしれないと考えるのは不合理ではないと思います。
それがなぜ成熟していなかったのか、そしてなぜそれが変わるかもしれないのですか。
それは私が言及していた複雑さの側面についてだと思います。また、それがもたらすすべての能力について、事後学習ではるかに迅速に反復できるという事実です。
ですから、私が検索と事後学習データで言っていたことで、はるかにシンプルな方法でモデルに非常に類似した能力を与えることができます。そして、事後学習が成長し、RLスケーリングも成長するにつれて、おそらくそれが事前学習側により向かってまた変化するかもしれません。
今、過剰投資されているAIの領域があると思いますか。意味をなすものと業界が実際に向かい投資しているものとの間に断絶がある場所はありますか。
かなり良くなったと思います。おそらく2年前に見ていたのは、人々が依然として非常に特化したモデルを作成してタスクを解決しようとしていたことです。それらのタスクは、おそらく半年か1年以内に汎用モデルの範囲内にあったかもしれません。
そして、人々はそれにはるかに追いついたと思います。今では、汎用タスク、または極端に特化したモデルを必要としないタスクについては、汎用モデルを使用しようとし、おそらく現在のバージョンではないかもしれませんが、次のバージョンがそれを行える可能性があると信じるようになっています。
それが意味することは、モデルをどのように使用するか、ハーネスなどに関する研究が、ますます重要になってきているということです。また、モデルとこれらのハーネスをより堅牢にし、エラーを犯すことから回復する方法も重要になっています。
その流れで、スタートアップに対するアドバイスや推奨はありますか。創業者の視点から、あるいは彼らを愛するVCの視点から見ると、ベースモデルがますます強力になり、複数のデータセットで訓練されているという感覚があります。
以前は、モデルは会話ができましたが、今では財務作業やキャップテーブルなどができるようになり、スタートアップの可能性の領域を縮小しているように見えます。それについて考えがありますか。
そうですね。おそらく、1年か1年半前にモデルができたことを見て、今日モデルができることを見て、それを外挿してみてください。モデルが改善している領域は、改善し続けると思います。そして、あまり進歩がなかった領域があり、それがより興味深い研究領域かもしれません。
今すぐ頭に浮かぶ具体例はありませんが、それが一般的なアドバイスです。
個人的な展望と締めくくり
あなた個人の旅という点で、次の1〜2年間で何に興奮していますか。
私の日々の業務で本当に好きなことは、多くの人々と働き、多くの研究者から学べることです。ですから、それが私を大きく駆り立てているものです。毎日仕事に来て、本当に本当に優秀な人々と話し、彼らが以前は知らなかったことを教えてくれます。その部分が本当に好きです。
この時点で何度も言ってきたことですが、複合する非常に多くの異なることがあり、改善する余地がある異なることがたくさんあります。私は本当に本当に興味があります。なぜなら、今のところ、その種の作業ラインが進歩を与え続けることに終わりが見えないからです。
ですから、実際にこれを最後まで見届け、これが私たちをどこまで連れて行けるかを見ることは本当に興味深いです。しかし、少なくとも来年かそこらは、これが何らかの形で減速しているのを見ていません。
素晴らしい。それは残すのに素晴らしい場所のように感じます。Sebastian、ポッドキャストに出演していただき、本当にありがとうございました。本当に感謝しています。素晴らしかったです。ありがとうございます。
ありがとうございました。
こんにちは、Matt Turkです。このエピソードのMattポッドキャストを聞いていただきありがとうございます。もし楽しんでいただけたなら、まだ購読していない場合は購読を検討していただくか、このエピソードを視聴または聴いているプラットフォームで肯定的なレビューやコメントを残していただければ非常にありがたいです。
これは私たちがポッドキャストを構築し、素晴らしいゲストを獲得するのに本当に役立ちます。ありがとうございました。次のエピソードでお会いしましょう。


コメント