
13,078 文字
皆さん、こんにちは。とても特別なゲストをお迎えして興奮しています。Google DeepMindのローガン・パトリックさんがここにいて、人々が使っていないけれど使うべきGoogleのGemini AIの側面について解説してくれます。本当の価値がどこにあるのか、彼らの全く新しい画像生成API、新しい推論モデル、Deep Researchなど多くについて話してくれます。GoogleのAIについて学びたいと思っている方にはぴったりの番組です。今日のエピソードに移りましょう。
ローガン、ポッドキャストにお迎えできて本当に嬉しいです。長い間Twitterというかエックス上であなたのフォロワーでした。Googleへの移動についても注目していました。あなたの始まりからではなく、私たちのような人々があなたの旅を追い始めた頃から始めましょう。あなたはオープンAIの初期社員でした。最も変革的な企業の一つです。その後Googleに移られましたが、Googleのペースも加速していると思います。彼らにはいくつか素晴らしい製品があります。オープンAIとGoogle、AIへのアプローチについて、どのような違いを感じていますか?
様々な要素があると思います。人々はGoogleという企業とオープンAIという企業を非常に異なる形で認識しています。オープンAIは非常に異なる製品を提供しています。Googleは多くの領域にわたる多くの製品があり、下流への影響が多くあります。オープンAIの素晴らしい点は、多くの面でクリーンスレートを持っていることです。人々は彼らがやっていることの特定の角度について先入観を形成していないか、開かれた名前空間を持っています。彼らは製品に何でも名前を付けることができ、好きなURLを使うことができます。何も競合するものがないからです。
Googleが本当に恩恵を受けているのは、行われている作業の幅広さです。私たちのチームは現在Google DeepMindの一部ですが、スペクトルの一端にはAlpha Foldやタンパク質折りたたみ、ノーベル賞を受賞する科学があります。もう一方の端には画像生成モデル、気象モデル、Gemini、そしてAIの観点から行われている非常に幅広い様々なことがあります。DeepMindは世界でその深さが実際に起こっている唯一の場所です。他のすべての研究所を見て、彼らが作成しているモデルを見ることができますが、他の研究所で作成されているモデルは、DeepMindが行っていることの一つの柱に過ぎません。
私にとって本当にワクワクすることは、このマルチモーダルで多機能を持つモデルが、人間が望むことをすべて可能にするものになるという考えを信じるなら、それが作成される可能性があるのは、私たちが行っているすべての作業の幅広さのためにDeepMindの中だけであるということです。私たちはこれが実際に起こっているのを見ています。Alpha Foldからの研究の交差が、気象モデルや数学モデルであるAlpha Proofへと流れ、それがどのように消費者や開発者が利用できるメインラインのGeminiモデルに還元されるかということです。
私はそれについて非常に興奮しています。その物語にもっとフォーカスし、DeepMindが持つその優位性にもっと注力することに興奮しています。この技術がなぜそれほど重要なのかという魔法を、本物のルートを行かないと伝えそこなうと感じています。そして、Googleだけが語ることができる本当に真正で興味深いAIストーリーがたくさんあります。しかし、そのメッセージを届けるには、本当に本物の方法でなければなりません。この緊張のさまざまな角度があり、オープンAIはこれらの異なる次元の緊張を持つほどの大きさの会社ではないので、これに対処する必要がないというのが一例です。
Googleの利点の一つは、すべてのツールの幅広さと、Geminiをシームレスに統合できることです。たとえストーリーがなくても、Google Mapsを開いて場所を見たときに、Geminiがその場所の一覧にあり、その場所について何でも質問できるのを見て「うわー、これはすごい」と思いました。「ニューヨークのこの場所に行くとして、午前10時に到着したら、どれくらい列に並ぶことになるでしょうか」といった基本的なことを聞くことができます。今までだと不可能だったか、30のRedditスレッドを読まなければ答えが見つからなかったことが、今では10秒で答えられます。これが、多くの異なる製品を持つ大きなプラットフォームの性質であり、それらの「ワオ」の瞬間にそれを統合できるということです。
ユーザーがそれらの機能を発見することで、ストーリーが語られていくのです。再び幅広い観点からの利点の一つは、DeepMindがGeminiを構築するとき、それはチャットアプリのためだけではないということです。Geminiが実際に統合されている場所を考えると、世界で最も多くのユーザーに触れる最大の製品スイートにまたがっています。そこには非常に異なる一連の制約があり、GeminiはGoogle検索を強化し、YouTubeにも組み込まれています。これらは何十億ものユーザーを持つ製品であり、これらの非常に微妙な特性が非常に重要です。
例えば、検索において非常に優れたモデルであるための要件が、開発者の観点からも素晴らしいものになるという多くの素晴らしい例を見てきました。最近の1.5シリーズのモデルでいくつか見られました。検索チームが何かを必要としていて、それが偶然、開発者も望んでいる能力のトレードオフとして優れていたのです。これらのチームからの内部関与のレベルがあるのは素晴らしいことです。
今日、一般的なAIの消費者、つまり毎日詳細に踏み込んでいない人が、広く過小評価されているか、使われていないと思うGoogle Geminiの実際のAIユースケースにはどのようなものがありますか?
12月にDeep Researchを発表しました。世界初のDeep Researchのイテレーションで、もしまだ使ったことがない人は、基本的に研究アシスタントです。あなたのクエリを入力すると、モデルが検索を開始し、Deep Researchの文脈では何千もの異なるウェブサイトを閲覧して質問に答えます。モデルが閲覧したウェブサイトの数を表示するという単純なプロダクト工夫が、私にとってこの製品体験を機能させるものです。「私の人生で行ったどんな研究でも、10以上のウェブサイトを見たことはない。モデルが1000のウェブサイトを見たという事実は、モデルに大きな信頼を与えてくれる」と思います。
これはAI製品の最大の課題の一つです。多くの場合、AI製品は価値を提供するために基本的にユーザーにすべての事前作業を求めています。Deep Researchは、モデルとテクノロジーがあなたのために重い仕事をしてくれるという素晴らしい例だと思います。ユーザーとしては、ばかげた質問や真面目な質問をするだけで、モデルがそれを見つけてくれます。私はDeep Researchが大好きで、非常に興味深いユースケースがたくさんあり、今日ではまだ十分に活用されていません。そして現在、私たちの推論モデルのラインによって強化されています。
皆さん、ローガンとの会話を楽しんでいて、これがGoogleのGeminiについて考えさせられ、AIゲームをレベルアップする方法を考えているなら、私たちはあなたをカバーしています。Geminiとノートブックラボを使って、あなたの分野のエキスパートになる方法を示す完全ガイドを公開しました。研究時間を半分に削減しながら、コンテンツと戦略を実際に向上させる方法についてお話します。すぐに実装できる戦略を提供しますので、すぐに研究ワークフローに取り入れることができます。今すぐコードをスキャンするか、下記の説明欄からリンクを取得してください。それでは番組に戻りましょう。
間違いなく、もし誰もAIをランダムな質問以外にあまり使っていないなら、使うべき一番のものはDeep Researchです。Deep Researchは信じられないほど強力で、GoogleのGeminiの素晴らしい点は、Deep Researchが無料機能であることです。私の知る限り、Deep Researchには厳しい制限はまだありません。最も大きな点は、推論モデルを導入したことで、ソースや追加質問を思考する能力が、数ヶ月前に比べてはるかに優れたものになったことです。
以前はドロップダウンから使いたいモデルを選ぶ必要がありましたが、今はクリックするだけです。Deep Researchはいつ使うのですか?Flash(これも非常に優れたモデルになりました)とDeep Researchを区別する完璧な方法は何ですか?推論をDeep Researchに統合したと言及されましたが、ユーザーにとってこれが何を意味するのか説明していただけますか?
基本的に地形は次のようになります。日常的な質問、つまり単純な質問なら、2.0 Flashを使用してください。非常に速く、ほぼ瞬時に答えが得られます。真に表面的でないものをコンパイルする必要がある場合、例えばカブス(私はシカゴを拠点にしているので、カブスを例に使っています。実はカブスのファンでもないのですが、なぜかカブスの例を使っています)の試合の結果を知りたいだけなら、Deep Researchは必要ありません。
しかし、例えばカブスがフィールドの後ろにアイボリーウォールを建設した理由や、使用した技術、関わった人々、必要だった許可などの深さを理解しようとしているなら、その質問の深さのレベルに対応できる製品はDeep Research以外にありません。推論モデルがこれの鍵となる要素です。
最初に12月にDeep ResearchをGemini 1.5 Proで発表したとき、それは非常に強力でしたが、1.5 Proで使用されている多くの技術は実際に推論モデルが行うことを試みていました。質問のさまざまな部分を考え抜く内部対話を持ち、初めに出した答えを振り返り、さまざまなバージョンを試すことができるのです。
私たちが人間としてこのプロセスをどのように考えるかを考えると、デフォルトではAIモデルはできるだけ早く答えを出すようになっていますが、思考モデルは「できるだけ早く答えを出すのではなく、このプロセスを繰り返し試して、ユーザーが求めている可能性のある幅と深さをカバーしていることを確認する」ように訓練されています。それは実質的に異なる結果につながります。
以前にAIで何かを試して「ああ、モデルは単に愚かで、これらのことを行う能力を持っていない」と思った人は、新世代の推論モデルを試してみてください。以前には不可能だったユースケースがたくさんあり、突然今日はすべてがうまく機能します。
ほとんどの人はDeep Researchが何ができるかを理解していないと確信しています。例えば、庭の木を取り除きたかったとき、許可プロセスがわからなかったので、何ができるか何ができないか、規則は何かを全て教えてくれました。私は文字通り「木を取り除きたい」と言って住所を伝えただけで、他のすべてをやってくれました。
人々はそのようなことができるとは思わないでしょう。建設プロジェクト全体を見積もる必要があったとき、「誰かがこの見積もりをくれたけど、Deep Researchは何と言うだろう」と考え、複雑な文書を読み解いて物事をシンプルに枠組みする能力が信じられないほど詳細で優れていました。
これが製品のバージョン0であることを考えると驚くべきことです。これはDeep Researchができる可能性のある最も基本的なバージョンであり、今日は基本的に検索を使用しているだけです。そして実際、このポッドキャストが公開される頃には、DeepリサーチとノートブックLMからの音声概要を組み合わせる機能も展開されていると思います。そうすると、Deep Researchの体験を得た後、ボタンを一つクリックするだけで全体を音声概要に変換でき、あなたがどの都市にいるかに関わらず、許可プロセスについてのポッドキャストが聴けます。そしてそのポッドキャストに質問をしたり、途中で割り込んで「ここで言っていることが理解できません」と言うこともできます。
この全体的な体験と人間がこの種の情報を得る方法が変化していると思います。これは良いことだと思います。自分自身の場合を考えると、正直言ってそれをやろうとはしなかったでしょう。あるいは、「この調査は退屈で興味がないから自分ではやらない、だから誰かに法外な価格を払うことになる」と思い、彼らは裏庭から木を取り除くのに2万ドルといった馬鹿げた金額を請求するでしょう。
しかし価格だけの問題ではありません。時間の問題でもあります。同じ結果に到達するのに何週間もかかっていたでしょう。人生でより多くのことを達成できるようになり、人間は自分の進歩の速さを実感していないと思います。時間や金銭的な制約でできなかったことが今はできるようになり、しかも非常に早くできるという組み合わせなのです。
ちょっと見逃したくないものの一つは、あなたが言及した私のお気に入りのDeep Researchワークフローです。私たちはその全体の動画を作りました。Deep ResearchからノートブックLMに送り、それを音声に変換してポッドキャストを作成し、ポッドキャストに質問するというものです。これが実際にコールオプションについて学んでいる方法です(コールオプションを始めるには最悪のタイミングかもしれませんが、それは別の話です)。
しかし「統合される」と言うとき、GoogleのGeminiに行けばいいということですか?LMノートブックをGeminiに統合するということでしょうか、それともDeep Researchは別々に存在し続けるのでしょうか?どのように統合されるのですか?
今日のローンチについては、Geminiアプリ内でDeep Researchクエリを行うと、Deep Researchプロセスが完了したときに、Deep Researchを音声概要に変換するオプションが表示されます。
それは素晴らしいですね。
直接Deep Researchの成果物を取ってノートブックLMに直接行く方法もあると思います。機能のサブセットだからです。例えば、割り込み機能はこれには含まれておらず、単発版です。ノートブックLMの完全な体験がほしい場合は、ノートブックLMに戻る必要がありますが、この単発版の概要を作成できるのは素晴らしいことです。
ユーザーにノートブックLMの使用方法を少し教えてください。それは実際にこの番組のお気に入りのツールですが、十分な人がそのツールを知っているとは思えませんし、十分に使われていると思いません。
ノートブックLMを試したことがない人のために、知識アシスタント、学習アシスタント、または家庭教師として考えることができます。または正直なところ、コンテンツに命を吹き込む方法としても考えられます。Google Labsチームを率いるジョシュ・ウッドワードは「コンテンツの無限の再利用」というアイデアを持っていて、ノートブックLMはその素晴らしい例だと思います。
例えば、掃除機のセットアップマニュアルのような本当に退屈なものがあって、何らかの理由であなたがそのマニュアルを実際に読む10人のうちの1人だとします。読まなければならないけれど、非常に退屈で全部読みたくありません。そのPDF版の150ページのマニュアル(製品のさまざまなガジェットやパーツについて書かれている)をノートブックLMに入れることができます。そして素早く要約を生成したり、学習ガイドを作ったり、アップロードしているコンテンツに関する会話を録音レベルで行ったりできます。
今では、会話の途中で割り込んで「これは実際にとても退屈だから、もう少し面白くしてほしい」とか「あなたが言っていた点を理解していないので、これを再説明してもらえますか」と言うような機能があります。私が一緒に働く人々によく見られる最も一般的なフローの一つは、多くの仕事のドキュメントをノートブックLMに入れ、音声概要を作成し、それを聴くというものです。
これはまさにあなたが言ったとおりで、私がここで運営しているクロスファンクショナルポッドの一つに特化した戦略的知識アシスタントです。できることの一つは、すべての文書を追加することです。その月やその週に作成されたすべての会議や書類を追加して、犬の散歩に出かけているときに聴いたり、今では会話型の方法でポッドキャストと直接話しかけたり質問したりすることができます。オフィスの外にいるとき、運転しているとき、歩いているときに知識を持ち歩いて実際に会話するクールな方法です。
私はすべてのプロジェクトに関する知識アシスタントを訓練しており、いつでも質問することができます。各プロジェクトにプロジェクトアシスタント、エグゼクティブアシスタントがいるようなものです。そして言ったように、嘘をついていないのです。例えば、Deep Researchにコールオプションについて教えてもらったり、過小評価されている5つのコールオプションとその理由について教えてもらったりして、第三者のソースを使用して仮説を立てました。「最も信頼できる第三者のソースを使ってその仮説を立てる」と言い、ポッドキャストをロードしたときにこのインタラクティブモードで対話し、続けて15〜20分続いた会話をしました。メタが良いコールオプションである理由について予測していましたが、それは4週間前に行われ、実際にかなり正確だったようです。キップはおそらくその取引をしたので、かなり強力でした。
ここで出てきているスレッドの一つは、GoogleのAI製品のスイートが人間の学習に最適だと思うという点です。私は、誰も話していないお気に入りのGoogleツールの一つを取り上げようとしています。DeepリサーチとノートブックLMについて話しましたが、「Learn About」も大好きです。これは基本的に、視聴者の方々がご覧になっているように、「一から手作りパスタを作る方法」のように何かについて学びたいと決めることができるものです。
Learn Aboutの素晴らしい点は、視点を得るためにDeep Researchがあるトピックを深く掘り下げ、その後ノートブックLMで追加質問ができるところです。これははるかにより構造化された学習プロセスとコースのようであり、この素晴らしい構成可能なウェブ体験を作り出し、それを分解して異なるコンポーネントに飛び込むことができます。基本的に「この事について何も知らないし、何を尋ねればいいのかさえわからない」という空のボックスの問題の多くを解決します。パスタ作りのさまざまな側面について多くのプロンプトを提供してくれます。私はパスタの作り方を知っていますが、もし沸騰したお湯にパスタを加える方法を知らなかったら、これは非常に役立ちます。
Deep Research、ノートブックLM、GoogleのLearn Aboutを見れば、人々の学習を助けるマスタークラスである3つのツールがあります。本当の魔法とその弓は、それらをすべてどのように一緒に持ってきて、ユーザーの意図を理解し、適切な製品を提供するかという挑戦的な部分です。
表面的には私が言った文は単純に聞こえるかもしれませんが、実際に見てみると、これらは10年の工学と製品の問題です。これらは些細なことではありません。特に、ユーザーコンテキストの問題とのバランスをとる世界では、AIモデルと常に話すとき、新しいAIモデルと話すたびに、あなたが誰であるかのコンテキストがなく、あなたが以前に何をしたかを知りません。これは実際にGeminiアプリに導入されたばかりのものの一つで、Google検索履歴を使用してモデルの応答をパーソナライズする機能です。モデルは非常に知的に「このユーザーが以前何をしたか、何に興味を持っているか、それをどのように使って、ユーザーに適切なものを提供するためにモデルをプライムできるか」を言うことができます。
そのレベルのパーソナライゼーションにより、適切なものを引き出すことができると思います。例えばキップにとっては、キップが別の製品でたくさんのことをしてきたことを知っているので、この「Learn About」の体験を提供することができます。コールオプションを検索したり、そのような情報を引き出したりすることもできます。さまざまなユースケースのスペクトル全体があり、パーソナライズされたコンテキストを持つことは、適切な製品の表面や適切な製品体験を適切なユーザーペルソナの前に持ってくることができることを意味します。これは今日のソフトウェア2.0製品スイートでは起こらないことだと思います。ソフトウェアは静的で、多くの点であなたのために事前に定義されています。
あなたが基本的に言っていることは、ある時点でこの種のドロップダウンに行く代わりに(もう一度表示すると)、一つのアシスタントと話すとバックグラウンドでアシスタントが基本的に意図を解読し、その意図を満たすと思われるどのモデルにもアシスタントが渡してくれるということですね。
私たちのゴートゥーマーケット(GoToマーケット)にアシスタンスを実装しようとする場合でも、それははるかに単純なことですが、例えば私たちにはチャットを通じて販売を支援する販売アシスタントがあり、多くのサポートチケットを処理するサポートアシスタントがあります。私たちは実際にアップセルアシスタントを作成して、顧客を異なる階層にアップグレードし、それらの異なる階層を販売する必要があります。私たちが持っているのは、これらの個々のアシスタントですが、私たちが意図を解読する方法は、ゴートゥーマーケットのどこにいるかによって、おそらくこれが適切なアシスタントだと言うようなものです。しかし、私たちでさえ、いつかマルチボットオーケストレーションが必要です。そこでは一つのアシスタントがいて、アシスタントが「あなたは初めて製品を購入しようとしている」とか「サポートの質問がある」とか「既存顧客でアップグレードする必要がある」と言うことができます。これは非常に複雑です。
Googleのような場合、意図が世界の中の任意の一つの可能性のあるものであるとき、その意図をどうやって解読するのか想像もつきません。しかし、GoogleとのAI体験について考えると、あなたがたはたくさんの素晴らしい製品を持っていますが、それらは別々のものです。私たちはノートブックLMに飛び込み、キップは学習製品に飛び込み、これらすべての異なるAIモデルにドロップダウンから選択してジャンプしました。Googleの計画は、それらすべてをいつか一緒にまとめて、知識労働者として一つのAIインターフェース、消費者として一つのAIインターフェースを持つことなのでしょうか?
これは、多くの製品サービスを持つ会社としてのGoogle、または製品としてのGoogleが直面する課題の一つに戻ります。Geminiアプリがこれらの体験の多くを得るための統一された場所になりつつあると思います。キップが示していた「Learn About」はGoogleの実験の一つですが、これらの体験がますますGeminiアプリに見出されていると思います。その傾向が続き、Geminiアプリがこれらの体験の多くを得るための単一の場所になることを願っています。
しかし、本当に異なるユーザージャーニーと異なるものがあります。私が毎日使っている4〜5つの異なる製品を考えると、それらの製品には異なるユーザーのための異なるジャーニーがあります。それらは異なる製品であり続けると思います。AIスタジオについては話しませんでしたが、それも別の一つです。実際、それは今日人々がネイティブな画像生成機能にアクセスする方法でもあります。将来的にも、私たちはまだAIスタジオを持ち続けると思います。なぜなら、AIスタジオで関心を持つユーザーペルソナは、これらのモデルを探索し何かを構築したいと考える開発者であり、それは多くの場合、日常的にアシスタントとしてGeminiアプリを使用しようとするGeminiアプリのユーザーのメイン体験とは非常に異なるからです。日常的なアクティブユーザー製品対AIスタジオは、Geminiに興味のある開発者世界へのポータルとして意図されています。
おそらくキップがここで最新の画像リリースについて話していると思います。AIがどこにあって、私たちが少し間違っていたかもしれないところを考えると、今日のビデオはもっと進んでいると思っていました。つまり、AIがテキストからビデオに変換する能力は、今日でもかなり不格好な場合が多く、本番用途には準備ができていません。もう一つは画像、テキストから画像への変換で、最初のイテレーションはすべて素晴らしいツールだと感じましたが、画像が人々にとって本当に役立つためには、その一部として優れた編集ツールが必要でした。Googleの最新リリースは、キップと私が先週遊んでいたものですが、本当に素晴らしいと思います。このモデルが何であるか、そしてなぜそれが近くで追跡していない人々にとってそんなに優れているのかについて、文脈を教えていただけますか?
私たちは12月にGemini 2.0を発表し、これらの機能を実際に紹介しました。そして初期のフィードバックを得るために、少数の信頼されたテスターにロールアウトしました。先週、すべての開発者にGeminiのネイティブ画像生成を使用する能力をロールアウトしました。実際に多くの関心を集めているのは、ネイティブ画像編集機能だと思います。モデルがネイティブにマルチモーダルであるため、画像を渡して「この画像を更新して」と言うことができます。画面上の例では、これらのクロワッサンに小さなチョコレートの糸を加えたり、イチゴの糸を加えたりすることができます。
白黒画像を取って、モデルにカラー化するよう依頼する本当にクールな例をたくさん見ました。それらを復元することができます。2つの画像を取って融合することもできます。ホットドッグなどをたくさん投稿して、それらをこのコメディックな画像に融合する面白い例を見ました。本当に役立つものから本当に馬鹿げたものまで、様々な異なるランダムなことがたくさんあります。
現在、人々の注目を集めているのは、ネイティブ画像生成と画像編集の前にこのワークフローをどのように行わなければならなかったかを考えると、それは難しいということです。プロのツールで何であれそれを行うことができる人の数は非常に限られています。非常に単純なテキストプロンプトでそれを行うことができます。今や動的に編集された画像を作成する人々の機会空間は、基本的に地球上のすべての人間がそれを行うことができるようになりました。
これは私の心を吹き飛ばし続けているものです。能力を得ると、AIが多くの異なるドメインで可能にしているのは、少数の人だけができることから、一晩で誰もができることになるということです。実際、コーディングも画像生成の前にこのような「開発者だけが作成する」から「地球上のすべての人間がコードを成果物として作成することができ、基本的に彼らが探しているものを得る」ことができるようになりました。画像編集についても同じです。以前は、これらのことを行うためにはこれらのツールの一つを非常に上手に使う必要がありました。今では地球上のすべての人間がこれをすることができ、それは一晩で変わりました。考えるとこれは本当に奇妙な体験です。
これは一般的にAIの夢、あるいはAIの変革的な使命だと思います。創造性を一晩で解き放ち、人々が創造性を発揮できるようにし、ツールを学ぶ必要があるという制約がなくなります。これは創造についての怠惰な考え方に聞こえるかもしれませんが、そうは思いません。なぜなら、創造の部分が重要であり、ツールを学ぶことがその部分を妨げるべきではないからです。あなたのような創造物を作る能力の一部です。
この視覚的なストーリーについて、この製品が何であるかを締めくくってもらえますか?YouTube上やRSS上でフォローしている人々のために、これらはすべてAIスタジオで利用可能であり、実際にそれで遊ぶべきです。なぜなら、そこには素晴らしいツールがたくさんあるからです。
AIスタジオは、再び開発者向けのサービスであり、モデルを命を吹き込む方法でもたらすことを意図しています。究極的には、それらでビルドするようにあなたを導きたいと考えています。ここで私たちが見ている例は、開発者自身が行って構築できる製品の想像力をキャプチャしようとしています。しかし、基本的にAIスタジオは日常のアシスタント製品として意図されていません。モデルの上の非常に薄い表面です。
コアのAIスタジオ体験をAPIで得られる体験と同じに保つために、多くの意見のある決定をしています。開発者自身がやれないような華やかな機能はたくさん持っていません。これは製品として制限的です。「AIスタジオにDeep Researchがないのはなぜですか?それが欲しい」と人々はいつも言いますが、それは開発者が似たようなDeep Researchの体験をAPIを使って構築できるようなものだからです。しかし、それは今日開発者には利用できないので、AIスタジオにはその体験を置きたくないのです。
もし何かを構築したい人なら、Gemini APIキーを取得し、モデルの最新機能をテストすることはすべてAIスタジオで行われます。私たちのチームはGoogle DeepMind内にあり、モデルチームの隣に物理的に座っているので、私たちの製品は最新のGeminiモデルを外部化するための高速パスであることが多いです。これは多くの楽しみであり、最先端にいて、ネイティブ画像生成に対する興奮を見るのは素晴らしいことです。チャットGPTがテキストに対してそうだったように、これは画像に対して同様だと感じます。望む方法で画像をシャープかつ簡潔に得ることができるのは、これが実際に初めてです。
ローガン、これは素晴らしかったです。このようなAIの旅の一部であることがどのようなものであるかについて深く掘り下げてくれたことに感謝します。あなたは最も変革的な2つの企業と一緒に働いています、または働いてきました。また、この番組の後すぐに人々がどのようにGoogleツールを使い始めることができるかについても深く掘り下げてくれました。
これは本当に楽しかったです。お招きいただきありがとうございます。コールオプションがうまくいくことを願っています。数ヶ月後にまた一緒にいることでしょう。AIが本当に優れているかどうかのリトマス試験は、コールオプションでお金を稼いでいるかどうかです!ありがとうございました、ローガン。これは素晴らしかったです。時間をいただきありがとうございます。
このデータは毎回間違っています。HubSpotをご存知ですか?HubSpotはCRMプラットフォームで、すべてが完全に統合されています。クライアントの全履歴、通話、サポートチケット、電子メールを見ることができます。そして3日前のタスクも完全に見逃していました。HubSpot、より良く成長しましょう。


コメント