
5,537 文字

皆さん、Googleが Cloud Next イベントで発表を行い、多くの新機能を紹介し、2025年に向けた計画をある程度説明しました。今回はGoogle Cloud Nextで話された主なポイントをご紹介し、Googleの新機能について理解を深めていきたいと思います。例えば、インテリジェントエージェントが今後の私たちの生活に確実に組み込まれていくことがわかります。2025年はほんの始まりに過ぎず、これからはインテリジェントエージェントを理解することが不可欠です。これは皆さんが知っておくべきことで、未来のツールとなります。
かつては世界最高のツールといえば、ハンマーや鋸、あるいは車を持つことでした。しかし今、最高のツールはエージェントがどのように機能するかを理解し、それを活用する方法を知ることです。さあ、一緒に何が起きているのか見ていきましょう。
いつものように、いいねをくれた皆さん、チャンネル登録してくれた皆さんに感謝します。特にこの人工知能チャンネルを支援してくれているメンバーの皆さんに特別な感謝を申し上げます。メンバーはインテリジェントエージェントの独占動画や先行公開動画にアクセスできることを忘れないでください。
今日の動画は、YouTubeでライブ配信されたGoogle Cloud Next 2025のプレゼンテーションについてです。Opening Keynoteでは、Googleが多くの発表を一度にまとめて行いました。このイベントは1時間ありますが、そのうちの1時間がインテリジェントエージェントだけに費やされていると言えます。つまり、コンテンツの50%以上がエージェントに関するものです。私たちの日常生活に最も関連する主なポイントを見ていきますが、完全な動画を視聴したい方は、リンクが説明欄にあります。
まず、Googleのツールそのものを使ってGoogleの新機能について話すことから始めましょう。このYouTube動画のURLを取得し、LMノートブックに貼り付けると、ノートブックがまとめを作成してくれました。そして、私はマインドマップの作成を依頼しました。これはコメント欄でいただいた最高のアドバイスです。YouTubeの動画をLMノートブックに入れてマインドマップの作成を依頼するのです。こうして生成されたマインドマップを見ると、Googleのイベントが9つのトピックに分解されています。Googleが話している内容がいかに複雑かがわかります。これらのトピックを展開すると、そのコンテンツ量は膨大になります。
簡単に言うと、Googleはハードウェア、研究、AIモデル、ソフトウェアの4つの層で作業しています。そしてこのソフトウェア層の上に、新たにエージェント層を作成しています。簡略化のために、研究とAIモデルを統合して5層から4層に減らしています。これらすべてのポイントの中で、エージェントの部分は単純ですが最も重要です。
Sundar Pichaiの講演の冒頭では、Googleのプライベートネットワークインフラが世界中に拡大したことが強調されました。これはつまり、Googleのサービスを利用している企業があれば、世界のどこからでもアクセスできるということです。これは非常に興味深いことです。一民間企業がグローバルなインフラストラクチャに到達するとはどういうことかを考えてみてください。
この発表のもう一つの特徴は、GoogleがここでSMB(中小企業)向けではなく、一般の人々向けでもないことです。彼らは大企業向け、企業家向け、大きな考えを持つ人々向け、数百万の顧客を持ち、多くのユーザーがアクセスする大規模なプロダクトを扱う人々向けのソリューションを提示しています。
そのため、Googleは「Cloud One」と呼ばれるグローバルレベルのプライベートネットワークを開発しました。2025年の投資計画は750億ドルで、これはデータセンターやインフラが世界中に展開されることを意味します。
Pichaiはまた、Gemini 2.5 ProがAI Studio、Vertex AI、Gemini Appで全ユーザーに利用可能になったことを発表しました。AI Studioは開発者向けの実験プラットフォームで、Vertex AIは開発者がコードを書いて実装するレベル、Gemini Appは一般ユーザーがGoogleのAIと対話するためのものです。Pro版はより高価で処理能力が高いため、より速い無料版のGemini 2.5 Flashが近日中に提供される予定であることも発表されました。
ハードウェアレベルでの最も重要な発表は、Googleが「Ironwood」と呼ばれる新しいTPU(Tensor Processing Unit)を開発したことです。これはGoogleが開発したNVIDIAの競合製品で、2023年の最新ハードウェアの4エクサフロップスから42.53エクサフロップスへと性能が向上し、2018年と比較して3600倍の進歩を遂げています。技術がこのようなスピードと性能向上で進歩することを疑う人もいましたが、実際に起こっています。
Pichaiはまた、彼らの量子コンピューティング技術も進展しており、スーパーコンピューティングが近い将来に利用可能になる可能性が高いことを強調しました。
彼はVertex AIで利用可能なAIモデルについても言及し、動画、画像、会話、音楽の機能を提供しています。Imagen 3は画像生成、VIは動画生成、Chirpは音声生成、Lyraは音楽生成です。Vertex AIにアクセスすると、多数のモデルが利用可能であることがわかります。GeminiだけでなくLlama 4、DeepSeek、ERNX(気象予報用)などの他のモデルも含まれています。
重要なのは、GoogleのプラットフォームがGeminiを持っていても、人々は他のAIも使用しており、それらはどこかで実行される必要があるということです。たとえば、GoogleはDeepSeekへのアクセスをインフラ内で提供します。中国政府が監視しているのではないかと心配する方もいますが、これはオープンモデルなので、単に彼らのサーバーで実行されているだけです。
Media Studioにアクセスすると、Imagen 3を使用した画像生成、VI2を使用した動画生成、Lyriaを使用した音楽生成、音声生成のテストができます。Imagen 3はプロンプトを書くだけで無料でアクセスできますが、ここでは少し費用がかかります。Google APIを使用した製品開発をしている場合、ここでテストして適切に機能しているか確認できます。
Googleはまた、Gmail、Docs、Drive、Meetingとの統合を強化し、スプレッドシートの専門的な分析やドキュメント分析などの機能をさらに追加しています。これはすべて、彼らの焦点がエージェントにシフトしているためです。
エージェントのリストは広範で、顧客サービスエージェント、クリエイティブエージェント、データエージェント、コードエージェント、セキュリティエージェントなどがあります。彼らはエージェント開発キットも提供し、Googleサービスを使用して独自のエージェントを作成できるようにしています。
「Google Agent Space」も発表され、現在はウェイティングリストがありますが、発表によると一般公開される予定です。おそらく今週か数日以内にアクセスが解放されるでしょう。
彼らはAnthropicのMCPと同様のエージェントプロトコルも開発しました。これはCrew AIで開発しているユーザーとLangGraphで開発しているユーザーが連携できるようにするためのものです。このプロトコルはAgent Spaceで使用されるエージェント間の接続を可能にします。
Agent Spaceのデモでは、プライベートな企業データを扱う銀行業界の企業内での相互作用が示されました。Google提供のエージェントや組織独自のエージェント、さらにユーザー自身が作成したエージェント(カレンダークリーナー、デイリーポッドキャストなど)があります。
デモでは、ユーザーが「Create Agent」ボタンをクリックして会話を開始し、顧客のポートフォリオからリスクと機会を分析することを説明しています。エージェントはGoogle Calendar、JIRAなど様々な接続オプションにリンクされており、必要に応じて有効化・無効化できます。
ユーザーはエージェントに顧客の機会を特定するよう依頼し、エージェントは一連のステップを提案します。ユーザーは計画を確認した後、「音声形式の要約をメールで送って」と追加リクエストをします。これはエージェントがOutlook、Gmail、その他のメールサービスと統合されていることを示しています。
エージェントは「client_agent」という名前の新しいエージェントを作成し、@記号を使って呼び出します。この方法はMicrosoft Recall AIやChatGPTと同様で、会話の流れに応じて必要なエージェントを呼び出せます。
エージェントは機密文書内で実行されますが、Googleがトレーニングのためにデータを使用するという懸念について説明すると、特に企業アカウントでの機密データを使用することはありません。過去にデータ漏洩で問題が発生したことがあり、AIトレーニングにこのようなデータを使用することはできません。
エージェントは検索を開始し、重要な発見として潜在的な損失リスクを特定します。これは自動的にリスクを発見できることを示しています。エージェントはキャッシュフロー予測を生成し、グラフやデータを提供して、複数の文書から手作業で情報を探す必要をなくします。
タスク完了後、エージェントはCEOにメールを送信して会議をスケジュールし、収集した情報に基づいてメール全体を生成します。
エージェントを使用する一つの方法は、ペットショップの顧客対応やマーケティングのトリアージなどの自動化されたフローを作成することですが、この例で示されているように、会話の流れに応じて専門エージェントを呼び出す方法はあまり一般的ではありません。これは「拡張知能」と呼ばれ、人間の知能がAIによって拡張されます。
これは将来の人工知能の使い方として期待できます。多くの人はAIがコンピュータにインストールされ、すべてを自動的に行うと考えていますが、実際にはもっと単純です。あなたの言語で対話でき、より最適化された方法で問題を解決できるツールなのです。
彼らはまた、より古典的な形式での顧客対応エージェントのデモも行いました。ユーザーは植物を購入し、どの土壌肥料を選ぶべきか迷っている状況で、アシスタントに質問します。アシスタントは「購入した植物を見せてください」と尋ね、すでにカートに2つの製品があることを認識しています。会話を通じて最適な製品を特定し、「購入を完了し、もう一方の製品をキャンセルしますか?」と提案します。
さらに、ユーザーは庭師のサービスについて質問し、アシスタントが予約プロセスを手配します。ユーザーが割引を要求すると、アシスタントは企業のマネージャーにメッセージを送信します。マネージャー(このデモではGoogle開発者が演じる)は50%ではなく20%の割引を提案し、アシスタントがユーザーに伝えます。すべての確認がメールで送信され、すべてが会話を通じて処理されます。
これは私たちの視野を広げ、日常生活での可能性を考えるために重要です。Googleは製品の販売を促進することに焦点を当てています。すべてのインターネット企業と同様に、彼らはビジネスを継続させるためにこれを行っています。
他の例としては、構造化データと非構造化データの両方を扱うBigQueryと統合されたエージェントがあります。チャットで会話することで、データの取得やグラフの生成、情報検索などの手作業を自動化し、人間が戦略的思考に集中できるようにします。
コードアシスタントについても言及されており、特に技術分野の人々にとっては既にエージェントとの連携に慣れています。Gem KnightはWer、Cursor、GitHub Copilot、Windsurfer、Type9、HLITなどと統合されています。
セキュリティエージェントは脆弱性を発見し、トリアージを行います。デモでは、開発者が機密情報をコピー&ペーストするような不正行為を行っている場合に、GoogleのUnified Securityプラットフォームがこれを検出してブロックする様子が示されました。また、保護のないVMの起動など、通常なら発見に時間がかかる問題も検出します。
Googleは後発組でしたが、Gemini 2.5の登場によって加速し始めています。Googleのインフラは複雑で成熟しており、今後多くの新機能が登場するでしょう。Googleが首位に立つ可能性があるかどうか、皆さんの考えをコメントで教えてください。この発表は彼らが動いており、停滞していないことを示しています。
このようなビデオをもっと見たい方は、チャンネルメンバーになることで支援してください。メンバーはインテリジェントエージェントの独占動画や先行公開動画にアクセスできます。いいねをお願いします。


コメント