Google IO発表の重要ポイント(ダイジェスト版)

AGIに仕事を奪われたい
この記事は約22分で読めます。

13,122 文字

The Most Important Google IO Announcements (SUPERCUT)
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

あれはかなりナイスなコンバーチブルですね。ゴミ収集車をコンバーチブルと間違えたようですね。他に何かお手伝いできることはありますか?この細長い建物が私の近所に何をしているのですか?それは建物ではなく街灯です。なぜこのヤシの木はこんなに短いのですか?心配です。短くないですよ、実際にはかなり高いです。
かっこいいコンバーチブルですね。またゴミ収集車です。他には何か?なぜ人々は私の芝生に荷物を配達し続けるのですか?荷物ではありません。それはユーティリティボックスです。なぜこの人は私がどこを歩いても私についてくるのですか?誰もあなたを追いかけてはいません。それはただあなたの影です。Geminiはあなたが間違っているときに教えるのがとても上手です。これを本日からAndroidとiOSのすべてのユーザーに提供開始します。Gemini 2。
5 Proは私たちの最も知的なモデルであり、世界最高の基盤モデルです。たった2週間前に、更新された2.5 Proのプレビューを提供し、皆さんがすぐに触れて構築を開始できるようにしました。皆さんが作成したものに非常に感銘を受けています。スケッチをインタラクティブなアプリに変換することから、完全な3D都市をシミュレーションすることまで、新しい2。
5 Proは人気のあるコーディングリーダーボードwebdevアリーナでトップに立っています。そして今、教育専門家と共に構築されたLearn LMモデルファミリーを取り入れたことで、2.5 Proは学習のための主要モデルであり、LMアリーナのすべてのリーダーボードで1位となっています。Gemini Flashは最も効率的なワーホースモデルです。
開発者の間でそのスピードと低コストから非常に人気があります。本日、更新版の2.5 Flashをリリースすることを発表できることを嬉しく思います。新しいFlashはほぼすべての側面で向上し、推論、コード、長文脈の主要ベンチマークで改善されています。実際、LMアリーナのリーダーボードでは2.5 Proに次いで2位です。
Flashは6月初旬に一般提供され、Proはその後すぐに提供される予定です。まず、Demisが言及した新しい2.5 flashに加えて、テキスト音声変換の新しいプレビューも導入しています。これらには、ネイティブ音声出力に基づいた2つの声のための初の種類のマルチスピーカーサポートがあります。
これにより、モデルはより表現力豊かな方法で会話できます。私たちの話し方の微妙なニュアンスを捉えることができます。このように囁き声にシームレスに切り替えることもできます。これは24言語以上で機能し、言語間を簡単に行き来できます。モデルは英語で話し始めることができますが、その後切り替えてまた戻ることができ、すべて同じ声で可能です。
かなり素晴らしいですよね?このテキスト音声変換機能は、本日からGemini APIで使用可能です。最後に、コストとレイテンシー対品質を制御するためのThinking Budgetsを搭載した2.5 Flashを発売し、反応は素晴らしかったです。そこで、Thinking Budgetsを2.5 Proにも導入し、一般提供モデルと共に数週間以内に提供される予定です。
Thinking Budgetsを使用すると、モデルが応答する前に考えるために使用するトークンの数をより制御できるか、単純にオフにすることもできます。次に、研究プロトタイプのProject Marinerもあります。これはウェブと対話してタスクを完了できるエージェントです。振り返ると、私たちはエージェントを高度なAIモデルの知性とツールへのアクセスを組み合わせたシステムと考えています。
エージェントはあなたの代わりに、あなたの管理下で行動を取ることができます。コンピュータの使用は重要なエージェント機能です。これによりエージェントはブラウザやその他のソフトウェアと対話して操作することができます。Project Marinerはコンピュータ使用能力をテストする初期段階の前進でした。12月に初期研究プロトタイプとしてリリースし、それ以来多くの進歩を遂げています。
まず、マルチタスキングを導入し、最大10の同時タスクを監視できるようになりました。次に、教えて繰り返す機能を使用しています。これは一度タスクを見せると、将来の類似タスクの計画を学習します。Project Marinerのコンピュータ使用機能をGemini API経由で開発者に提供しています。
Automation AnywhereやUiPathなどの信頼されたテスターはすでにこれを使って構築を開始しており、今年の夏にはより広く利用可能になります。コンピュータの使用は、エージェントエコシステムが繁栄するために必要な広範なツールセットの一部です。例えば、エージェント同士が会話できるようにするオープンなエージェント間プロトコルがあります。
これをCloud Nextで60以上のテクノロジーパートナーのサポートとともに発表し、その数が増えることを期待しています。また、エージェントが他のサービスにアクセスできるようにするAnthropicによって紹介されたモデルコンテキストプロトコルがあります。そして本日、Gemini SDKがMCPツールと非同期コーディングエージェントのJulesと互換性を持つようになったことを発表できることを嬉しく思います。
タスクを提出するだけで、Julesが残りを処理します。バグの修正、アップデートの実行など。GitHubと統合され、単独で動作します。Julesは、Node.jsの古いバージョンを更新するなど、以前は何時間もかかった大規模コードベースでの複雑なタスクに取り組むことができます。ステップを計画し、ファイルを変更するなど、数分で可能です。
本日、Julesがパブリックベータ版になったことを発表できることを嬉しく思います。誰でもjewels.googleでサインアップできます。そしてDemisが言ったように、私たちは常に新しいアプローチでモデルを改良しており、より効率的でパフォーマンスが向上するようにしています。私たちは拡散技術を先駆けることで、画像と動画生成を革新しました。
拡散モデルは、ノイズを段階的に洗練することで出力を生成する方法を学びます。本日、拡散の力を私たちの最新の研究モデルでテキストにも導入します。これにより、数学やコードのコンテキストでも編集などのタスクに優れています。左から右へ生成するだけでなく、解決策を非常に迅速に反復し、生成プロセス中にエラーを修正できます。
Gemini diffusionは、この並列生成を活用して非常に低いレイテンシーを実現する最先端の実験的テキスト拡散モデルです。たとえば、今日リリースするGemini diffusionのバージョンは、これまでで最速のモデルである2.0 Flashlightよりも5倍速く生成し、同時にそのコーディングパフォーマンスに匹敵します。
この数学の例を見てみましょう。準備はいいですか?始めます。もし瞬きをしたら、見逃しました。先ほどは速度を上げましたが、今回は少し遅くします。モデルが答え39にたどり着くプロセスを見るのはかなり面白いですね。このモデルは現在小さなグループでテストしています。ありがとう、Tulsy。
私たちはGemini 2.5での思考能力のフロンティアを探求してきました。Alph Goの経験から知っているように、これらのモデルに考える時間をより与えると応答が改善します。本日、Deep Thinkと呼ぶ新しいモードを導入することで2.5 Proをさらに向上させています。これはモデルのパフォーマンスを限界まで押し上げ、画期的な結果を提供します。
DeepthinkはParallel技術を含む、思考と推論における最新の最先端研究を使用しています。これまでのところ、素晴らしいパフォーマンスを見てきました。現在最も難しい数学ベンチマークの一つであるUSAMO 2025で印象的なスコアを獲得しています。競争レベルのコーディングのための難しいベンチマークであるlive codebenchでリードしています。
そしてGeminiが最初からネイティブにマルチモーダルだったため、このmmuを測定するma mainベンチマークでも優れていることは驚くことではありません。2.5 Pro Deep Thinkでフロンティアを定義しているため、より多くのフロンティア安全性評価を実施し、安全性の専門家からさらに意見を得るために少し時間をかけています。
その一環として、広く提供する前にフィードバックを得るために、Gemini API経由で信頼されたテスターに利用可能にする予定です。私のキャリア全体の核心は、AIを使用して知識を進め、科学的発見を加速することにありました。Google DeepMindでは、長い間ほぼすべての科学分野にAIを適用してきました。
この1年だけでも、数学から生命科学まで幅広い分野で大きなブレークスルーを達成しました。銀メダルレベルで数学オリンピア問題を解決できるAlpha Proofを構築しました。研究者と協力して新しい仮説を開発およびテストするのを助けるCo-scientistを構築しました。そして最近、新しい科学的知識を発見し、AI訓練自体を高速化できるAlpha Evolveをリリースしました。
生命科学では、臨床医の医療診断を支援できる研究システムAmyを構築しました。生命のすべての分子の構造と相互作用を予測できるAlphafold 3を開発しました。そしてIsomorphic Labsは、AIを用いて創薬プロセスを革新し、いつか多くの世界的な病気の解決に役立つというAlphaFoldの研究に基づいています。
わずか数年で、Alphafoldは科学コミュニティに大きな影響を与えました。世界中の250万人以上の研究者が重要な研究に使用する標準的なツールとなっています。AGIに向けて進歩を続ける中で、安全かつ責任を持って行われれば、科学的発見を加速し、これまでに発明された最も有益な技術になる可能性があると常に信じてきました。
一歩下がって考えると、数年前には今日見ているフロンティア技術が魔法のように思えたことは驚くべきことです。これらの技術が検索やGeminiなどの製品で新しい体験を提供し、人々の日常生活を支援するために結集しているのを見るのは刺激的です。
例えば、最近、視覚障害のある人々がビデオを通じて人間の視覚通訳者と接続して世界をナビゲートする支援を行う会社IRAと提携しました。Astra技術を使用して、より多くの人々がこのタイプの支援にアクセスできるようにするプロトタイプを構築しました。IRISの通訳者が安全性と信頼性のために積極的に監視している間、ユーザーから継続的なフィードバックを得ています。
全く新しいAIモードを導入します。これは検索の完全な再考です。AIモードでは、より高度な推論により、このようなより長く複雑なクエリを尋ねることができます。実際、ユーザーは従来の検索の2〜3倍の長さのクエリを尋ねるようになっています。さらにフォローアップの質問も可能です。これらすべてが今日から検索の新しいタブとして利用可能です。
私はこれをたくさん使用してきましたが、検索の使い方が完全に変わりました。そしてAIモードが本日からアメリカのすべての人に提供されることをお知らせできることを嬉しく思います。時には深く掘り下げ、複雑なものを解明する必要があります。これがディープリサーチの役割です。本日から、ディープリサーチでは、最も要望の多かった機能の一つとして、リサーチエージェントをガイドするために独自のファイルをアップロードできるようになり、まもなくGoogle DriveとGmailにもリサーチを拡張する予定です。
そうすれば、そこからも簡単に情報を取り込むことができます。例えば、この信じられないほど詳細なレポートがあるとします。この場合、宇宙を移動する彗星の科学についてのレポートです。その輝かしい内容をどのように消化しやすく、魅力的で、共有できるものに凝縮しますか?これはCanvasが役立つところです。
これはGeminiの共同創造のための対話型スペースです。Canvasではこれからワンタップでそのレポートを動的なウェブページ、インフォグラフィック、役立つクイズ、さらにはカスタムポッドキャストなど、あらゆる種類の新しいものに変換できます。45の言語で可能です。しかし、さらに進みたい場合は、Googleの従業員の一人が欲しいものを説明し、Geminiと協力して完璧にするだけで作成した、このような素晴らしい侵入型彗星シミュレーションなどを作ることができます。
このようなアプリを共有すると、他の人も簡単に参加して閲覧したり、修正したり、リミックスしたりできます。本日、最新かつ最も高性能な画像生成モデルをGeminiアプリに導入します。これはImagine 4と呼ばれ、大きな飛躍です。画像はより豊かで、より微妙な色合いと細かいディテールがあり、異なるショットの影、写真に現れる水滴などが特徴です。
私はこれらのモデルの周りで多くの時間を過ごしてきましたが、このモデルと進化は良いから優れた、そして素晴らしいものへと進んでおり、Imagine 4はテキストやタイポグラフィーにもはるかに優れています。画像は素晴らしいですが、時には動きと音が全体のストーリーを伝えるために必要です。昨年12月にV2が登場し、業界のビデオ生成を再定義しました。
そして昨日のDennisの「玉ねぎを炒める」投稿を見た方は、私たちが別のものを調理していたことをご存知でしょう。本日、新しい最先端モデルであるVO3を発表できることを嬉しく思います。そして今日のステージから聞いた他の多くのことと同様に、これは今日から利用可能です。視覚的な品質はさらに向上しています。物理学の理解もより強力です。
しかし、ここが飛躍点です。V3にはネイティブ音声生成機能が付いています。つまり、V3は効果音、バックグラウンドサウンド、そして対話を生成できます。プロンプトを入力すると、あなたのキャラクターが話すことができます。森の中の賢い老フクロウと緊張した若いアナグマを聞いてみましょう。聞いてください。彼らは今日ボールを置いていきました。
私がジャンプできる高さよりも高くはねました。どんな種類の魔法ですか?かなり素晴らしいですよね?Vioは森の音だけでなく、対話も追加しました。組み合わされた音声とビデオ生成による新しい創造の時代に入っており、それは信じられないほどリアルです。品質は非常に良く、このボートの上にいるように感じます。
この海は力であり、野生の、制御されていない力です。そして彼女は砕ける光の一つ一つであなたの畏敬の念を命じます。写真のようにリアルな生成、感情、彼の口の動き、そして背景の海。VOが強力な創造的ツールとしていかに速く進化し続けているかは驚くべきことです。最近、高品質の音楽とプロフェッショナルグレードの音声を生成できるLIA 2を発表しました。
音楽はソロや合唱団での歌声を伴う旋律的なものです。聴いてわかるように、表現力豊かで豊かな音楽を作ります。Liatuは今日から企業、YouTubeクリエイター、そして音楽家に提供されています。私たちはクリエイティブな人々のための新しいAI映画制作ツールを構築してきました。VOとImagine、そしてGeminiの最高の部分を組み合わせたツールであり、クリエイティブな人々によって作られたクリエイティブな人々のためのツールです。
それはクリエイティブゾーンに没頭して時間がゆっくりになるという魔法のような感覚にインスパイアされています。私たちはこれをFlowと呼び、今日発表します。どのように機能するか見せましょう。私が取り組んでいるプロジェクトに入りましょう。主人公の祖父は、羽のある友人の助けを借りて飛行車を作っています。
これが私の材料、老人と彼の車です。ツールに自分の画像をアップロードするのが簡単になっていますし、内蔵されているImagineを使用してその場で生成することもできます。それを説明するだけでカスタムのゴールドギアシフトを作ることができます。できました。素晴らしいですね。次に、単一のプロンプトですべてのクリップを組み立て始めることができます。
非常に正確なカメラコントロールを含め、望むものを説明できます。Flowはすべてを配置し、シーンビルダーで反復し続けることができます。ここで本当に興奮する部分があります。シーンの次のショットを撮影したい場合は、プラスアイコンをクリックして次のショットを作成できます。次に何が起こるかを説明することができます。例えば、後部座席に3メートルの鶏を追加するなど、Flowが残りを処理します。
キャラクターの一貫性、シーンの一貫性、それはただ機能します。そして何かがうまくいかない場合も問題ありません。他のビデオツールと同様に、うまく機能していない場合は戻ってトリミングすることができます。しかしFlowは他の方向にも機能します。クリップを拡張することもできます。そのため、私が目指してきた完璧なエンディングを手に入れることができます。
必要なすべてのクリップを手に入れたら、ファイルをダウンロードできます。お気に入りの編集ソフトウェアに取り込み、Lriaから音楽を追加すると、老人はついに飛行車を手に入れました。本日、2つのAIサブスクリプションプランをアップグレードすることを嬉しくお知らせします。Google AI Proとまったく新しいGoogle AI Ultraがあります。
グローバルで利用可能になるProプランでは、無料版と比較して高いレート制限と特別な機能を備えた完全なAI製品スイートが提供されます。これには以前Gemini Advancedとして知られていたGeminiアプリのプロバージョンが含まれます。そしてUltraプランがあります。これは開拓者、先駆者、Googleからの最先端AIを望む人々のためのものです。
このプランには最高のレート制限、新機能や製品への最も早いアクセスがGoogle全体から提供されます。本日アメリカで利用可能になり、まもなくグローバルに展開される予定です。このUltraプランはGoogleのAIへのVIPパスと考えることができます。つまり、Ultraサブスクライバーであれば、準備ができた時点でGeminiアプリで2.5 Pro Deep Thinkモードにアクセスするための大幅なレート制限を得ることができます。
本日利用可能なV3を搭載したFlowへのアクセスを得ることができます。また、YouTube Premiumと大量のストレージも付属しています。Androidにはたくさんのエキサイティングなことが起きています。それは未来を最初に見るプラットフォームです。先週のAndroidショーでは、Android 16とwear OS 6の大胆な新デザインと主要な更新を発表しました。
そしてもちろん、AndroidはAIを体験するための最高の場所です。本日紹介したGeminiのブレークスルーの多くがまもなくAndroidに搭載されます。すでに電源ボタンからGeminiに即座にアクセスできます。コンテキストを理解し、支援する準備ができています。しかしAndroidはあなたの電話以上のものを動かしています。それは完全なデバイスのエコシステムです。
数ヶ月以内に、Geminiをあなたの時計、車のダッシュボード、さらにはテレビにも導入します。そのため、どこにいても、生活をより簡単にするための役立つAIアシスタントがあります。しかし、新しい方法でAIアシスタントを体験できる新しい形態はどうでしょうか?それは私たちがAndroid XRを構築している理由です。
これはGemini時代に構築された最初のAndroidプラットフォームであり、ヘッドセットからメガネまで、さまざまなユースケースのための幅広いデバイスをサポートしています。XRには一つのサイズがすべてに適合するわけではなく、一日を通じて異なるデバイスを使用すると信じています。例えば、映画を見たり、ゲームをしたり、仕事をしたりする場合は、没入型のヘッドセットが必要です。
しかし外出時には、電話を取り出さなくても適時に情報を提供できる軽量のメガネが必要です。Samsung と一緒にAndroid XRを一つのチームとして構築し、Qualcommと共にSnapdragon向けに最適化しました。昨年Android XR開発者プレビューをリリースして以来、何百人もの開発者がプラットフォーム向けに構築しています。
また、お気に入りのGoogleアプリをすべてXR向けに再構築しています。そしてAndroidなので、モバイルアプリやタブレットアプリも機能します。これはSamsungのProject Muhanで、最初のAndroid XRデバイスです。MuhanはあなたのそばにいるGeminiとともにアプリを探索するための無限のスクリーンを提供します。XRのGoogle Mapsでは、Geminiに世界のどこにでも連れて行ってもらうように頼むだけで、どこにでもテレポートできます。
あなたが見ているものについてAIアシスタントと話し合い、探索しているものに関するビデオやウェブサイトを表示させることができます。私たちの多くはお気に入りのチームを観るために最前列に座ることを夢見ています。MLBアプリで彼らがプレーするのを見て、まるでスタジアムにいるかのように、Geminiと選手やゲームの統計について会話することを想像してください。
SamsungのProject Muhanは今年後半に購入可能になります。次にメガネに注目しましょう。ご存知のように、私たちは10年以上メガネを作り続けており、決して止めていません。Android XRを搭載したメガネは軽量で、テクノロジーが詰め込まれていても一日中着用できるように設計されています。カメラとマイクはGeminiに世界を見て聞く能力を与えます。
スピーカーはAIを聞いたり、音楽を再生したり、通話を受けたりすることができます。そしてオプションのレンズ内ディスプレイは、必要な時だけプライベートに役立つ情報を表示します。これらのメガネはあなたの電話と連携し、手を自由に保ちながらアプリにアクセスできます。これらすべてにより、メガネはAIの自然な形態となり、Geminiの力をあなたがいる場所に直接もたらします。
クラーク・ケントとは異なり、メガネをかけると超能力を得ることができます。Nishaが後ろにいて、これらのメガネがどのように機能するか実際に見せてくれます。今テキストを送ります、始めましょう。皆さん、こんにちは。今、私がAndroid XRメガネのレンズを通して見ているものをまさに見ているはずです。例えば、こちらの美味しいコーヒーのようなものです。
そして今、Shuramaからのテキストが届きました。彼が言ったことを見てみましょう。そうですね、確かに本番の時間です。それではGeminiを起動して始めましょう。Shuramaに始めるというテキストを送信し、通知をサイレントにしてください。了解しました、彼にそのメッセージを送信し、すべての通知をミュートしました。あ、こんにちはMisha。
こんにちは、親愛なる方。メガネのライトがついているのが見えるので、今ライブ中だと思います。はい、公式にIO視聴者の皆さんとつながっています。こんにちは皆さん、この角度からIOを見るのは素晴らしいです。Nisha、ここでヘルプすれば自分のAndroid XRメガネをもらえると約束してくれましたよね?どうですか?もちろんです。
この後コーヒーを飲みに行きましょう、そしてそのメガネをお持ちします。素晴らしい。それでは後ほど。頑張ってください。ありがとう。ご覧のように、舞台裏では多くのことが起きています。あれはプロバスケットボール選手のヤニスが私たちのメガネをかけているのですか?素晴らしいですね。両手を上げてハイタッチしましょう。いいですね。
これらのメガネができることをもっとお見せしましょう。私はこの写真の壁について一日中気になっていました。このバンドは何ですか?そしてどのようにこの場所とつながっているのですか?このバンドのホームカミングショーとしてよく見られるShoreline Amphitheaterです。まさか。ここでの彼らのパフォーマンスの写真を見せてもらえますか?もちろん。これが一つです。彼らの曲を再生しましょうか?ぜひお願いします。
ステージに向かいながら聴くことができます。素晴らしい。これはCounting CrowsのUnder the Auroraです。ようこそ、ミスター。こんにちは、皆さん。その華やかな舞台裏の様子をご覧いただきありがとうございます。ところで、今Ditaとのコーヒーを予約しますか?はい。実はスタッフが舞台裏で素晴らしいコーヒーをくれました。何か面白いことをやってみましょう。
Gemini、私が先ほど持っていたカップのコーヒーショップの名前は何でしたか?うーん。それはBloom’s givingだったかもしれません。見た感じでは、Castro Streetにある活気のあるコーヒーショップです。素晴らしい記憶力ですね。そのカフェの写真を見せてもらえますか?雰囲気を確認したいです。もちろん。地図からのこれらの写真は役立ちますか?ああ、その場所を知っています。
花屋でもあり、コーヒーショップでもありますが、ダウンタウンにあります。オーケー、Gemini、ここまで歩くにはどうすればいいか教えてください。今、その道順を取得しています。約1時間かかります。わかりました、少し歩くことにします。このヘッドアップの道順と完全な3Dマップで非常に簡単になるはずです。今日午後3時にそのカフェでディアに招待状を送ってコーヒーを飲みましょう。
その招待状を送信します。さて、これは非常にリスクの高いデモですが、挑戦してみましょう。NishaとI は母国語で互いに話します。Nishaはヒンディー語で話します。私はペルシャ語をかなり下手に話します。そして両方のメガネからのフィードをここに表示します。皆さんが理解できるように、リアルタイムで英語の翻訳を表示します。
さあ、やってみましょう。指を交差させて。あれ?そう、リスクの高いデモだと言いましたね。[拍手] このようなAndroid XRデバイスで信じられないほど役立つAIアシスタントがあなたの側にいる可能性に非常に興奮しています。しかしそれだけではありません。Samsungとのパートナーシップをさらに高いレベルに引き上げています。
Android XRをヘッドセットを超えてメガネにも拡張しています。優れたメガネを私たちと一緒に構築できるように、ソフトウェアとリファレンスハードウェアプラットフォームを作成しています。メガネのプロトタイプはすでに信頼されたテスターによって使用されており、今年後半にはメガネ向けの開発を開始できるようになります。
これらは一日中身につけたいと思うスタイリッシュなメガネである必要があることを私たちは知っています。そのため、Gentle MonsterとWarby ParkerがAndroid XRを搭載したメガネを構築する最初のアイウェアパートナーになることを本日発表できることを嬉しく思います。AIの機会は本当に大きなものです。その利益ができるだけ多くの人々に届くようにするのは、この波の開発者やテクノロジービルダーの役割です。
研究が今日私たちの製品をどのように変革しているかについて3つの例を共有したいと思います。Project Starline、Astra、そしてMarinerです。数年前のIOで、私たちの画期的な3Dビデオ技術であるProject Starlineを発表しました。目標は、離れていても同じ部屋にいるような感覚を作り出すことでした。
技術的な進歩を続けてきており、今日次の章を発表する準備ができています。Google Beam、新しいAIファーストのビデオコミュニケーションプラットフォームを紹介します。Beamは、2Dビデオストリームをリアルな3D体験に変換するための最先端のビデオモデルを使用します。舞台裏では、6台のカメラのアレイがさまざまな角度からあなたを捉えています。
AIを使用して、これらのビデオストリームをマージし、ミリメートル単位の完璧に近いヘッドトラッキングと毎秒60フレームで3Dライトフィールドディスプレイにレンダリングします。すべてリアルタイムで。結果は、はるかに自然で深く没入型の会話体験です。この技術を他の人に提供できることに非常に興奮しています。
HPとの協力により、最初のGoogle Beamデバイスは今年後半に早期顧客向けに利用可能になります。HPは数週間後にもっと多くの情報を共有する予定です。ご期待ください。カリフォルニアに住んでいる人や世界中の多くの場所で最も関心の高いいくつかの例で締めくくりたいと思います。
私たちの多くは山火事の影響を受けた人を知っています。それらは突然始まり、数分のうちに制御不能に成長することがあります。スピードと精度が大きな違いを生むことがあります。素晴らしいパートナーグループと共に、Firesatと呼ばれるものを構築しています。これはマルチスペクトル衛星画像とAIを使用して、ほぼリアルタイムの洞察を提供することを目指す衛星の星座です。解像度を見てください。
270平方フィートほどの小さな火災、約一台の車用ガレージサイズまで検出できます。最初の衛星は現在軌道上にあります。完全に稼働すると、画像は現在の12時間ごとから20分ごとにはるかに高い頻度で更新されます。スピードは他の種類の緊急事態でも非常に重要です。
ハリケーンヘレンの間、WingはWalmartとRed Crossと提携してドローン配達で救援活動を提供しました。AIのサポートにより、ノースカロライナ州のYMCAシェルターにリアルタイムのニーズに基づいて食料や医薬品などの重要なアイテムを配達することができました。これが他のコミュニティでの災害救援にどのように役立つか想像でき、積極的に規模を拡大するために取り組んでいます。
これらはAIが今社会を支援している方法の例です。今日の研究が数年以内に現実になることを考えるとさらに刺激的です。次世代の役立つロボットの構築、世界で最も致命的な病気の治療法の発見、エラー修正された量子コンピュータの開発、あるいはあなたが行きたいどこにでも安全に連れて行ってくれる完全自律型車両の提供など。
これらすべては数十年ではなく数年以内に非常に可能性があります。素晴らしいことです。生活を改善するこの機会は私が当然視しているものではありません。そして最近の経験がそれを実感させてくれました。私はサンフランシスコで両親と一緒にいました。彼らが最初にしたかったことはWhimoに乗ることでした。他の多くの観光客のように。私は以前にWhimosに乗ったことがありましたが、80代の父が前の席で完全に驚いている様子を見て、進歩を全く新しい視点で見ました。
それはテクノロジーの力がどれほど素晴らしく、私たちを驚かせ、前進させるかを思い出させてくれました。そして次に私たちが一緒に構築する素晴らしいものが何かを見るのが待ちきれません。ありがとうございました。

コメント

タイトルとURLをコピーしました