Google の「AI Ultra」大公開 | Mariner、Astra、Veo 3、jules、Diffusion など(初見)

AGIに仕事を奪われたい
この記事は約11分で読めます。

6,367 文字

Google's MASSIVE "AI Ultra" | Mariner, Astra, Veo 3, jules, Diffusion etc (FIRST LOOK)
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

Googleがよく3というAIビデオモデルをリリースしましたが、新しい要素があります。何が変わったか気づけるでしょうか。
私たちは話せます。もう沈黙はありません。はい、私たちは話せます。話せます。話せます。アクセントをつけて話すこともできます。ああ、それは素晴らしいと思います。はい、とても楽しいです。でも、はい、とても楽しいです。とても楽しい。できます。はい、話せます。はい、話せます。
話せます。話せます。はい、話せます。いいえ。はい、私たちはアニメキャラクターとして話せます。これは素晴らしい。物語の可能性がどれほど広がるか想像してみてください。歌いながら話せます。話しましょう。さて、今何について話しましょうか?話せるようになった今、何について話しましょうか?わかりません。話せるようになった今、何について話したいですか?何もありません。
何か言うべきことがあるかわかりません。これがいかに魔法のようなものか話せます。幻覚です。何か重要なこと、深いことを言いたいです。未来はまだ私たちの手の中にあります。それはありきたりな台詞です。話すのはやめましょう。
Googleが先日Google IOで大量の新機能を発表しました。すべてを網羅することはできませんが、1つの動画でどれだけカバーできるか見てみましょう。
まず、Googleは全く新しいサブスクリプション層と、下位層のサブスクリプションの異なるプランを導入しました。これまではGoogle AI Advancedだったと思いますが、今はGoogle AI Proになり、新しいものとしてGoogle AI Ultraが登場しました。これはいわゆるVIPプラン、AIの最先端にいたい人向けの全部入りプランです。
このプランは月額250ドルになる予定ですが、現在は最初の3ヶ月間は基本的に月額125ドルで始められ、その後月額250ドルに切り替わるようです。Geminiアプリ、Gemini 2.5 Pro Deep Thinkへの独占アクセスが得られます。これについてはすぐ後で説明します。新しいビデオ生成モデルV3が使えます。
AI映像制作ツールのFlowにアクセスでき、V3や「材料からビデオへ」などのプレミアム機能が使えます。画像からビデオを作成するWhisk V2も使え、最高限度のリミットがあります。Notebook LMにもアクセスできます。Notebookには徐々に展開される多くの新機能があります。Gmail、Docs、Vidsなどでもgeminiが使えます。Project Marinerへの早期アクセス権もあります。つまり、Project Marinerのエージェント研究機能にアクセスできるのです。
さらにYouTube Premiumの個人プランと、Photos、Drive、Gmailのための30テラバイトのストレージも付いてきます。もちろん、私が一番ワクワクしているのは上の方にあるAI関連のものです。どのように機能するのか順番に確認していきます。これは申し込むしかないですね。迷いはありませんでした。
それについてはもう少し後で触れましょう。Googleが発表した次の興味深いものはGemini Diffusionです。実際のテキストディフュージョンモデルで、テキストとコーディングがとても上手いようです。あるコーダーはこう言っています。「Gemini Diffusionはとんでもない。3秒で?冗談でしょ?そしてコードは動くんです。動画は早送りされていません」
ディフュージョンモデルはいつも私には奇妙に思えます。これは試してみたいですね。でも、動作するコードを生成するディフュージョンモデル。それはなんだか不思議です。
彼らはまた、Gemini 2.5 Proを搭載したAIコーディングエージェント「Jules」を発表しました。Julesはリポジトリやタスク間で非同期に動作し、バグ修正やリファクタリングなどのタスクを同時に複数こなすのを手伝います。
また、Codecastという日々のリポジトリのコミットをポッドキャストで聞けるサービスもあります。jewels.googleでチェックできますが、現在は高負荷状態なので、少し後でまた確認します。発表されたばかりなので、すべてが少し不安定になっているか、少なくともストレス下にあると言えるでしょう。
Google IO中に見る機会がありました。一見するとOpenAIのCodexのように見えます。GitHubに接続して、様々なタスクを非同期で実行できます。基本的には「これをやって」と言うと実行が開始され、タスクを追加し続けることができ、それぞれが独自のタイミングで実行されます。
まだそれほど触れていませんが、これもテストする予定です。そしてもちろん、VO3があります。音響効果、バックグラウンドノイズ、ダイアログ付きのビデオを生成できます。またNotebook LMもあります。Notebook LMの新機能は、動画の概要を作成できることです。
まだリリースされていませんが、近日中に公開される予定で、どのような感じになるのかの漏洩動画がいくつかあります。Testing Catalog NewsというTwitter/Xのアカウントに大きな感謝を送りたいと思います。この人は様々なリークや情報をオンラインに投稿するために残業しています。
フォローする価値のある素晴らしいアカウントです。これらのうちいくつかを投稿します。これらは動画の概要です。以前のノームはオーディオ概要を作成できました。これはとても興味深いものでしたが、今では、または徐々に展開されていますが、動画の概要も作成できるようになります。私にはまだライブではありませんが、Testing Catalogはilluminate.google.comでプレビューを見ることができたようです。
私にはこれらの機能はまだありません。何らかの早期プレビューのようです。これは近いうちに展開されることを期待しています。「自分自身の人生を巻き戻す。吸血鬼や何かゾンビのようなものですか?いいえ、もっと良いものです。私はクラゲについて話しています。Turatopsis Dorni(トゥラトプシス・ドルニ)と呼ばれる小さな控えめな生き物です」
もう一つの非常に興味深いことは、Gemini Liveのカメラと画面共有が利用可能になることです。これはAndroidデバイス用です。AIアシスタントとライブで会話し、様々な質問をすることができます。それを動作させることができました。どれくらい上手く認識できるか見てみましょう。
彼らが行ったデモはかなり印象的でした。実際のアプリでそれを再現できるか見てみましょう。デモは確かに印象的でした。これにはカメラビューと画面共有の両方があり、見ているものを見せてそれについて助けてもらうことができます。
数週間のうちに、Gemini Liveはカレンダー、Keep、タスク、マップなどのGoogleアプリと連携します。これはAndroid Geminiアプリ内にあります。見つけるのに困ったら、右下の小さな魔法のボタンを押す必要があります。アプリ内で右下のそのボタンを押すと、ここに表示されているビューに移動します。
そこでカメラの共有や画面の共有などができます。また、今日からDeep Researchに自分のファイルや画像をアップロードでき、Google DriveやGmailなどに接続することもできます。最近GoogleのDeep Researchをいじっていて、これまでのところ非常に感動しています。
主にOpenAIのDeep Researchを使用していましたが、最近では様々なものをテストするためにGoogleのDeep Researchを使用しており、正直言って非常に印象的です。それぞれ独自の方法で違いがあるので、どちらが良いとは言いづらいです。両方とも良いです。両方とも独自の特性で非常に優れています。
まだどちらがどのタスクに優れているのかを把握しようとしているところです。GoogleのDeep Researchをまだ試していない方は、特に今、自分のファイルや画像を研究に追加できる新機能で、ぜひ試してみてください。Canvasも更新されています。作成ボタンをクリックするだけで、Deep Researchレポートをカスタムウェブページに変換することもできます。
そのようなものです。GeminiがChromeにやってきます。あなた専用のAIブラウジングアシスタントです。Imagineは画像生成アプリです。Googleではイマジン・フォーと呼んでいるようです。一部の人はイマジン、一部の人はイマジーンと言います。今日からGeminiアプリで誰でも無料で画像を作成できるようです。
Flowは、AIビデオ編集ツールです。これはFlow TVのようです。様々なチャンネルを循環しています。上下にクリックすると、ランダムなAIビデオが生成されます。これらはおそらく事前に用意されたものですが、何ができるかを示しています。これは本当に良く見えます。これはすごいですね。プロンプトを見られるか確認しましょう。
ここにプロンプトが表示されています。これらはV2で生成されていますが、Ultraエディション、つまりUltraサブスクリプションでは、実際にV3を使用できます。そして、ここにあります。右上に「ultra」と表示されています。新しいプロジェクトを作成してチェックしてみましょう。雪でできたトラが雪の中に隠れている、というのはどうでしょうか。
これがどうなるか見てみましょう。Flow TVで作成しているビデオはかなりクールだと思います。これには感心しています。見ていてとても興味深いです。一方、ここには雪でできたトラが雪の中に隠れているものがあります。それはかなり良いですが、それらは雪のトラのようです。私が意図したのは、雪でできた実際のトラが隠れているというものでした。
ユーザーエラーであることを認めなければなりません。おそらく私が欲しいものをもっと上手く説明すべきでした。これはかなり良く見えますが、欲しいものをもっと上手く説明すべきでした。雪でできた生きているトラが雪の中を忍び寄る、というのはどうでしょうか?
ある時点から、throughを正しいスペルで書くのをやめてth hrと入力するようになりました。なぜそうするのかわかりませんが、2025年なのでそうできるはずだと感じます。
Ultraメンバーシップに含まれる別のものは、Project Marinerです。これはあなたのために外に出て作業するエージェント的なものです。例えば、Google IO 2025からのすべての発表を見つけて、それを私のNotebook LMにプロジェクトとして追加し、音声概要を生成したいとします。
これを使ったことがないので、これが良いプロンプトか悪いプロンプトかわかりませんが、テストを開始してこのツールがどのように機能するか見てみましょう。セッションが準備されています。まず何かを検索するようです。見てのとおり、独自のセッションを準備しました。独自のブラウザのようなものを持ち、それをナビゲートできます。
見てみましょう。ページの下部にあるクッキー同意バナーに気を取られています。先に進む前にこれを受け入れる必要があります。クッキーバナーを受け入れますか?ありがとう、EU。これらのクッキーバナーは本当に素晴らしいです。本当に役立ちます。この全体をどうナビゲートするか完璧に解決しましたね。
クッキーバナーを受け入れますか?もちろん。はい、クッキーバナーを受け入れましょう。Google IO 2025で起きた様々なことをチェックするための2025エクスプローラーページにアクセスする方法を見つけました。現在、アイテムをクリックして実際のキーノートを見ています。今のところうまくいっています。
クッキー通知について尋ねられたのは残念ですが、それ以外は問題なく進んでいます。何か作業をしています。もう少し時間をあげましょう。Googleでも検索しています。数分待って戻ってきます。その間、私たちのVO3、技術的にはこれはFlowの中ですが、雪の中を忍び寄る生きたトラがあります。見てみましょう。
それはかなり良いです。気に入っています。これは気に入りました。背景には近づいている人たちがいます。かなり感心しています。これがV2とVO3のどちらで生成されているのか気になります。これが私に与えられた2番目のバージョンです。気に入っています。
少しロボット的な動きがあります。最初のウィンドウはかなり良いです。後でウェスはV3を手動で有効にする必要があることに気づきました。それはこのように見えます。また、1080pにアップスケールすることもでき、より高い解像度を得ることができます。
Project Marinerで問題が発生しましたが、大丈夫です。別のことを試してみましょう。Redditで最新のAIニュースを検索しています。Redditをナビゲートして、トップ5のニュースを見つけました。それをオンラインのメモ帳ツールに追加するよう頼みましょう。リンクを提供します。それができるか見てみましょう。
メモ帳ツールを見つけました。すべてをコピーしてペーストできるか見てみましょう。それをメモ帳ツールに投稿しました。トップ5ではなく、トップ4のようですが。ここまでのところ、Marinerは興味深いと言わざるを得ません。Project Marinerは非常に興味深くなりそうです。
彼らは事前に警告していますが、これは研究プレビューのようなものです。間違いを犯すこともあります。まだベータ版で、作業中です。また、ログインが必要なものへのアクセス許可をどのように与えるかを把握する必要があります。例えば、Notebook LLMとやり取りしたい場合、ここでは明らかに何にもログインしていません。
おそらく私のログイン情報を与える必要があるでしょう。これを実際にテストしたい場合、例えば、家でこれを試さないでくださいが、Instacartアカウントにログインするためのパスワードを与えて、食料品などを追加して、家に配達できるかどうか確認することができます。これはひどいアイデアのように聞こえますが、それについての動画があります。
クレジットカード情報を与えることはしていません。特に研究プレビューの間は、それが私の境界線です。しかし、そのようなことも今後テストしていきます。ここまでのところ、研究プレビューとしては良さそうです。もちろん、他のこのようなものもテストしてきました。コンピュータを使用するエージェントを作ることは非常に難しいことです。
OpenAIのバージョン、Anthropicのバージョン、例えばMattisなど他の多くのものを試してきましたが、これは最も複雑なことの一つです。これを使用した5分間でしたが、良さそうだと言わざるを得ません。もっとテストする必要がありますが、良さそうです。
これは彼らが発表したすべてのものの初見でした。一部はまだ適切に機能していないようですが、おそらく同時にアクセスしようとする人の数によるものでしょう。しかし、触れることができたものは非常に興味深かったです。これから数日間、これらのツールを一つずつテストしていきます。

コメント

タイトルとURLをコピーしました