Googleがプロジェクト・アストラを公開、すでに人々を驚かせている

AGIに仕事を奪われたい
この記事は約8分で読めます。

4,189 文字

Google Just Dropped Project Astra and It’s Already Scaring People
Google has started rolling out Project Astra inside Gemini Live, bringing real-time visual AI to phones like the Pixel 9...

Googleはプロジェクト・アストラをGemini Liveで展開し始めました。この動きにより、リアルタイムの視覚AIが導入され、スマートフォンのカメラやスクリーン共有を通じて見たり聞いたりするあらゆるものについて多言語で会話できるようになりました。これはPixel 9やSamsung Galaxy S25デバイスに提供され、カメラベースの高度な分析やAI駆動の対話機能の拡張を約束することで、すでに大きな波紋を広げています。
舞台裏では、SamsungとGoogleが提携し、Galaxy S25のオーナーはGemini Advancedの追加サブスクリプションなしでGemini Liveのリアルタイム視覚AIを体験できるようになりました。これが単なる恒久的な特典なのか、新しいデバイスにバンドルされる無料トライアルなのかについては推測の余地がありますが、重要なのはS25のオーナーがカメラを開き、何かに向けて、その場でGemini Liveによる解釈を見ることができるということです。それは、あなたが何本の指を立てているかを分析したり、車が街を通過する際にどの通りにいるかを特定したりするといった単純なことかもしれません。
初期ユーザーからの即時のフィードバックでは、この機能は継続的なライブフィードというよりもスナップショットツールのように動作するとのことです。Gemini Liveに何本の指を見せているかを尋ねると、その質問時点で写真を撮り、その静止画フレームに基づいて回答します。その後に手を動かしても、答えは更新されません。それでも、将来的にスマートフォンがレンズのようなオブジェクト認識システムとより人間らしいAI会話をどのように融合させるかについての印象的な一歩前進です。
Pixel 9デバイスを持つ一部のユーザーも同様の展開を受けていますが、高度なリアルタイムカメラモードを希望するユーザーはGemini Advancedが必要かもしれません。別のプロモーションコードがあるのか、特定のPixel 9のオーナーに自動的に完全アクセスが付与されるのかは完全には明確ではありませんが、いずれにしてもラインナップは拡大しています。
また、スクリーン共有という新しい次元も追加されています。Geminiアプリに入り、スクリーン共有をオンにすれば、AIにあなたが見ているものを見せることができます。ニュース記事を読んでいて、AIに要約してもらったり、より詳細を指摘してもらったりすることができます。あるいは、オンラインストアを閲覧していて、製品比較や割引コードについて即座のフィードバックが欲しい場合にも使えます。スクリーン共有中にカメラに切り替えることもでき、AIはあなたの周囲のライブフィードを見ることができます。スマートフォンをロックしたりセッションを一時停止すると、カメラはオフになります。簡単に再度オンにできますが、誤ってすべてを放送しないための安全装置が組み込まれています。
この概念は、Googleの検索プラットフォームにおける新しいAIモードに関連しており、これは最初はGoogle 1 AIプレミアムサブスクライバーに限定されていましたが、その後、米国のより多くのLabsユーザーに拡大されました。検索大手によると、これまでのフィードバックは概ね肯定的であり、人々は従来のテキストベースの検索よりも長く、より微妙なニュアンスのあるクエリを発行しているとのことです。
その急増の背後にある要因の一つは、マルチモーダル機能の導入かもしれません。Geminiモデルのバージョンを利用したGoogleの新しいアプローチは、テキストと画像を同時に分析でき、写真を撮るかアップロードするだけで意味のある応答を得ることができます。新しいスニーカーや仕事用の複雑な円グラフのスクリーンショットを見せることを考えてみてください。
AIモードはGoogle Lensと連携して動作し、画像内のオブジェクトを識別し、Googleが「クエリファンアウト」テクニックと呼ぶものを実行します。基本的に、それは画像を複数のサブクエリに分解します。本棚を見せると、システムは各タイトルを識別し、それらについてのデータをクエリし、直接購入リンク付きのキュレーションされた読書リストのような一貫性のある答えで結果を組み合わせます。Googleは、このより深く、より文脈に沿ったアプローチが、AIを単なる検索ボックスではなく、個人的なアシスタントのように感じさせることを望んでいます。
これはエンドユーザーにとってエキサイティングですが、独立した出版社の間では懸念も生じています。一部のサイトオーナーは、GoogleのAIがその場で徹底的な要約を提供できるため、元のコンテンツへのクリックが減少していると言います。ホームインプルーブメントサイトを持つある人は、AIが実際には存在しない製品を提案したり、疑わしい安全慣行を推奨したりすることがあると気づきました。
Googleは、AIの概要が広範なトラフィック減少の理由であるという決定的な証拠はないと主張し、検索アルゴリズムは常に変化し、ユーザーの興味は季節によって変化し、他の多くの要因もサイト訪問のヒット数に影響を与える可能性があると論じています。それでも、GoogleのAIが直接答えを提供する能力を洗練するほど、小規模サイトのオーガニックトラフィックが減少するのではないかという懸念は残っています。
人材の獲得競争も注目のトピックです。Googleが買収したDeepMindは、地球上のトップティアAI部門の一つです。最近、彼らが英国で厳格な非競合契約を使用していることが報告されています。一部の従業員は最大1年間、Open AIやMicrosoftなどのライバルに移ることができません。従業員は依然として給料を得ているため完全に無力ではありませんが、AIの境界を押し広げ続けたい場合、本質的には脇に置かれているため、フラストレーションを感じることがあります。
米国のFTC(連邦取引委員会)は非競合契約に対して厳しく取り締まっているため、この慣行は米国ではあまり見られませんが、英国ではまだ公正なゲームであり、それが新しい役割を試してみたいと熱望しているAIの専門家の移動を遅らせる可能性があります。
一方、GoogleはGeminiアンブレラの下でさらに堅牢なAI技術の構築に注力しています。Gemini 2.5 Proは、Gemini APIとGoogle AI Studioを通じてより高い使用制限で、より広範な公開プレビューに入りました。価格は大規模なコンピューティングを求める開発者を引き付けるために階層化されています。月間20万トークン未満の場合、入力トークン100万あたり1.25ドル、出力トークン100万あたり10ドルを支払います。その上限を超えると、レートはそれぞれ2.5ドルと15ドルに跳ね上がります。
トークンはテキストの一部や画像やオーディオ入力などの他のデータを指し、出力トークンは推論の複雑さを反映します。Googleは、これは一部の有名競合他社が請求するものよりもまだ安いと主張し、Anthropicの Claude 3.7 sonnetやOpenAIのGPTモデルはすぐにより高価になる可能性があると指摘しています。
Googleはまだ新しいGeminiモデルをVertex AIで利用可能にしていませんが、それはロードマップに入っています。市場支配を積極的に追求しているにもかかわらず、Googleは特にAGI(人工汎用知能)などの高度なAIの一部の形態が誤用された場合、実際の脅威をもたらす可能性があることを公然と認めています。
DeepMindは研究論文を発表し、AGIが誤用、ミスアラインメント、ミス、構造的欠陥に分類される実質的な害をもたらす可能性があることを認めています。また、非常に高レベルのAI機能へのアクセスを制限したり、追加のセキュリティ対策を採用したり、常時監視を組み込んだりするなど、さまざまな防御策も概説しています。
DeepMindを率いるDemis Hassabisは、「強力なエージェントシステムを構築すれば、科学、医学、そして基本的にあらゆる分野で変革的なものになる可能性がある」と述べています。しかし、その力は大きな監視も必要であることを意味します。彼は、AGI技術が完全に開発された後、社会、経済学者、政府が将来をどのように見たいかについて慎重に考えることが不可欠だと考えています。
これらの新機能、カメラフィード分析、スクリーン共有、スマート検索はすべて、あなたのスマートフォンをリアルタイムのアシスタントに徐々に変えています。店内の何かにカメラを向けたり、ブラウジング中に画面を共有したり、ランドマークの写真を撮ったりすると、Geminiがすぐに助けようとします。
Galaxy S25ユーザーにとって、これらはすべてGemini Advancedのサブスクリプションを必要とせずに動作します(少なくとも今のところ)。これにより、他のブランドも追随するよう促されるかもしれません。もちろん、AIの要約が実際のウェブサイトへのクリックに取って代わったり、小規模なクリエイターが埋もれてしまったりするのではないかと心配する人もいますが、GoogleはAIモードを拡大し、開発者を引き付けるためにより安い料金でGemini 2.5 Proを展開しています。
そして、Apple、Open AI、その他の企業も参入している中、このAIレースは減速していません。プロジェクト・アストラは現在Gemini内で稼働しており、カメラフィードはまだ完全に連続的ではないものの、すでにより意識的なAIに向けた大きな一歩です。まだ癖はありますが、Pixel 9やGalaxy S25をお持ちであれば、今すぐ試して、これがどこに向かっているのかを確認することができます。
以上です。楽しんでいただけたでしょうか。まだの方は、購読ボタンを押してください。ご視聴ありがとうございました。次回の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました