Googleの新しいAIメガネがAIの未来を示している(Android XRアップデート)

AGIに仕事を奪われたい
この記事は約8分で読めます。

4,302 文字

Googles New AI Glasses Are The Future Of AI (Android XR Update)
Join my AI Academy - 🐤 Follow Me on Twitter 🌐 Checkout My website -

Googleが先日のIOイベントで新しいAndroid XRメガネを発表しました。これは10年以上前のGoogle Glassの大失敗とは全く違うものです。今回は実際に成功させたかもしれません。これらのメガネについて分かっていることすべてを、驚くべきAI機能からテクノロジーとの関わり方を実際にどう変えるかまで、詳しく解説していきます。
最後まで見てください。なぜなら、これらが期待する価値があるものなのか、それとも単なる技術的なお遊びなのかについて、私の正直な感想もお話しするからです。
では、これらの新しいメガネとは一体何なのでしょうか。基本的に、Googleは10年以上にわたってスマートグラスに取り組んできて、ついに普通のメガネのように見えるけれど、真剣に次のレベルの技術が詰め込まれたものを作り上げました。
これらのAndroid XRメガネは一日中着用できるよう設計されており、スマートフォンと連携して動作します。カメラ、マイク、スピーカーが搭載されており、ここが素晴らしいところなのですが、一部のモデルにはレンズ内ディスプレイのオプションがあり、視野内にプライベートに情報を表示できます。実際に3つの異なるバージョンがあることを知って驚きました。
ディスプレイのない基本モデル、片方のレンズにディスプレイがある中級バージョン(単眼式)、そして両方のレンズにディスプレイがあるプレミアムバージョン(双眼式)があります。処方箋レンズにも対応しているので、はっきりと見ることとクールな技術を手に入れることのどちらかを選ばなければならないという心配はありません。
これらのメガネを特別なものにしているのは、Google Gemini AIと連携するよう一から構築されていることです。一日中あなたが見るものを見て、あなたが聞くものを聞くAIアシスタントを持っているようなものです。つまり、映画『アイアンマン』の個人用ジャーヴィスを顔に付けているような感じだと想像してください。
これらのメガネが実際に何ができるかに入っていきましょう。ここからが面白くなってきます。Googleのデモで、従業員のニーシャがIOイベントのバックステージでこれらのメガネがどう動作するかを見せました。最も基本的な機能でもすでにとてもクールです。通知を見たり、テキストに返信したり、スマートフォンをポケットから取り出すことなく写真を撮ったりできます。でも、これはほんの始まりです。
私が声に出して「ワオ」と言ってしまった機能の一つは、視覚的記憶能力です。あるデモンストレーションで、誰かが本棚をちらっと見て、顔を逸らしてから、Geminiに「私の後ろの棚にあった本のタイトルは何でしたか?」と尋ねました。すると、メガネは実際に覚えていて答えました。私は別の記事で、メガネがホテルのキーカードを紛失した時にも見つけるのを手伝ってくれるという話も見つけました。
いつも物をなくしている者として、これだけでも私にとっては価値があります。ローリング・コンテクスチャル・ウィンドウのためのメモリーと呼ばれるものでレベルアップしてみましょう。AIは何を追跡すべきかを指示されることなく、あなたが見るものを記憶します。皆さんも気づいたかもしれませんが、少し前に棚を振り返ってこっそり見ました。
私は注意を払っていませんでしたが、Geminiが気づいていたかどうか見てみましょう。
ねえ、私の後ろの棚にあった白い本のタイトルを見かけませんでしたか?
白い本は、ジェームズ・クリアの『Atomic Habits』です。
全くその通りです。
翻訳機能も次のレベルです。メガネは見ているテキストをリアルタイムで翻訳できます。さらに印象的なのは、話し言葉の会話もその場で翻訳できることです。デモでは、二人が異なる言語で話していて、一人はヒンディー語、もう一人は別の言語で、メガネが字幕付きでリアルタイムですべてを翻訳していました。現実生活のための字幕を持っているようなものです。
ニーシャと私はお互いの母国語で話すつもりです。ニーシャはヒンディー語を話します。私は非常にへたくそに話すつもりで、私たち両方のメガネからのフィードをここで見ることができ、皆さんがついていけるよう英語翻訳をリアルタイムで表示します。オーケー、やってみましょう。うまくいきますように。
これはリスクのあるデモです。
ナビゲーション機能もとても素晴らしいことが分かりました。歩きながらスマートフォンを見つめる代わりに、メガネが視野内にターンバイターンの方向を表示できます。現実世界に重ねられた3Dマップで、ビデオゲームのナビゲーションのようですが、現実生活でです。
そして、これを聞いてください。メガネで写真を撮ると、プレビューを目の前ですぐに見ることができます。みんなの目が開いているかどうかチェックするためにスマートフォンを取り出す必要がもうありません。
ねえGemini、ベスティーズのグループチャットで何を見逃しましたか?
エヌとサラがケルシーの昇進を祝うために今日後でジオズピザで会うことについて話し合っていて、あなたが来られるかどうか気になっています。
そこにビーガンオプションはありますか?
はい。レビューではマッシュルームペニーパスタが絶賛されています。魔法の背後にある技術です。
あ、それから今夜私が着るものを知らせるために青いドレスの写真を送ってもらえますか?
これはどうですか?
素晴らしい。送って。
近くにケルシー用のカードを買える店はありますか?
セレンディピティ・カードが良い選択です。
行きましょう。
では、これらすべてが実際にどのように動作するのでしょうか。技術面に入っていきましょう。まず、これらは独立したデバイスではないことを言っておくべきです。Androidスマートフォンに接続し、スマートフォンがほとんどの処理を担当します。これは実際にスマートなことで、メガネ自体をより軽くして、バッテリー寿命を向上させることができるからです。
私が読んだところによると、一回の充電で一日持つはずですが、どれくらい使うかによると思います。物理的なデザインもかなり興味深いです。明らかに見えてダサかったオリジナルのGoogle Glassとは違い、これらの新しいメガネは普通の眼鏡により似て見えるよう設計されています。
通常のメガネよりもフレームと縁が厚いですが、スマートグラスの以前の試みよりもはるかに目立ちません。Googleが一人でこれに取り組んでいないことも知って驚きました。Samsungとパートナーシップを組んでAndroid XRプラットフォームを開発し、Gentle MonsterやWarby Parkerなどのアイウェアブランドとパートナーシップを発表して、これらのメガネのスタイリッシュなバージョンを作成しています。
将来的には、Caring Eyewear 2とも協力する計画です。これは賢い動きです。正直に言って、これらの見た目が良くなければ、技術がどれほどクールでも誰も着用しないからです。
しかし、ショーの真の主役は、Gemini AIがこれらのメガネにどのように統合されているかです。このAIは単にコマンドに応答するだけではありません。あなたが見ているものとその周りのコンテキストを積極的に理解します。オブジェクトを認識し、テキストを読み、複数の言語を理解し、数分前に見たものまで覚えることができます。これは市場の他のスマートグラスの能力をはるかに超えています。
では、ARメガネの未来について私が実際にどう思っているか。正直に言います。これらのメガネについて最初に聞いた時と、数ヶ月前にデモを見た時は、実際にかなり懐疑的でした。つまり、10年前のGoogle Glassがあまりにもひどかったので、本当に最高の期待を持って臨んではいませんでした。
私はかなり良いMeta Ray-Banメガネを持っていますが、それらにはそれほどAI機能がありません。しかし、すべての機能を深く調べて、MetaやGoogleを含む業界全体の期待される向上を見た後、私はARメガネの未来に対して本当に心から興奮しています。
タイミングも適切に感じられます。Google Glassが出た当時、技術がまだそこまで到達していませんでした、特にAI方面で。今、Geminiの進歩、より強力だが効率的なプロセッサ、そしてより良いディスプレイ技術により、スマートグラスがついにプライムタイムの準備ができているかもしれません。
私が読んでいた記事で興味深い点を見つけました。これらのメガネは人々が日常生活で抱える実際の問題を解決します。道案内が必要ですか?調べることができます。外国語が理解できませんか?メガネが翻訳してくれます。何かを失くしましたか?メガネがどこに置いたか覚えています。これらは生活を楽にする実際の使用事例であり、単なるお遊びではありません。
とはいえ、まだかなり大きな疑問があります。Googleはまだ価格や発売日を発表していませんが、安くはないことは確かです。特に双眼ディスプレイバージョンはかなりの金額がかかるでしょう。そして、プライバシーの懸念もあります。これらのメガネを着用している人が自分を録画している可能性があることを知って、人々はどれくらい快適に感じるでしょうか?
Googleはカメラがアクティブな時にLEDライトが点灯すると言っていますが、それで十分でしょうか?バッテリー寿命も、もちろん別の懸念です。確かに、一日持つと言っていますが、実際にはそれはどういう意味でしょうか?1時間のアクティブ使用?8時間?バッテリーが切れたらどうなりますか?顔に死んだ技術を着けたまま立ち往生するのでしょうか?
これらの疑問にもかかわらず、私は実際にかなり楽観的です。これは私たちが周りの世界と関わる方法を本当に変える可能性のある技術の一つのように感じられます。目の近くにスクリーンを持つことだけではありません。あなたが見るものを見て、世界をより簡単にナビゲートするのを手伝ってくれるAIアシスタントを持つことです。
そういうわけで、GoogleのAndroid XRメガネの話でした。今年後半に登場予定で、開発者はすぐにそれらのための開発を始めることができるようになります。Googleはすでに信頼できるテスターとプロトタイプをテストしており、これはGoogle社員と選ばれたパートナーのことだと思います。

コメント

タイトルとURLをコピーしました