マーク・ザッカーバーグが秘密の技術を公開:ARIAメガネ!

AGIに仕事を奪われたい
この記事は約13分で読めます。

7,316 文字

Mark Zuckerberg dévoile une technologie SECRÈTE : Les lunettes ARIA !
Apprenez l'IA sous toutes ses formes et rejoignez la communauté VISION IA ! la newsletter vis...

メタの新型コネクテッドグラス「Aria 2」は、業界で誰も達成したことのない段階に到達しました。今日は、私たちとコネクテッドデバイスとの関係を再定義する技術に飛び込みます。これまで見てきたものとは異なり、このメガネは単なるガジェットではありません。何年もの間これらの技術の進化を追跡しテストしてきた私は、メタが作り出したものが本当に印象的だと断言できます。
この動画では、このメガネの背後に実際に隠されているもの、なぜそれがすでに一部の人々の生活を変えているのか、そして人工知能の未来についてそれが私たちに何を示しているのかをお見せします。メタのAria 2の完全なツアーに行きましょう。この動画が気に入ったら、チャンネルをサポートし、このような技術に関するコンテンツにアクセスするためにぜひ登録してください。
ほとんどのコネクテッドグラスは実際よりもクールに見えますが、メタの新しいAria 2グラスは本当に全く別のレベルです。マーク・ザッカーバーグとメタチームが何を成し遂げたのか、そしてなぜこのメガネが真の革命を表しているのかを詳しく見てみましょう。
メタのAria 2は、本当に異なるメガネのように見えます。単に顔に装着されているだけではなく、目、手、さらには心拍数を追跡するセンサーを備えています。特に、アイトラッキング技術は、バーチャルリアリティと拡張現実の分野で多くの人が期待していた技術でした。これらのデバイスの背後にある技術は絶対に素晴らしいですが、最も印象的なのは、研究者たちがこれを使用してAIとロボット工学の未来を形作っていることです。それを身につけるだけで5年先に飛んだような感覚になります。
これらのメガネで本当に印象的なことの一つは、従来の意味でのAIではないことです。ChatGPTや仮想アシスタントのようなものではありませんが、実際にはそれよりもはるかに優れています。これらには高度なセンサーと直接統合されたAI処理能力が搭載されており、あなたの視点から大量の詳細情報を収集します。つまり、あなたが見るもの、聞くもの、さらには体の動きを捉えるのです。SLAM(同時局在化とマッピング)、トラッキング、音声認識など、メガネ内部の技術はすべてメガネ上で直接機能するため、インターネットに接続する必要はありません。
研究者たちはこれらの詳細なデータを使用して、AIモデルを作成したり、AIロボットをより自然な方法で世界と反応し相互作用するように訓練したりしています。このメガネは基本的に持ち運び可能なAI研究ラボのようなものであり、科学者や開発者に新しいアイデアを実験し、ロボットを改良し、よりスマートなAIシステムを構築するためのツールを提供しています。
ここまでは少し技術的な部分でしたが、今から動画のクリップをお見せします。彼らが最近私たちに紹介したプロジェクトAriaについて翻訳した動画をご覧ください。
「Project Ariaでは、あなたが知覚するのと同じように知覚できるセンサーセットを備えたウェアラブルデバイスを再考しました。これにより、あなたが誰であるかをより理解し、ロボット工学の新たな進歩を可能にする新世代の人工知能の開発が可能になります。Project Ariaは人間中心の常時アクティブなコンピューティングの革命を起こすために最初から設計されました。
私たちは旅の次のステップを発表できることを嬉しく思います:Ariaグラスの第二世代です。Ariaグラスを使用することで、装着者のコンテキストと環境のより深い理解を持つAI機能を開発しています。AIとARの限界を押し広げる研究者にとって最適です。ここに見えるものはこれと同じです。私たちは追加のセンサーでセンサーセットを強化しました。位置特定と身体的な追跡を向上させるためにコンピュータービジョンカメラを追加しました。重量を増やすことなく、バッテリー容量を40%以上増加させました。
デバイスにはコンタクトマイクと特殊なマイクが装備されており、あなたの声と近くの人の声を区別できます。Aria 2は室内でも屋外でもあなたの位置を特定します。高度なアイトラッキングカメラはあなたの視線を追跡して何を見ているかを理解し、手を追跡して何と対話しているかを特定し、心拍数をモニタリングして全体的な健康状態を包括的に理解します。
多くの信号をリアルタイムでデバイス上で処理する能力を導入しました。これを行うと、データ収集とその後の処理のコンテキストから離れ、ユーザーと対話を始めることができます。可能性があるものを探すだけでなく、実際に体験することができます。
赤玉ねぎを見つけるのを手伝ってください。赤玉ねぎに案内します。赤玉ねぎはここにあります。
Project Ariaの非常に重要な部分は、私たち自身の能力をはるかに超える企業やアカデミックな研究所とのパートナーシップを構築することでした。私たちは個人情報を保護する研究プロセスに引き続き取り組んでいます。第二世代のAriaグラスとの旅はまだ始まったばかりです。機械と人間の知覚の間のギャップを埋めるデバイスを使って、研究コミュニティが何を達成できるか想像してみてください。一緒に、私たちが現実を体験することの意味を発見することができます。」
印象的ですね。メタや障害のある人々にサービスを提供する分野で活動する企業が十分に認識されていないことの1つは、このメガネが視覚障害を持つ人々にどのように使用されるかということです。
今見たクリップでは、Envisionという会社が現在Aria 2メガネを取り入れ、視覚障害者にとって非常に有用なものになるよう適応させています。Be My EyesやChatGPTのような視覚障害者を支援する解決策はすでに見てきましたが、このデモで本当に革命的だと思うのは、AIが実際に人々の生活を具体的に変えているのを目の当たりにしていることです。
注意深く見れば、この技術は単に環境を説明するだけでなく、この女性のために本当の3D精神マップを作成していることがわかります。Ariaメガネのセンサーは完全な調和で動作し、物体を検出し、空間内での位置を理解し、この情報を直感的に伝えます。これは、空間コンピューティングに関する以前の動画で説明したことと全く同じです。AIはテキストを処理するだけでなく、私たちの物理的な世界を理解する必要があります。
私は同様の技術に取り組んでいる他の企業(Humaneなど)を密接に追跡してきており、私たちが転換点にいることを断言できます。すべてのメディアがテキストや画像を生成するChatGPTに夢中になっている間、真の変革的なイノベーションはここで起きているのです。そして正直に言うと、それがテクノロジーガジェットと真に有用なイノベーションの違いなのです。
このメガネは単なるギーク向けのおもちゃではありません。それは実際に何百万人もの人々の実際の問題を解決することによって、具体的に私たちの日常生活を向上させるAIの未来を表しています。そしてそれは、エッセイや画像をオンデマンドで生成することよりも無限に重要なことです。
もう1つの印象的なクリップをお見せしますが、その前にひとつお話ししたいことがあります。もしこれらの進歩が私と同じくらいあなたを魅了しているなら、私が準備したものを気に入るでしょう。AIを教えます。私は実用的で効果的、そして何よりも手頃な価格の、AIエコシステムに直接飛び込むことができる超アクセスしやすいトレーニングを作成しました。
複雑なタスクを自動化するためにこれらの推論モデルを活用する方法をお見せします。AIをマスターして、プロセスを自動化し、補完的な収入を生み出すか、単にこの技術革命の最前線に立ち続けたいと常に思っていたのであれば、今がチャンスです。正直に言って、数ヶ月のうちにClaude 3.7のようなハイブリッド推論モデルを活用する方法を知っている人々は、他の人々に対して決定的な競争上の優位性を持つでしょう。もし興味があれば、すべてのリンクはこの動画の下のピン留めされたコメントにあります。このチャンスを逃さないでください。これは一度だけ起こる種の重要な転換点です。
それでは次のクリップをご覧ください。
「それは失ってはじめてその価値に気づくものの一つです。31歳で視力を失った時、それは少しそんな感じでした。視覚的なナビゲーションだけでも私たちが直面する課題、それによって失われる独立性のレベル。多くの視覚障害者にとって、独立性はほぼ常に情報へのアクセスを意味します。
Ariaは、視覚障害者に視覚的な世界をアクセス可能にする人工知能や空間音響などの技術を組み合わせることを可能にします。私たちの多くのフィードバックが新しいデバイスの構築に統合されたのを見るのは素晴らしいことでした。これはEnvision、Lighthouse San Francisco、Metaの間の真の共同作業です。私たちは本当にコミュニティと共に出かけて共同設計し、彼らの経験から学びたいと思っています。彼らは本当にこれらの技術を試したいと思っており、非常に熱心です。彼女はこれらの機能をテストし、早期のフィードバックを提供しています。
GPSは単に室内では機能しません。通常、ヘッドホンで音を聞くと、それはあなたの頭の中から来ているように聞こえます。空間音響は、外の世界の実際の場所から来ているように聞こえるヘッドホンを通じて音を再生することを可能にする技術です。メガネを装着し、友人に話しかけるように話しかけます。
「リンゴを取るのを手伝ってください。」
それは店内の場所から実際の音を始めます。メガネは実際に使用されるにつれてマッピングすることができます。さまざまなポイントを割り当て、そのスペースにあるはずの商品でラベル付けすることができます。
「リンゴはここにあります。」
「どんなリンゴがありますか?」
「ここにはGranny Smith、Cosmic Crisp、Honeycrisp リンゴがあります。」
「Granny Smith リンゴを取ります。」
「赤玉ねぎを見つけるのを手伝ってください。」
「赤玉ねぎはここにあります。」
「これは赤玉ねぎですか?」
「はい、それはあなたの手にある赤玉ねぎです。」
食料品店に入って欲しいものにナビゲートする自由を持つだけで、それは効率的で、速く、単に素晴らしかったです。
「今日はこれだけです。レジに連れて行ってください。」
これはすぐに商品化される準備ができているわけではありませんが、興奮するのは、多くの人々にとってこれが非常にうまく機能しているように見えることです。これらのパートナーなしでは、今日私たちがやったことをすることはできませんでした。シャロンのような人が自分で選んだ食料品を選ぶのを見ると、それは私たちにやる気を与えます。」
あなたはメタの方ですね、おそらく彼らのメガネの最新アップデートについて知りたいと思うでしょう。最近メジャーアップデートを受けた最新のRay-Ban Metaについてお話ししなければなりません。先ほど見たAria 2メガネとは異なり、それらはまだ研究所向けですが、Ray-Ban Metaはすでに店舗にあり、はい、私はその発売以来時々使っている一組を持っています。
特に私を魅了しているのは、こんなにも控えめなフォーマットにAIが微妙ながらもパワフルに統合されていることです。メタはこのような高度なテクノロジーが搭載されているとは誰も疑うことのないエレガントなフレームに、この技術を小型化することに成功しました。彼らのAI専用チップセットを分析しましたが、即時機能を提供しながらローカル処理を最適化した方法は印象的です。
先ほど見た未来的なプロトタイプとは異なり、これらのメガネは現在実際に入手でき、この革命を体験し始めることができるため、言及しておきたいと思いました。2027年を待たずに拡張現実の世界に飛び込みたい人にとって、現在市場で利用可能な最高の入り口です。
しかし注意してください、これは魔法のデバイスではありません。長時間装着すると重いなど、まだ多くの弱点があり、バッテリーもあまり良くありません。もしまだ拡張現実を知らないなら、Ray-Banを試す前にまずMetaQuestを試すことをお勧めします。
さて、メタの他のメガネ、Orionメガネについても言及しないのは公平ではないでしょう。これらは他のメガネとは異なり、実際にはMetaConnect 2024で発表された高度なARメガネです。私はその技術がとても素晴らしかったので、それについて2つの動画を作りました。これらは異なるプラットフォームを代表しているため非常に興味深いですが、発売されればおそらく主流になると思います。発売予定日は2年後の2027年ですが、拡張現実は特にこのように細いメガネでは上手く実現するのが難しいと思います。
このパッセージをご覧ください。
「約10年前、私はこれらのメガネを作るために世界最高の人々のチームを結成し始めました。要件は実際にはかなり単純ですが、それを実現するための技術的な課題は非常に大きいものです。それらはヘッドセットではなくメガネでなければならず、ワイヤレスで、100g未満でなければなりません。
それらは広い視野角、ホログラフィックディスプレイが必要で、詳細を識別するのに十分に鮮明で、さまざまな照明条件で見るのに十分に明るく、どこへ行っても映画館のスクリーンや複数のモニターを表示するのに十分な大きさが必要です。カフェにいても、飛行機の中にいても、どこにいても。そしてあなたはそれを通して見ることができなければならず、他の人もあなたを通して見て目と目を合わせることができなければなりません。
これはパススルーリアリティではなく、ホログラムが重ねられた物理的な世界です。だから誰かがメッセージを送ってきたら、あなたはそれを見ることができ、電話を取り出す代わりに、単に小さなホログラムがあり、いくつかの微妙なジェスチャーで現在の瞬間から気をそらすことなく応答することができます。
または、遠くにいる人と一緒にいたい場合、その人はホログラムとしてあなたのリビングルームにテレポートすることができ、まるで本当にあなたと一緒にいるかのようになります。指をタップしてチェスやピンポンのホログラムの一部、または一緒にやりたいことを何でも出現させることができます。働いたり、遊んだり、その他のことができます。」
2030年のメガネの未来について疑問に思っている方々のために、Googleのジェマイニの共同責任者であるノーム・シャジールが言っていることを見てください。
「2030年までに、実際にメガネの中にAIアシスタントがあり、リアルタイムでアドバイスを提供し、問題を解決するでしょう。そしてそれはおそらくデフォルトのフォーマットになるでしょう、ちょうどAlexaのように。毎回電話を取り出すのはかなり不便で、メガネはすでにあなたが身につけている基本的なアクセサリーだからです。
より多くは常に良いと思います。その時点でAIに世界のGDPのどれだけの割合を人々が費やすことにするか、そしてAIシステムがどのようになるかを考えてみると、それはおそらくあなたのメガネに組み込まれた一種の個人アシスタントで、あなたの周りのすべてを見ることができ、あなたのすべてのデジタル情報と世界中のデジタル情報にアクセスできます。
あるいは、あなたがジョー・バイデンであれば、リアルタイムで何についてもアドバイスを提供し、問題を解決し、役立つ指示を与えたり、話し合ったりできる内閣とイヤピースを持っています。そしてこのアシスタントは、それがあなたに与える可能性のある潜在的に有用な影響について、あなたの周りで見るものすべてを分析したいと思っています。
だから私はこう想像できます。それはあなたの個人的なアシスタントまたは個人的な内閣であり、計算能力に2倍のお金を使うたびに、デバイスはIQが5〜10ポイント賢くなります。あなたは1日10ドル使ってアシスタントを持つことを好みますか、それとも1日20ドル使ってより賢いアシスタントを持つことを好みますか?それは人生のアシスタントであるだけでなく、仕事をより良く成し遂げるためのアシスタントでもあります。」
AIの統合についてどう思いますか?とにかくこの動画を楽しんでいただけたなら嬉しいです。作るのは本当に楽しかったです。もし私をサポートしたいなら、登録してこの種のコンテンツを見逃さないようにすることができます。また、ニュースレターを作成したことを思い出させます。リンクは説明にあります。そして最後に、AIトレーニングへのリンクも動画の下にあります。これは絶好のチャンスです。今こそAIの使い方を学ぶ時です。ありがとう、次回またお会いしましょう。
私はAIを教えます。実用的で効果的、そして何よりも手頃な価格の、AIエコシステムに直接飛び込むことができる超アクセスしやすいトレーニングを作成しました。複雑なタスクを自動化するためにこれらの推論モデルを活用する方法をお見せします。AIをマスターして、プロセスを自動化し、補完的な収入を生み出すか、単にこの技術革命の最前線に立ち続けたいと常に思っていたのであれば、今がチャンスです。正直に言って、数ヶ月のうちにClaude 3.7のようなハイブリッド推論モデルを活用する方法を知っている人々は、他の人々に対して決定的な競争上の優位性を持つでしょう。もし興味があれば、すべてのリンクはこの動画の下のピン留めされたコメントにあります。このチャンスを逃さないでください。これは一度だけ起こる種の重要な転換点です。

コメント

タイトルとURLをコピーしました