CES 2026で発表された最新のAIおよびロボティクス技術を包括的に紹介する内容である。Boston Dynamicsが正式に製品版Atlasロボットを発表し、Google DeepMindとの提携によりGeminiベースのAI頭脳を搭載したことが明らかになった。LGはゼロ労働ホームを目指すヒューマノイドロボット「Cloid」を披露し、Omniaは360度ボディスキャン健康ミラーのコンセプトを発表した。Motorolaはスクリーンレスのウェアラブルデバイス「Project Maxwell」を、RazerはAIデスクトップコンパニオン「Project Ava」とAI搭載ヘッドセット「Project Mokco」を発表した。Samsungは視覚AIコンパニオン搭載の130インチテレビを、NvidiaはRubinプラットフォームと自動運転AI「Alpameo」を発表し、物理AIの新時代到来を告げる内容となっている。

- CES 2026開幕:注目のAI・ロボティクス発表
- Boston Dynamics Atlasロボットの正式製品版発表
- Google DeepMindとの提携によるGemini頭脳アップグレード
- LGヒューマノイドロボット「Cloid」とゼロ労働ホーム構想
- Cloidの学習機能とスマートホーム連携
- Omniaの360度ボディスキャン健康ミラー
- 長寿テクノロジーとOmnia Body Scan 2
- Motorola Project Maxwell:スクリーンレスAIウェアラブル
- MotorolaのAIプラットフォーム「Cira」とProject Maxwellの機能
- Razer Project Ava:AIデスクトップコンパニオン
- Razer Project Avaの機能と環境認識
- xAIのGrokによるAIパーソナリティ
- Razer Project Mokco:AI搭載ヘッドセット
- Samsung AI TV:視覚AIコンパニオン「VAC」
- Samsung AI TVのスポーツファン向け機能と未来志向の設計
- Noah Pen:OpenAIが目指すAIペンの先駆け
- Nvidia Rubin:AIデータセンターの次世代プラットフォーム
- Nvidia Alpameo:自動運転車のためのAIプラットフォーム
- 物理AI時代の幕開け:自動運転を超えて
CES 2026開幕:注目のAI・ロボティクス発表
CES 2026がいよいよ始まりました。今日の動画では、過去2日間で発表されたAIとロボティクスのトップ発表をお見せします。
Boston Dynamics Atlasロボットの正式製品版発表
第1位はBoston Dynamicsのヒューマノイドロボットです。CES 2026で、Boston Dynamicsは有名なAtlasロボットをバイラル動画のスターから実際の労働者へと正式に卒業させました。Atlasのプロトタイプはこれまでにも見てきましたが、今回は実際の製品版の正式なお披露目でした。つまり、企業が実際に購入して工場で働かせることができるものです。
これが重要な理由として、まず第一に、超人的な動きがあります。Atlasは、もし動いているのを見たことがあれば分かりますが、従来の人間のようには動きません。チートコードを使ったビデオゲームのキャラクターのように動くんです。クールな特徴の一つは、もちろんこの360度回転する関節です。ほとんどの関節が完全な円を描いて回転できます。何かを拾う必要があったり、後ろを見る必要がある時、足を回す必要がないんです。腰と頭を180度回転させるだけでいいんです。
見た目はかなり奇妙ですが、連続的な関節回転ができるロボットを持つことは非常に有用です。なぜなら、より多くのタスクをこなす際に格段に効率的で、効果的で、スムーズになるからです。また、連続稼働のための自己交換式バッテリーを搭載していることがわかります。つまり、これらのロボットは私たちの経済で膨大な量の仕事をこなせるようになるということです。
このロボットは具体的に156自由度を持っています。これは基本的に、このロボットが56個の異なるヒンジや動きの方法を持っているということです。比較すると、人間の腕と手は約27自由度しかありません。そして新しいバージョンのAtlasロボットでは、触覚センシングハンドを搭載しています。これは実際にどのくらいの力で握っているかを感じることができるということです。小さな車の部品を拾うのに十分繊細でありながら、約50kg、つまり110ポンドを持ち上げるのに十分な強さがあります。
Google DeepMindとの提携によるGemini頭脳アップグレード
このロボットに関する最大のニュースで、本当にクールなのは、頭脳のアップグレードを受けているということです。皆さんのほとんどは今やGoogle Geminiをご存知だと思います。CES 2026で、Boston DynamicsがGoogle DeepMindと提携したことが発表されました。このGoogle Gemini頭脳アップグレードのおかげで、プログラマーが何千行ものコードを書く代わりに、マネージャーがこのロボットに話しかけて「場違いな青いクレートを見つけてドアの側に積んでください」と言えるようになりました。そしてロボットは搭載されたAIを使って、どのクレートが青くてドアがどこにあるかを判断するんです。
もちろんGemini Robotics AIを使用しているので、その場で問題を解決することもできます。ご覧の通り、人がその経路を歩いてきても、ただ止まるのではなく、新しいルートを再計算するか、安全に通り過ぎるのを待ちます。
脆弱だった旧バージョンとは異なり、製品版は前述の通り24時間365日の作業用に作られています。全体として、これは根本的に工場を変えるロボットであり、作業中に座って充電する必要がないことを覚えておいてください。驚いたことに、実際にIP67等級を持っています。これは実際に防塵・防水であることを意味します。工場で汚れたら文字通りホースで洗い流せますし、雨の中でも作業できます。
さらに、このロボットがどれほど優れているかについて言えば、見た目や動きの良さだけでなく、実際に華氏-4度から104度、つまり摂氏-20度から40度の極端な温度で作業できます。これは冷蔵倉庫や暑い工場に最適です。長い間、家庭で見かけることはないでしょう。これらは主に工場向けです。そして今年製造されたこれらのロボットはすべて、すでにHyundaiとGoogleに販売されています。これが他の家庭用ロボットと同じかと思っているなら、全く違います。
LGヒューマノイドロボット「Cloid」とゼロ労働ホーム構想
ロボティクスの話題を続けると、LGがヒューマノイドロボットCloid(クロイディーまたはクロイアイと発音)を紹介しました。これは実際にゼロ労働ホームというビジョンの一部です。これは家事を二度としなくていい未来という彼らのアイデアです。パーソナルアシスタント、執事、そして非常にスマートな車輪付きテーブルの組み合わせとして想像してください。
どのように動くか気になるかもしれませんが、先ほど見た他のヒューマノイドロボットやBoston Dynamicsとは異なり、これはフレンドリーに見えて普通の家の中に収まるように設計されています。車輪の代わりに、ボディの形状が従来のロボットとは少し異なることがわかります。
腕と手については、これが印象的な部分で、私たちの腕と全く同じように動く2本の腕を持っています。7自由度があり、私たちと同じように伸ばしたり、曲げたり、ひねったりできます。そして各手には私たちと同じように正確に5本の指があります。これらの指は独立して動くことができ、グラスや畳んだタオルのような繊細なものを拾うことができます。
ロボットの中央部分は傾いたり高さを調節したりでき、高いカウンターや低い棚に手が届くようになっています。そして最も興味深いのは、多くのロボットがこれを選択しない中で本当に魅力的な部分ですが、もちろん車輪です。バランスを取りやすいんです。ホイールベースはずっと安定性が高く、犬がぶつかってきたり子供が引っ張ったりしても倒れません。そしてこのデザインの選択は、より多くのロボットがこのフォームファクターを選んでいるのを見て、家庭用ヒューマノイドロボットでますます明らかになっていると思います。
顔については、基本的に感情や情報を表示するデジタルアイを映すハイテクスクリーンで、本当にクールです。また、見るためのカメラとセンサーも内蔵しています。手をよく見ると、タスクを適切にナビゲートするための搭載ビジョンカメラがあることがわかります。LGはこのヒューマノイドロボットの頭脳をアフェクショネート・インテリジェンス(愛情深い知性)と呼んでいます。これは単なる冷たい機械ではなく、役に立ち、思いやりがあることを意図しているからです。
Cloidの学習機能とスマートホーム連携
どうやらCloidは単に命令に従うだけではないようです。見て学ぶんです。もし午後4時にいつもランニングに行くのを見ていて、雨が降り始めたら、あなたのところに転がってきて「外は雨ですよ。代わりに室内ワークアウトはいかがですか」と言うかもしれません。そしてフィジカルAIと呼ばれるものを使用しているので、散らかった部屋を見て、シャツと皿の違いを識別し、何も壊さずに拾い上げるために必要な正確な動きを把握できます。
実際にLG製品なので、他のすべての家電と接続します。オーブンに予熱を指示したり、洗濯物が乾いているか確認したり、冷蔵庫に話しかけて牛乳が切れているか確認したりできます。これがおそらくこのデバイスの最大のセールスポイントだと思います。実際に他のデバイスとリンクするということです。そうでなければ、このヒューマノイド全体が期待ほど役立つかどうかわかりません。すべてのスマートホーム家電と話せるヒューマノイドロボットがあれば、格段に効率的になると思います。
そしてもちろん、実際のデモでは、LGのヒューマノイドロボットが乾燥機から衣類を取り出し、たたみ、積み重ね、他のデモでは冷蔵庫から牛乳を取ってきたり、朝食を始めるためにクロワッサンをオーブンに入れたりしているのを見ました。この唯一の悪い点は、これが現在まだプロトタイプであるということです。つまり、明日お店に行って買うことはできません。LGは現在、家に一人で置いて安全であることを100%確認するためにまだテスト中です。そしてLGはNvidiaと提携して、世界で最も強力なコンピューターチップを使用してこのヒューマノイドロボットの内部にAI頭脳を構築しています。最終版がどのようになるか、もしこのバージョン、セカンドバージョンをリリースできれば、非常に興味深いですが、それでも非常に興味深いです。
Omniaの360度ボディスキャン健康ミラー
AIヘルスケアに入ると、本当に興味深いものがいくつかありました。これはOmniaのコンセプト製品で、この未来的なコンセプト、360度ボディスキャン健康ミラーを発表しました。どのように機能するか、なぜこれがかなり大きな話題なのかの内訳をお伝えします。
これは単なるガラスではありません。Omniaシステムには2つの主要部品があります。ミラーは、巨大なコンピュータースクリーンとしても機能する全身ハイテクミラーです。そしてベースは、多くの高度なセンサーが詰まった、立つためのフロアマット兼スケールです。一緒に、朝の準備をしながらただ立っているだけで、約1分で深い健康スクリーニングを行います。
どのように機能するか気になるなら、ベースの上に立つと、体を通して小さな安全な電気信号を送ります。何も感じません。これはバイオインピーダンスと呼ばれています。これがミラーが体の中を見る方法です。ミラーはスクリーン上にあなたの3Dバージョンを表示します。ビデオゲームのキャラクターバージョンのような感じで、どこで筋肉がついているか、脂肪が減っているか、さらには姿勢がどう見えるかを見ることができます。
体重だけでなく、血管年齢(心臓と動脈の年齢)、心電図、さらには細胞内の水分量などを実際に測定します。ミラーにはAIボーカルコンパニオンがあります。SiriやAlexaのずっとスマートで共感力のあるバージョンで、実際に話しかけてあなたの病歴を知っているものとして考えてください。
「今日なんでこんなに疲れているんだろう?」と聞くと、時計からの睡眠データとミラーからの心拍数を見て、「昨夜の回復心拍数が低かったです。今日はゆっくりした方がいいかもしれません」と言うかもしれません。そしてあなたの統計に基づいて毎日の目標を与えてくれます。代謝健康が少し低ければ、特定のワークアウトを提案したり、栄養の小さな変更を提案したりするかもしれません。
長寿テクノロジーとOmnia Body Scan 2
もちろん、CESでの大きなバズワードの一つは長寿でした。これは基本的に健康を保ちながら長生きするという洒落た言い方です。Omniaは大きな問題になる前に見えない問題を捉えるように設計されています。例えば、高血圧の初期兆候や、体が砂糖を処理する方法の問題を、病気を感じる前に検出できます。
本当にクールで素晴らしいと思うのは、もしミラーが本当に奇妙なことに気づいたら、本物の医師に接続できることです。データをスキャンしてミラーを通じて共有し、そのガラスの上で専門医とビデオ通話ができます。
現実的な話をすると、もう一度言いますが、これは単なるコンセプトです。つまり、今は彼らの技術が将来何ができるかを見せているんです。残念ながら今日このミラーを買うことはできません。買えたらいいのにと思います。超素晴らしいですから。しかし、彼らはこの実際の技術の中身を新しいスケール、Body Scan 2に入れています。今からお見せしますね。
これが製品です。これはWithings Body Scan 2で、実際に入手できる製品です。Omniaは未来のミラー版でしたが、Body Scan 2は彼らが人々が購入して家庭で使用できるようにリリースしている実際のハイテクスケールです。
これはただのスケールではなく、長寿ステーションであることを覚えておいてください。もうスマートスケールとは呼んでいません。長寿ステーションと呼ばれています。乗るたびに大規模な健康チェックを行うからです。90秒で体をスイープします。体重を測るだけでなく、プラットフォームの上に立って引き込み式のハンドルを90秒間持ちます。
60以上のバイオマーカーを見ることができます。心臓の効率、筋肉の質、体が砂糖をどれだけうまく処理するかなど、健康に関する小さな手がかりである60以上の異なるバイオマーカーを測定します。スマートウォッチにできないことは何でしょうか?裸足で立ってハンドルを両手で持つので、体全体に安全な電気信号を送り、深いデータを取得します。
心臓のポンプ効率を示します。インピーダンス心電図検査と呼ばれるものを使用して、心臓がどれだけ力強く臓器に血液を送り出しているかを見ます。カフなし血圧チェックがあります。腕にきついカフを巻く必要なく、高血圧のリスクがあるかどうかをAIモデルで検出します。もう一度言いますが、早期糖尿病警告があり、血糖調節異常の兆候を探します。これは症状を感じる前に前糖尿病の早期警告兆候を捉えるという洒落た言い方です。
そして細胞の健康です。活性細胞量を見て、異なる周波数で組織を通過する電流を測定することで細胞がどのように老化しているかを見ることさえできます。スキャン後にはヘルストラジェクトリースコアがあります。スケールは将来の予測される健康グレードであるヘルストラジェクトリースコアを与えてくれます。今日何が起きているかだけでなく、AIを使ってストレス、睡眠、食事などの習慣がより健康な未来に向かっているか、または問題がまだ可逆的なうちに今すぐ変更を加える必要があるかを見ています。
本当にクールなのは、高解像度カラースクリーンを持っていることです。バッテリーは15ヶ月持ち、2026年第2四半期頃に約600ドルでリリースされる予定です。正直なところ、私は実際に長寿に興味を持ち始めています。おそらくこれを購入してフルテストを行うでしょう。この製品を手に入れたら、見たいかどうか教えてください。
Motorola Project Maxwell:スクリーンレスAIウェアラブル
さて、Project Maxwellについて話す必要があります。これはAIデバイスです。なぜ彼らがこの製品を作ったのかわかりませんが、ここにあって、かなり興味深いです。CES 2026で、MotorolaはProject Maxwellを発表して大きな注目を集めました。
完全な開示として、実際にこの製品のAI動画をいくつか生成しました。なぜなら第一に、CES 2026に行っていなかったし、完全なCGIレンダリング動画を実際に見なかったからです。そこでAI、Nano、Banana、いくつかのGoogle製品を使って、皆さんが視覚的に楽しめるものを作ろうと思いました。
このデバイスは何でしょうか?何をするのでしょうか?これについて話す必要があります。以前にAIデバイスが失敗するのを見てきたからです。Project Maxwellは、チェーンにペンダントとして着用したり、衣服にピン留めしたりするように設計されたミニマリストのスクリーンレスウェアラブルデバイスです。プレミアムな仕上げの小さなドロップ形の長方形のボディを特徴としています。
従来のディスプレイやセンサーやボタンはありません。代わりに、シャーシに収められた小さなカメラレンズ、高忠実度マイクアレイ、センサースイートに依存しています。インタラクションは完全に音声ベースまたはジェスチャー駆動で、フィードバックは小さな内蔵スピーカーまたは接続されたBluetoothイヤホンを通じて提供されます。
MotorolaのAIプラットフォーム「Cira」とProject Maxwellの機能
この頭脳はかなり興味深いです。これはCiraの最初の主要なハードウェアショーケースです。CiraはLenovoとMotorolaの新しい統合AIプラットフォームです。真空の中で存在していた以前のAIピンとは異なり、Maxwellは携帯電話やPCのコンパニオンとして設計されており、Curaはデバイスがエコシステム全体で知識ベースを共有できるようにします。
マルチモーダル知覚について言えば、AIはもちろん聞くだけでなく、見ます。カメラからの視覚データとマイクからのオーディオを組み合わせて環境のコンテキストを理解するために、知覚融合を使用します。CESのデモンストレーションでは、Motorolaはデバイスが単に質問に答えるのではなく、アクティブアシスタンスをどのように処理するかを披露しました。
コンサートのチラシを見て、デバイスに「そこに連れて行って」と言えます。Curaはカメラを通じて場所を認識し、Motorolaのペアリングされた携帯電話で目的地が事前入力されたGoogleマップを自動的に起動します。もちろん、リアルタイム要約があります。カンファレンスでは、デバイスは基調講演を聞いて、リクエストに応じて、部屋を出ながらでもメインポイントのLinkedIn要約を作成できます。
もちろん、多くの異なるオブジェクト、植物を識別し、メニュー上の外国語テキストをリアルタイムで翻訳したり、指し示している複雑なオブジェクトを説明したりできます。そして、特定のファイルを送信したりリマインダーを設定したりするような複雑なタスクを、携帯電話をポケットから取り出すことなくリモートでトリガーできます。
これはかなり違うと思います。Motorolaは、以前見て失敗したデバイスと比べてかなり異なる位置づけをしようとしています。Motorolaはこれが携帯電話の代替品ではないと明確に述べています。基本的に携帯電話の拡張であり、画面疲れを軽減することを意図しています。自然の中でより多くの時間を過ごしたいけど、接続性は維持したいという人には、これは役に立つものになるかもしれません。
彼らが言ったことの一つは、重い処理の多くをペアリングされた携帯電話やクラウドにオフロードすることで、デバイスはスタンドアロンのAIハードウェアよりも冷たく小さく保たれ、2026年後半に展開される可能性があるということです。興味深いことに、Motorolaはまだ消費者価格や具体的なリリース日を発表していませんが、もしこれが出たら、この製品をレビューして皆さんにどうだったかお伝えします。
Razer Project Ava:AIデスクトップコンパニオン
これは本当に非常に興味深いです。これはRazerのAI Project Avaです。これは基本的にRazerのAIデスクトップコンパニオンで、かなり面白くてミーム化されやすいですが、結局のところ、人々が購入するかもしれない製品だと思います。
これはWindows PCに接続する小さなデバイスで、5.5インチのアニメーションアバターを表示します。デバイスの中に立っているように見えます。基本的にこれに話しかけることができ、話し返してきます。基本的にゲーマー向けのアシスタントのようなものです。
Razerはこれをゲーミングコーチとして位置づけることにしました。上達を助けたり、メカニクスを学んだり、ヒントを与えたり、スケジュール計画やブレインストーミングのための一般的な生活/仕事アシスタントとして、または個性を持つデスクコンパニオンとして、異なるアバターや態度を選べます。
彼らがこれをホログラムと呼んでいる理由について、これはスターウォーズの空中に浮かぶホログラムのようなものではありません。3Dキャラクターが外側から3Dっぽく見えるようにする小さな筐体内の特別な種類のディスプレイです。公開情報から自信を持って言えるのは、デスク上の5.5インチ3Dホログラム/ホログラフィックアバターのアニメーションとして説明されているということです。
この製品についてまだ明確でないのは、使用している正確なディスプレイ技術ですが、効果は本物で目に見えます。しかしここでのホログラムは、小さなディスプレイ内の3D風に見えるアバターのマーケティング用語です。
Razer Project Avaの機能と環境認識
環境で何が起きているかをどうやって知るのでしょうか?これが小さな話すおもちゃではなくスマートコンパニオンのように感じさせる部分です。マイク、カメラ、ビジョン機能を使用してコンテキストを理解すると説明されています。The Vergeのデモでは、あなたとスクリーンを見ることができる内蔵ウェブカメラと、RazerがPCビジョンモードと呼ぶモードについて言及しており、非常に低い遅延でスクリーン上のものを分析します。
もちろん、Windows PCとの有線USB接続があり、Razerはワイヤーは高帯域幅データのためだと言っているので、素早く見て応答できます。売り込みは、質問に答えるだけでなく、理論上はPCで何をしているかに反応するということです。
最も興味深いことの一つは、この製品がどのようにマーケティングされているかです。多くの人が「これは一体何ができるの?」と言っています。Razerはこれを何でもできるアシスタントとしてマーケティングしていますが、現実的な内訳として、第一に、ゲームのヘルプです。Razerはこれをコーチ/トレーナーだと言っており、アイデアはあなたが助けを求めることです。「Xでどうやって上達できますか?」と聞くと、ヒント、戦略、トレーニング、提案を与えてくれ、ゲームルール内に留まることを意図しています。もちろん、Razerはチート懸念について明確に対処しました。
どうやら仕事と生活でも助けてくれるようです。計画の整理、夕食の計画、専門的なタスクの支援をしてくれます。そして最大の角度だと思うパーソナリティアングルは、アバターがあるということです。Kira、Zaynがいて、アバターは生きているように見せるために目の追跡、表情、リップシンクをします。だからAIアシスタントと呼ばれているんです。
デモでは、もちろん人々がこれに話しかけます。生き生きとするキーバインドがあります。今すぐこの製品が欲しければ、20ドルで予約できます。完全に返金可能です。これは最終価格に向けてのものです。現在、2026年後半に出てくる予定です。そしてもちろん、これがいくらになるかはわかりません。もう一度言いますが、この製品を実際に入手してレビューしてほしければ、喜んでそうします。非常に興味深そうですし、Razer製品をいくつか持っています。今のところ、持っている製品では本当にうまくやっています。
xAIのGrokによるAIパーソナリティ
これはxAIのGrokでも動作します。xAIのGrokで見たこれらのキャラクターやアバターすべてがこれらの小さなアシスタントに電力を供給します。人々がこれらのアシスタントとどのように進化するか、非常に興味深いでしょう。つまり、人間がAIとどのように進化するかはまだわかりませんが、その関係がどのように進化するか、非常に興味深いでしょう。多くの異なるキャラクター、多くの異なる企業があります。これらのキャラクターがどのように動き回るか、非常に興味深いでしょう。
Razer Project Mokco:AI搭載ヘッドセット
RazerはAIガジェットを一つだけくれたわけではありません。Project Mokcoをくれました。これはヘッドフォンとマイクとカメラとSnapdragonチップとAIモデルです。基本的にハンズフリーで話しかけることができ、周りで起きていることに基づいて応答できます。
Razerはこれをヘッドセットとして作ることにしました。グラスではなく、これは非常に興味深いです。Razerの売り込みは基本的に、ヘッドフォンはすでに普通で、大勢の人が毎日それを着けており、スマートグラスほど顔に出ておらず、AIアシスタントに必要なセンサーとマイクを隠すのに非常に実用的な場所だということです。
これをAIたらしめているのは耳のカメラです。はい、本当に、耳にカメラがあります。Mokcoにはイヤーカップの周りに2つのファーストパーソンカメラがあり、オブジェクトを認識できます。もちろん、今見えるように、見ているものを理解できます。基本的にヘッドフォンに目がつくと考えてください。
Razerは複数のマイクを使用していることも説明しています。音声コマンドを聞くことができます。近くの会話を拾い上げ、周りで何が起きているかを正確に理解するために環境の手がかりを理解できます。内部にQualcomm Snapdragonチップで駆動されています。どれかはわかりませんが、常にオンのアシスタントのように、常にオンになっているはずです。「それは何?これを要約して」と言えば、耳元で返答できます。
Razerは基本的にこれを、コンテキストを認識し、より効果的になるのを助けるワイヤレスAIビジョンヘッドセットとしてマーケティングしています。RazerはこれがOpenAI、Google、Grokなどの人気AIシステムとインタラクトするように意図されていると言います。基本的に多くの異なるAIと話せるフロントエンドウェアラブルです。一つのアシスタントにロックされていません。
この製品がどのように構成されているかによって、ビジョンとオーディオが見ている標識の翻訳、文書の要約、オブジェクトの識別と説明、そしてもちろん特定のタスクのコーチングなどを可能にするかもしれません。これがどう機能するか非常に興味深いでしょう。もちろん、プライバシーの懸念があるかもしれませんが、この製品が実際にどう機能するか、広く採用されるものかどうか、非常に興味があります。
Samsung AI TV:視覚AIコンパニオン「VAC」
次に、別のAI製品を見ていきましょう。これはAI TVです。CES 2026で、Samsungは単にスマートなTVをリリースしたのではなく、基本的にTVを視覚AIコンパニオン、略してVACに変えました。これを見るスクリーンというよりも、壁に住んであなたの生活を理解する巨大なiPadとして考えてください。
最もクールな部分はスクリーンではなく、VACです。これはソフトウェアであり、SamsungはMicrosoftやPerplexityのようなAIモデルをそのTVの中に直接統合しています。会話型アシスタントがあります。アクション映画を検索するだけでなく、「Stranger Thingsのようなものを見たいけど、宇宙を舞台にしたものがいい」と言えます。そして実際に考えて、具体的な提案をしてくれます。
コンテキスト認識もあります。料理番組を見ていて、好きなサンドイッチを見たら、「それをどうやって作れますか?」と聞けます。そしてTVはレシピを見つけて、スマートフォンや冷蔵庫に直接送ります。
これはメガスクリーンです。フラッグシップモデルは130インチです。完全にクレイジーで、対角線で約11フィートあり、寝室の壁のほとんどをカバーするでしょう。従来のTVと比較すると、従来のTVは色を通して輝くバックライトを使用します。このTVはマイクロRGB技術を使用しており、何百万もの微細な赤、緑、青のLEDライトがそれ自体が光です。
これが優れている理由は、個々のピクセルを完全にオフにできるため、OLEDの完璧な黒を得られますが、スタジアムスクリーンの狂気の明るさがあり、太陽が直接当たっていてもはっきり見えるほど明るいです。
Samsung AI TVのスポーツファン向け機能と未来志向の設計
スポーツファン向けの特定の機能があります。サッカーやフットボールを見る場合、AIは実際にボール、プレイヤー、観客の歓声を別々に識別できます。ゲームの解説者が嫌いだったことがあるなら、TVに「解説者をミュートして」と言えば、AIはスタジアムの歓声とボールを蹴る音を完璧に保ちながら彼の声だけをフィルタリングします。
また、Eclipserオーディオと呼ばれる新しいシステムを使用して、TVの下からだけでなく周りから音が来ているように感じさせます。そして別の言語でYouTube動画や番組を見ている場合、TVはAIを使用してスクリーン上でリアルタイムに翻訳できます。高級スマートフォンでライブ翻訳が機能する方法と同様です。
TVは165ヘルツで4Kをサポートします。クレイジーです。ゲーマーにとって、PS5やPCがラグやモーションブラーなしで信じられないほどスムーズに見えることを意味します。そして古いぼやけたゲームをアップスケールして2026年に作られたように見せるためにAIも使用します。
クレイジーなことに、これは将来性があります。この製品で7年間のアップデートを受けられます。通常、TVはソフトウェアアップデートが停止するため数年後には馬鹿になりますが、Samsungは7年間のアップグレードを約束しました。つまり、2033年でも、TVは今日のiPhoneやGalaxyと同じように最新のアップデートと機能を持つということです。
Noah Pen:OpenAIが目指すAIペンの先駆け
これは実際には新しいCESリリースではありませんが、Twitterでかなりバイラルになっていて、多くの人がCESでリリースされたかのようにこの製品について話していました。彼らがこの製品について話している理由は、第一に、実際にOpenAIが積極的に作ろうとしているものに匹敵するからです。そして以前のCESリリースでは、以前非常に良い成績を収めています。
この製品はNoah Penと呼ばれています。そしてこれは基本的にOpenAIが構築しようとしているものです。私が数日前に作った動画を覚えていますか、見たかもしれないし見てないかもしれませんが、OpenAIがAI搭載ペンを構築しようとしていることについて話しました。これは基本的にあなたの書き込みをキャプチャするAIペンです。
ページをスキャンする代わりに、新しいペンはカメラ、モーションセンサー、圧力センシングの組み合わせを使用して、書いている間に書き込みをキャプチャしようとします。ペンが何を書いたかを把握するためにクールな計算をしていると考えてください。そしてNewerアプリにアップロードできます。
従来の紙に何かを書いた後、Newer Plusアプリですぐに文字起こしできます。検索もできます。整理もできます。そしてAIアシスタント機能があるので、現在の機能に応じてノートについて質問できます。ノートブックを失くしたり、どこにあるか忘れたりする代わりに、基本的に手書きのものの デジタルブレインを得られます。
これは非常に興味深いと思います。本当にクールですから。ペンのサイズは約28g、143 x 10 mmの寸法です。標準的なD1ボールペンインクカートリッジがあります。基本的に普通のペンのようなものです。変な種類の奇妙なペンではありません。クレイジーなことに、これの価格は約299ドルか349ドルです。
これは一部の人にとってヒットかミスになると思います。書くことが大好きだけどノートを失くすのが嫌いで、紙の自由が欲しくて、検索できるようにしたい人にとって、これはおそらくニッチな製品の一つになるでしょう。
これがもう一度非常に関連性が高いと思う理由は、前述の通り、OpenAIがまさにこのようなデバイスを本当に作ろうとしていることを知っているからです。OpenAIが何を作っているか本当に知りたければ、この製品を買って、見て、レビューを見れば、OpenAIがおそらく今年後半にリリースするものを見ることができるでしょう。非常に興味深いでしょう。
Nvidia Rubin:AIデータセンターの次世代プラットフォーム
Nvidia Rubinも発表されました。これはBlackwellの後のAI向け次世代データセンタープラットフォームです。基本的にNvidiaが世界に最新の最も高価なAIモデルをトレーニングして実行するために使ってほしいメモリとネットワーキングスタックのエンジンです。天文学者のヴェラ・ルービンにちなんで名付けられ、プラットフォームはしばしばVera Rubinと呼ばれています。
このように考えてください。NvidiaはRubinをAIスーパーコンピューターとして一緒に動作するように設計された6つの主要なチップで構成されたプラットフォームとして説明しています。Vera CPU、Rubin GPU、Nvidia NVLinkがあり、この全体のRubinを構成する他のものがたくさんあります。だから人々がRubinと言う時、単一のGPUではなく、データセンター全体のAIプラットフォームを意味しています。
これが基本的に非常に重要な理由は、CESで多くの新しいものが来ていることがわかり、これはAIファクトリーがトークンあたりより安くなることを意味します。AIは一度トレーニングして時々実行するから、常にオンの推論とエージェントに移行しています。もちろん、考えて、ツールを呼び出し、ステップを試し、大量のトークンを生成するモデルがあり、それが推論作業の量とコストを爆発させます。コストは基本的に各トークンの生成にいくらかかるかです。
だからRubinは基本的にトレーニングを全面的にスピードアップしながら推論コストを削減することを目指しています。これは本当に重要なことで、彼ら自身がそれについて話しているのを聞けるように少し残しておきます。
Nvidia Alpameo:自動運転車のためのAIプラットフォーム
ここでNvidia Alpameoがあり、これは本当に興味深いです。基本的にNvidiaの自動運転車向けChatGPTスタイルのブレインとトレーニングジムです。これは単一の製品や単一のチップではありません。これは大きな思考する運転モデルであるAlpameo 1とクローズドループで運転をテストするシミュレーターAlpasimのオープンポートフォリオです。
Nvidiaが自動運転が非常に優れていることを実証したので、これは非常に興味深いです。正直なところ、かなり驚きました。Nvidiaが自動運転をやっていることは知っていましたが、ここまで進んでいるとは思いませんでした。
自動運転車は通常の運転ではかなり良いです。しかし考えてみると、ほとんどの実際の道路には無限に奇妙なエッジケースがあります。交通警官が赤信号を通るよう手を振る、紛らわしいものがある建設ゾーン、変なことをする救急車、気が変わる歩行者などです。もちろんここでAlpameo、ビジョン言語アクションモデルが基本的に世界について推論できます。VAがあります。
このように考えてください。ビジョンで世界を見ます。つまりビジョン、カメラビューとデータセット、そして言語で何が起きていてなぜ重要かの内部説明を形成します。そしてアクション。車が何をすべきか、計画されたパスと軌道を出力します。
Nvidiaのポイントは、車が馬鹿な反射機械ではなく、見ているものについて段階的に推論してアクションを選択できるべきだということです。それがこれです。ここでの重要な詳細は、Alpameoが100億パラメーターモデルであり、Nvidiaはこれを後でより小さなモデルを実行するのを助ける教師モデルとして位置づけていることです。
運転をテストするためのシミュレーターであるAlpasimもあります。これらの自動運転評価の多くはオープンループなので、録画されたクリップから何をするかを予測します。
物理AI時代の幕開け:自動運転を超えて
興味深いことに、Alpameoは車を超えて重要です。自動運転は最も難しい現実世界のAI問題の一つだからです。乱雑な現実を理解し、他のエージェントを予測し、不確実性の下で安全な決定を下し、リアルタイムで操作することを強制します。
NvidiaはAlpameoをフィジカルAI、つまり話すだけでなく現実世界で行動するAIの一部として位置づけています。そしてジェンスン・フアンはこれをフィジカルAIのChatGPTモーメントと呼びました。もしこのアプローチがうまくいけば、車だけでなく、あらゆる具体化されたシステムに役立ちます。
配送ロボット、倉庫ロボット、ヒューマノイド、ドローンを考えてください。これらすべてが同じループを持っているからです。見て、推論して、行動して、そしてロングテールエッジケースに押しつぶされます。だからこれがその問題の解決策です。
Nvidiaがこの全体のプラットフォームをどのようにリリースするか、非常に興味深いでしょう。今のところ彼らは素晴らしい仕事をしていると思いますし、将来Teslaや他のAIモデルとどう比較されるか、本当に興味深いでしょう。


コメント