本動画は、CES 2025の会場からレポートしながら、同時期に発表された重要なAI関連ニュースを総括している。OpenAIのChatGPT Healthによる医療データ統合、NVIDIAの新型AI専用チップReubenの発表、LenovoのマルチデバイスAIアシスタントKira、GoogleのGemini機能拡張、MetaのAI眼鏡新機能、そしてMetaの元主任AI科学者ヤン・ルカンによる辛辣な内部批判まで、AI業界の最前線で起きている技術革新と組織的対立を包括的に紹介する内容である。特にヤン・ルカンがMeta AI責任者アレクサンダー・ワンを「経験不足」と批判し、Llama 4の結果改ざん疑惑に言及した点は、AI業界の権力構造における緊張関係を浮き彫りにしている。

CES現地レポートとChatGPT Healthの衝撃
さて、私は今ラスベガスのCES会場に来ています。たくさんのクールなテクノロジー、たくさんのクールな発表がありました。
4人の狼たちがラスベガスの砂漠を一緒に駆け回っているようなものですね。
CES会場内で見たクールなテクノロジーについては、別途動画を作成する予定です。ああ、勘弁してくれよ。
でも、CES会場外でも素晴らしいニュースがいくつかありました。Lenovo Kira、ChatGPT Health、そしてMetaからの新鮮なドラマなどです。これらすべてについて、今からお話ししていきます。砂漠の真ん中での会議はいつも私を緊張させました。怖い場所ですからね。
まず最初に、ChatGPTがあなたの新しい主治医になるという話をしましょう。つまり、まだそうなっていないなら、という意味ですが、私の場合はすでにそうなっています。ChatGPTは今週ChatGPT Healthを発表しました。
記事にはこう書かれています。「現在、健康情報はポータル、アプリ、ウェアラブル、PDF、医療記録などに散在しています。そのため、全体像を把握するのが困難です。医療記録やApple Health、Function、My Fitness Palなどのウェルネスアプリを安全に接続できるようになりました。ChatGPTが最近の検査結果を理解したり、医師との診察の準備をしたり、食事や運動ルーチンへのアプローチについてアドバイスを得たり、あなたの医療パターンに基づいてさまざまな保険オプションのトレードオフを理解するのを手伝ってくれます」。面白そうですね。
ディストピア的に聞こえますね。
待って、それって健康データを保険会社に送信して、保険会社がそれを使ってカバレッジを提供するかどうかを決定するってこと?
とにかく、今のところこのChatGPT Health機能はベータ版のようなものです。実際に使うにはウェイティングリストに登録する必要があります。まだ全員に公開されているわけではありません。
説明欄のリンクから、ウェイティングリストに登録できます。どうやらこれはChatGPTの全く新しいセクションのようです。通常のChatGPTチャットは1つのセクションにあり、健康に関する話をする健康データは、ChatGPTの完全に別のセクションにあります。
NVIDIAの大型発表とAIファクトリー構想
CESからの最初のニュースとして、NVIDIAから大量のニュースがありました。ジェンスン・フアンが彼の有名な2時間にわたる基調講演を行い、次々と発表を行いました。でも、皆さんが興味を持っているのはこの部分だと思います。
基調講演の中で、ジェンスンはReubenを発表しました。これはNVIDIAの初の極限共同設計6チップAIプラットフォームで、現在フル生産中です。また、Alpomeo、Alpomeo、Alpomeoも紹介しました。これは実際には車両用のオープン推論モデルです。AI搭載の車を作りたい企業が自由に使えるオープンモデルのようなものです。
見てください。ホーマーはロボットカーの1台を手に入れました。
アメリカ製のロボットカーの1つですね。
ReubenGPUとVera CPUがあり、これらはすべてジェンスンが「AIファクトリー」と呼んでいるものに組み込まれるように設計されています。彼はデータセンターをAIファクトリーと呼び直そうとしているようです。
Reuben GPUは50ペタフロップスのNVFP4推論性能を持っています。Vera CPUはデータ移動とエージェント処理用に設計されています。
それからNV Link 6スケールアップネットワーキング、Spectrum Xイーサネットフォトニクススケールアウトネットワーキング、Connect X9 Super NixとBlue Field 4 DPUがあります。これらが何を意味するのか全く分からないなら、私たちは同じ立場にいます。
NVIDIAとジェンスンの基調講演からの大きなポイントは、彼らが採用量に追いつくことに重点を置いているということです。彼らはAI採用の量に対してGPUを十分速く作れないでいます。そのため、誰もがこのAIとそれを動かすために必要な計算能力にアクセスできるよう、十分な容量を確保するために本当に物事を加速させています。
Lenovo Kiraのマルチデバイスエコシステム
話を進めて、ラスベガスのSphereでLenovoがあらゆる種類の新製品を発表した素晴らしい基調講演がありました。
Motorolaの携帯電話がまだ存在していることを知っていましたか? 私はSphereで彼らが取り組んでいるすべての発表をしているときにそれを知りました。Motorolaの携帯電話、Motorolaの小さなウェアラブルピン、新しいLenovoコンピューター、ほぼあらゆる種類のデバイスがあります。LenovoはAIを中心にこれらの新バージョンを発売しています。
彼らはまた、Kiraと呼ばれるものを発表しました。Q-I-R-Aと綴ります。Kiraと発音すると思います。しかし、これはデバイス間で機能するAIプラットフォームのようなものです。Motorolaの携帯電話を持っていれば、AIは携帯電話で機能します。Lenovoのラップトップを持っていれば、ラップトップで機能しますが、実際には同期して互いに通信します。
携帯電話で話し始めて携帯電話のAIと話をすると、その会話はLenovoラップトップ上で記憶され、ローカル計算とクラウド計算の両方を使用しています。実際にはこの多くをデバイス上で行い、2つの間で同期しています。
このKiraアシスタントは単一のモデルに基づいていません。ここにはこう書かれています。「Kiraは単一のフラッグシップAIモデルを中心に構築されていません。代わりに、モジュール式です。内部では、Azureを通じてアクセスされるMicrosoftとOpenAIのインフラストラクチャを基盤とするクラウドベースのモデルとローカルのオンデバイスモデルを混合しています」
基本的に、OpenAIやAnthropic、Googleから単一のモデルを選ぶだけではないようです。その時点で最高のモデルを選んで、それをこのKiraが使用するようです。
1つの欠点は、LenovoデバイスとMotorolaデバイスを使用しなければならないことです。私の意見では、これはLenovoがAppleと同様のロックインされたエコシステムを作ろうとする試みのように聞こえます。なぜなら、MotorolaとLenovoラップトップでKiraアシスタントを使い始めたら、彼らのエコシステムから離れたくなくなるからです。
Lightricks LTX2とローカルAI動画生成の革命
これは単なる別のAI動画のように見えるかもしれませんが、ここでは完全に異なることが起こっています。これはLTX2です。動画と音声を生成します。
この世のものとは思えません。
そして、私のGPU上で100%ローカルで動作しています。つまり、これらの動画を作るためにクラウド処理は一切使用されていません。Lightricksはモデルファミリー全体をオープンソース化しました。
オープンAPIを意味するだけでなく、オープンウェイト、完全なトレーニングコード、評価ベンチマークを意味します。トレーニングレシピも含まれています。したがって、正確なユースケースと好みに合わせてモデルを完全にファインチューニングできます。
これは長期的に非常に多くの時間を節約します。なぜなら、モデルは10回も行き来してすべてのクレジットを無駄にすることなく、探しているものを正確に生成するからです。
ローカル反復の速度が得られ、自分のデバイス上にあるため、知的財産がマシンから離れることはありません。これはビジネス、スタジオ、クリエイターにとって非常に重要です。NVIDIA RTX GPU用に最適化されているため、家庭用ワークステーションで高品質なローカル生成が実際に実用的になります。
テキストから動画、画像から動画、深度条件付け、音声アライメントすべてを同じプラットフォームで実行できます。興味があれば、ウェイトは現在公開されています。リポジトリをクローンし、ベンチマークを確認し、自分で実行するだけです。リンクは下の説明にあります。今日の動画のこの部分をスポンサーしてくれたLitrixに本当に感謝します。
GoogleのGemini時代とGmail AI機能の全面展開
これはCESからのものではありませんが、今週Googleからもいくつかの発表がありました。まず、GmailがGemini時代に入るという事実から始めましょう。個人的には、すでにGemini時代に入っていると思っていました。
基本的に、これはGmailに多数の新しいAI機能を展開しているということです。しばらくGoogleの有料顧客だった場合は、すでにこれらのAI機能の一部を持っていたかもしれませんが、すべての人に展開しています。
展開されている機能のいくつかを紹介します。AI概要を使用して受信トレイに何でも質問できます。Google検索を行うのと同じように、AI概要は掘り下げる必要なく情報を回答に変えます。数十の返信があるメールを開くと、Gmailは会話全体を重要なポイントの簡潔な要約に統合します。
これは明らかに、概要を生成するためにGeminiを内部で使用しています。今週から、誰でも「Help me write」機能を使用してメールを磨き上げたり、ゼロからメールを下書きしたりできるようになりました。
新しい返信候補もあります。メールが届くと、返信候補が表示されます。もう考える必要すらありません。ボタンを押すだけで、自動的に返信してくれます。とにかく、誰が考える必要があるでしょうか?
受信トレイ内で最も重要なものを正確に特定するのに役立つ機能もあります。ここにはこう書かれています。「受信トレイは更新で満たされています。重要なものもあれば、単なるノイズもあります。新しいAI受信トレイは雑音をフィルタリングして、重要なことに集中できるようにします」
基本的に、パーソナライズされたブリーフィングを提供するようです。To-Doをハイライトし、受信トレイの内容に基づいて重要なことをキャッチアップします。
実際、この機能については多くの興奮を聞いています。多くの人が、これが多くの人々にとって実際にAIを採用して使用するゲートウェイドラッグのようなエントリーポイントになるだろうと言っています。
さあ、デューイ。パーティーに参加しよう。
いや、デューイは参加しない? これは欲しくない。ここから出て行け。
なぜなら、最近Gmailを使っていない人はいないでしょう? そして、Gmailのこの機能により、誰もがAIを使い始めることになります。あなたはAIを使うことになり、それを気に入ることになります。
話を進めて、他のGoogleニュースでは、Google TV向けの新しいGemini機能を導入しました。これはCESでの発表でした。CES中にこの発表を見逃し、この記事を読んでから初めて知りました。
彼らはGeminiがGoogle TVをさらに便利にし、テレビと対話するためのより多くの方法をもたらす方法をプレビューしていました。機能の1つは、さまざまな番組のAI概要を提供することで、AI概要に基づいて視聴するかどうかを決定できます。
Geminiを使用して、Google Smart TVからGoogle Photosライブラリを実際に検索できるようになります。テレビで個人の写真を再想像するためにNano BananaとVOを使用できるようになります。
おそらく最もクールで、ほとんどの人が実際に使用する機能は、GoogleのAIを使用して実際に設定を変更できる機能です。
「テレビが明るすぎる。暗くして」などと言うことができ、実際にテレビの設定に入ってその設定を変更してくれます。
Meta AI眼鏡の新機能と供給問題
CESフロアを探索するのに数日間を費やしましたが、これらの新しいAI眼鏡がいたるところにあります。AI眼鏡会社を30から40社は見たと思います。どこにでもあります。
これは特にMetaの眼鏡についての話です。CES期間中、Meta眼鏡に関する発表がいくつかありました。1つは今欲しいと思うもので、Meta Display眼鏡内の新しいテレプロンプター機能です。
話しているときに、これから言おうとしていることが目の前にストリーミングされて実際に見ることができ、3分ごとにプロデューサーを見上げて次に何を言うべきか尋ねる必要がありません。
よくやっているよ、kid。
ありがとう。
新しい手書き機能もあります。これは、テーブルの向こうの人の話を聞いているふりをしながら、実際には密かに他の誰かにテキストメッセージを送ることができるように設計されています。
膝の上に手を置いて文字を描くと、Meta Display眼鏡を使用して手で文字を描くだけでテキストメッセージに返信する機能です。
テーブルの向こうのデートに興味があるふりをしながら、実際には今夜どこでフットボールの試合を見に行くかについて友達にテキストメッセージを送ることができます。非常に不穏でもあります。
4つの新しい都市で歩行者ナビゲーションを展開し、合計32都市になりました。Meta Display眼鏡について行った他のいくつかの発表がありますが、この記事へのリンクは説明欄に載せておきますので、彼らがちょうど展開したすべてのことについて読むことができます。
しかし、このMeta Display眼鏡の話題に触れている間に、どうやら需要が本当に高かったようです。Metaは需要に応えるのに苦労しているため、計画どおり迅速に展開しないことになります。
どうやら、Meta Display眼鏡は計画通り2026年初頭に国際的に利用可能にならなくなります。Metaは、前例のない需要と限られた在庫のため、2026年初頭までにフランス、イタリア、カナダ、英国で眼鏡を発売する計画を一時停止すると発表しました。
申し訳ありませんデイブ、カナダはありません。
ヤン・ルカンのMeta批判と内部告発
最後に、Metaに関連するニュースの最後の部分として、ドラマがあります。アニメーションを流しましょう。
Metaの元主任AI科学者であるヤン・ルカンからのドラマがあります。
ヤン・ルカンに詳しくない方のために説明すると、彼は文字通りAIのゴッドファーザーの1人と考えられています。彼はジェフリー・ヒントンとともにチューリング賞を受賞しました。チューリング賞はコンピューティングのノーベル賞のようなものと考えられています。
つまり、この人は本当に、本当に大物です。そして、どういうわけかMetaはヤン・ルカンを主任AI科学者としてチームに迎えることができました。
そして最近、MetaはScale AIの約49%を買収し、Scale AIのCEOであるアレクサンダー・ワンをスーパーインテリジェンスの責任者として迎え入れ、本質的にアレクサンダーをヤン・ルカンの上司にしました。
それほど時間はかからず、ヤンは最終的にMetaを離れて独自のAI会社を立ち上げました。そして彼はいくつかのポッドキャストのラウンドを行い、何人かの人々と話し、Metaとアレクサンダー・ワンについての考えを共有しています。
そして、彼はファンではないと思います。
ヤン・ルカンはアレクサンダー・ワンを経験不足と呼び、さらなるMeta AI従業員の離脱を予測しています。Financial Timesとのインタビューで、Metaの主任AI科学者だったルカンは、ワンは経験不足でAI研究者を完全には理解していないと述べました。
彼は速く学びます。自分が知らないことを知っています。研究の経験、研究をどのように実践するか、どのように行うか、または研究者にとって何が魅力的または反発的になるかについての経験はありません。
どうやらザックは、Llamaモデルの進捗に少し失望したため、ルカンに不満を抱いていたようです。インタビューで、ルカンはAIチームがLlama 4の結果の一部を改ざんしたと述べました。
彼はさらに「マークは本当に動揺し、基本的にこれに関わったすべての人への信頼を失った」と続けました。
本当に、本当に魅力的です。私はAIドラマが大好きです。私にとって、AI世界内でのこのような対立について話すことは、最も楽しいコンテンツの一部です。
でも、ヤンはMetaを去り、Metaでの経験についてあまり良くない話をし始めました。悪口を言っているとまでは言いませんが。
彼女はここに通っていませんから。
それが私の報告です。これは通常のニュース動画よりも短いです。なぜなら、今後のCES動画で話すことがたくさんあるからです。でも、この動画を終える前に、今年CESで見た興味深いものの予告をお見せしましょう。流しましょう。
さて、今日はこれで終わりです。忘れないでください、CESで見たすべてのクールなテクノロジーについて、本当にクールな動画がいくつか控えています。それらは数日以内に公開されますので、お楽しみに。まだの方は、いいねとチャンネル登録をお願いします。今日私とオタク話をしてくれて本当にありがとうございました。次の動画でお会いできることを願っています。
今日私とオタク話をしてくれて本当にありがとうございました。このような動画が好きなら、高評価を押してこのチャンネルに登録してください。このような動画がYouTubeフィードに表示されるようにします。まだの方は、futuretools.ioをチェックしてください。すべての最もクールなAIツールと最新のAIニュースを共有しています。
素晴らしい無料ニュースレターもあります。改めてありがとうございます。本当に感謝しています。次の動画でお会いしましょう。


コメント