本動画は2025年のAI業界における重要なニュースを包括的に解説するものである。中国発の高性能ビジョンモデルGLM 4.6Vから、Nvidiaの効率的な30億パラメータMoEモデル、OpenAIのGPT-5.2による経済的価値重視へのシフト、そしてArc AGIベンチマークの突破まで、多岐にわたる技術革新が報告されている。特筆すべきは、従来のプロンプト手法に関する研究論文が「専門家ペルソナは精度向上に寄与しない」という衝撃的な結果を示した点、そしてIntegral AIが世界初のAGI対応モデルを主張している点である。また、Google DeepMindによる英国初の自動化研究ラボの発表、Metaによる人間とAIの共同進化を提唱する論文、さらには5,000台のヒューマノイドロボット生産達成など、ロボティクス分野での目覚ましい進展も取り上げられている。広告へのAI活用をめぐる議論やMicrosoft Copilotの低迷など、AI導入における現実的な課題にも言及しており、AI技術の現状と将来展望を多角的に捉えた内容となっている。

見逃せない20のAIニュース
それでは、皆さんが見逃した可能性の高い20のAIニュースを見ていきましょう。早速始めます。
まず第1位はGLM 4.6Vです。これはZの最新オープンソースマルチモーダルビジョンモデルです。この中国発のモデルは本当に優れていると思いますし、かなり異色の存在です。というのも、ビジョンモデルは通常、GoogleやOpenAIのような最先端企業から提供されることが多いからです。
実際、ほとんどの企業はビジョンモデルを実際には生産していません。これはトークン消費が非常に多く、コストも高いからだと思います。ですから、中国から高精度の視覚理解と長文脈推論を可能にするオープンソースのマルチモーダルモデルが登場したことは非常に素晴らしいことです。このモデルは基本的にスクリーンショット、画像、文書ページをテキストと一緒に入力として受け取り、それらを統合的に推論できます。
現在、これは視覚大規模言語モデル、正確には視覚言語モデルの最先端です。文書理解、スクリーンショット分析、図表、数学的プロット、視覚的QAなどのタスクにおいて、同等のパラメータ規模で最高性能を発揮します。2つのバージョンがあります。クラウド用の約106億パラメータのGLM 4.6Vと、低レイテンシーとローカル展開に最適化された90億パラメータのGLM 4.6フラッシュです。
私にとって、これは実際かなり良いものです。このモデルを使い始めるかもしれません。フロンティアモデルについて悪い点を一つ挙げるとすれば、ビデオ分析や画像分析を行う際、画像分析はそれほどでもありませんが、ビデオ分析では相当量のトークンを消費することです。
ビデオ分析にこのようなモデルを使いたい場合、これは皆さんにとって良い機会になるでしょう。
効率化されたNvidiaとOpenAIの新モデル
さて、別のモデルリリースについても話しましょう。NvidiaがNvidia Neatron 3をリリースしました。これは高速でありながら実行可能なオープンウェイトの300億パラメータのMixture of Expertsの言語モデルファミリーです。
GPTOSS や Quen 330Bなどの他の30億パラメータモデルを様々なベンチマークで上回りながら、さらに効率的です。これは本当に素晴らしいことです。正直言って、Nvidiaがどうやってこれを実現しているのか分かりませんが、Nvidiaはモデルをデバイス上で実行する際に、より効率的で合理化された方法を見つけ出しています。
プライバシー上の理由で、デバイス上で超小型のLLMを実行したいと考えたことがあるなら、Nvidiaのモデル、GPTO、OSSなどが、優れた知性と出力速度のバランスが取れたものになるでしょう。リスクとリワードのバランスが良いということです。
Mixture of Expertsについては、総パラメータ数は316億で、128人の専門家がおり、トークンごとに6人がアクティブになります。全体として、それほど驚異的なモデルというわけではありません。ベンチマークを見ても、すべての難しいベンチマークを完全に圧倒するわけではありません。しかし、デバイス上でローカルに実行できるこのようなモデルは重要です。
以前の動画で話したことを思い出してください。プライバシーは将来的に大きな問題になるだろうと話しました。一部の個人はプライベートにしたい会話があり、もちろんそれは100%理にかなっています。もしあなたがそうした人なら、LLMをローカルかつプライベートにオフラインで実行することを検討してください。クラウドとの間でデータを送受信せずに。ただし、もちろん機能的には制限があることを覚えておいてください。最新の画像モデル、最新のアップデート、最新のAPIなどは利用できないかもしれません。しかし、プライバシーを重視する方、あるいはプライバシーが問題にならないような小規模ビジネスの場合、これらは多くの異なるケースで使用することになるモデルでしょう。
さて、他のモデルリリースではGPT-5.2もありました。GPT-5.2について最も興味深かったのは、これが私の人生で見た中で最も評価が分かれた結果だったということです。一方では、このモデルは素晴らしく良いと述べる人々がいて、他方では、モデルを積極的に使用している大多数の人々が、これはひどいと基本的に述べていました。
GPT-5.2の真実:経済的価値重視へのシフト
ここで何が起こったのか、私はかなり理解していると思います。ほとんどの人は、このモデルGPT-5.2が思っているようなモデルではないことに気づいていません。OpenAIがGPT-5.1をGPT-5.2にアップデートし、これらのベンチマークを見せたとき、多くの人は即座に「これは別のフロンティアモデルだ」と思ったでしょう。
しかし、それは実際とは程遠いのです。OpenAIは特に、彼らが支配できる1つの領域に焦点を当てたかったのです。その領域がGDP vowでした。つまり、彼らが焦点を当てたかったのは、知識労働タスクと人間のような推論だったのです。GDP vowベンチマークを見ると、下部のエリアをハイライトすると、GDP vowが基本的に2倍になっていることが分かります。
これは間違いなく最大級のベンチマーク跳躍の一つです。経済的に価値のあるタスクについて、それがこのベンチマークの意味するところです。これがOpenAIが向かっている方向です。なぜなら、消費者向け製品の観点では、OpenAIはその領域をすでに飽和させている可能性があると私は本当に信じているからです。画像や動画の作成以外では、私たちはすでにあらゆることについて人間レベルのリアリズムに達していると思います。
ですから、それら以外では、OpenAIが何をするのか確信が持てません。もちろん、まだ作れる異なる製品やサービスはあります。AIでできることはまだたくさんあります。しかし、会社の焦点という観点では、GDP valが基本的にこのモデルが行っていることでした。モデルは今やPowerPointプレゼンテーションを作成できます。
Excelの作業もできるようになりました。これについてはチュートリアルもあります。リンクはすぐに残します。しかし、ここで私が言いたいのは、GPT-5.2は経済的に価値のある仕事への最初の一歩だったということです。もちろん、これは経済を動かしているタスクです。Googleが Gemini 3で驚異的な展開をした後、彼らがこれに集中することを決めた瞬間、GPT-5.2思考に大きな取り込みがありました。
このモデルを使っている場合は覚えておいてください。かなり長く思考する傾向があります。多くのトークンを消費するので、APIでこれを使っている場合は覚悟しておいてください。かなり大きなAPI請求になる可能性があります。実際、私はモデルを文字通り24時間動作させたことがあり、それがループに入って動かなくなりました。チャットインターフェース内にいただけなのに、何か大きなAPI請求が来ないことを本当に願っています。
Arc AGIベンチマークの突破
次にあるのは、Arc AGIが打ち破られたことです。ほとんどの皆さんは気づいていないかもしれませんが、Arc AGIが打ち破られました。実際、先ほどのスライドを見たなら、GPT-5.2思考によってある程度打ち破られました。ここで私たちが持っているのは、もちろんPoeticです。Poeticは実際、フロンティアLLMの上に推論レイヤーを構築するだけで、AGIベンチマークを打ち破りました。
Gemini 3、GPT-5.1、そしてGrok 4です。繰り返しますが、これはテスト時推論、コード生成、自己監査を使用して、多くの小さなターゲット化された呼び出しを、基本的にAGIタスクを以前の最先端よりも効率的に解決するメタシステムに編成しました。彼らはARC AGI2プライベートセットで54%の検証精度を達成し、これは50%を超えた最初のシステムであり、リーダーボードで新たに第1位を設定しました。
これについて驚くべきことは、問題あたり30ドルでこれを設定したことです。これは以前の最先端である Gemini 3 deep thinkの問題あたり77ドルの半分未満のコストであり、そのフロンティアでのコストとパフォーマンスのバランスを再構築しています。ここから得られる最大のことは、どのように行われたかということではないと思います。
実際、それはどのように行われたかということです。しかし、AIにおけるフロンティアの進歩は、基本LLM自体からだけでなく、最終的な出力を得るためにLLMをどのように構造化するかから来ることが多いという事実です。これは、かなり前に聞いた引用のようなものです。Google AI Studioの開発者またはリードであるLogan Kilpatrickからだったと思います。
彼は基本的に、AGIはLLMがすべてを知ってそのような推論を行うことができるというよりも、製品設計、つまりどのように設計するかから来る可能性が高いと言っていました。これは本当にクールです。なぜなら、他の企業がモデルを構造化して他のパフォーマンスを引き出すことができることを示しているからです。これは、これらの基本LLMがリリースされたとき、それが決して終わりではないことを改めて示しています。
エージェント的なスキャフォールディングでまだできることは常にあります。彼らがそれを達成できたことは本当にクールです。もちろん、説明文にリンクがあります。
Manis 1.6とAIエージェントの可能性
さて、Manis 1.6があります。Manis 1.6は、エージェントに関するManisの最新イテレーションです。AIエージェントがどれほど優れているか、人々は気づいていないと思います。ManisやGensparkなどの企業です。
人々は、Chat GPTが基本的にチャットに過ぎず、ManisエージェントやGensparkエージェントが実際に作業をしていることを忘れていると思います。GPT-5.2について話したことを覚えていますか?これらの企業からアドバイスを受けることができると思います。なぜなら、実際の作業が必要なときに使っているのがこれらのプラットフォームだからです。ベンチマークを見ることができます。情報検索、スプレッドシート、ウェブ開発、データ分析、並列処理1.6 maxです。
Manisについて聞いたことがあると思います。Manisは業界を揺るがしました。ですから、フロンティアラボから似たようなプロジェクトが出てきても驚かないでしょう。これらの製品は本当に便利で、複雑なタスクを完了させる必要がある場合、ManisやGensparkに飛び移ってそれを完了させます。
さて、このAIリリースの領域に留まりながら、世界初のAGI対応モデルについて話す必要があります。Integral AIという会社があり、彼らは最初のAGI対応モデルを持っていると主張しています。これは非常に興味深いことの一つだと思います。なぜなら、彼らがこれを主張しているからであり、それは非常に奇妙です。なぜ非常に奇妙かというと、一方では通常、企業がこれを主張するとき、それは通常、人々に彼らが主張していることを見てもらうための何らかのマーケティング努力、PRスタントに過ぎないからです。
しかし、これは元Google ベテランによって設立されたものです。この人は実際、Googleで生成AIの先駆者だったと思います。実際、彼がAGIに必要なアーキテクチャと現在の大規模言語モデルの限界について話しているインタビューを見ました。
私がその情報の守護者だと言っているわけではありませんが、彼が言っていることすべてが本当に理にかなっています。推論の説明の仕方、現在のモデルの制限、それらが見なければならない情報の量、その推論を人間と比較する方法。本当に本当に魅力的でした。これについてビデオを作りました。
チャンネルにあります。数日前にチャンネルで検索すれば見つかります。彼らは基本的に、モデル自体がAGIではなく、AGI対応であると言っています。特にロボティクス環境において、既存のデータセット、ラベル、または人間の介入なしに、新しいタスクを自律的に学習できると述べています。
興味深いことです。奇妙なのは、彼らが多くの資金を持っていないことです。提供されたデモはそれほど素晴らしくありませんでした。つまり、様子を見る必要があると思いますが、私はこの会社を完全に却下するつもりはありません。なぜなら、CEO、Jad Tarifiは、頭が正しい位置にあり、自分が何について話しているか正確に知っているようだからです。
ほとんどの人はインタビューを見ていません。ですから、これは何らかのパフォーマンス的な見出しのように見えるかもしれませんが、彼らは構築した製品を本当に紹介する方法を知らないマーケティング努力を持っているだけかもしれないと思います。それが私の主張です。しかし、繰り返しますが、モデルをベンチマークと比較することさえしませんでした。
ですから、比較しているベンチマークの種類という点で完全に異なるモデルを持っているのかもしれません。それが私の考えです。
世界モデルとインタラクティブな3D空間
さて、クールなデモに移ると、世界モデルを見ることができます。これはSpatialという会社で、彼らの新しいシステムEchoです。これは、単純なテキストプロンプトを、切り離されたビューではなく、完全に探索可能な3D一貫性のある世界に変換します。
結果は、自由に動き回ることができる単一の一貫した空間表現です。これはAIにおける最大のシフトです。ご存知のように、世界モデルが来ています。ピクセルとトークンを生成する代わりに、空間を生成するようになっています。これが私たちが前進している方向です。メートル単位の幾何学的に根拠のある3Dシーンを予測します。つまり、生成するすべてのものに実際に入ることができます。
世界を生成すると、それはリアルタイムでインタラクティブになります。カメラを制御でき、あらゆる角度から探索でき、ローエンドハードウェアでもこれを即座にレンダリングできます。これは重要です。これは驚異的です。なぜなら、高品質の3D世界探索が高価な機器によって制限されなくなったからです。内部では、物理的に根拠のある3D表現を推論し、それをレンダリング可能な形式に変換します。
実際に使用できるウェブデモがあり、かなりクールです。2026年に世界モデルがどうなるか本当に気になっています。なぜなら、Genie 2とGenie 3の最初の2つのイテレーションを見てきたからです。SEMA 2とSEMA 3のイテレーションも見てきました。エージェントと探索可能な世界は、ついにその瞬間を迎え始めていると思います。
これは、このフロンティアで実際に前進している3番目の会社です。それが実現したときに私たちがどこにいるのかを見るのは非常に興味深いでしょう。繰り返しますが、世界モデルは現実のものです。これについてどう思うか教えてください。
プロンプトエンジニアリングの革命的発見
さて、ビデオの研究論文セクションに移りましょう。これは、AIがどのように前進しているかを実際に変える研究です。これは最も興味深い論文の一つです。なぜなら、プロンプトの進め方を変えるからです。すべての論文を含めたくありませんでした。なぜなら、arxivには毎日20から30の論文が発表されるからです。しかし、これは私にとって際立っていました。
Ethan Molikは、最も一般的なプロンプト技術の1つをテストしたと言いました。そして、彼らが発見したことは非常に驚くべきものでした。ほとんどの人は、大規模言語モデルをテストし、結果を得るためにプロンプトを出すとき、「あなたは物理学者です。あなたは医者です」のようなことを言うことを知っています。どうやら、それは実際には物理学の質問や弁護士の質問に答える際に、LLMがより正確な答えを与えることにはならないようです。
この要約から基本的に分かることは、専門家のペルソナをプレイすることは事実の精度を向上させないということです。専門家のように振る舞うように指示したり、マーケターのように振る舞うように指示したりしても、ほとんどの場合、期待する本当の品質は得られません。なぜなら、情報をフォーマットしているだけだからです。
研究者たちは、GPQA diamond、つまり博士レベルの科学の質問、MMLU Proをテストしました。GPT-4o、o3 mini、o4 mini、Gemini 2.5 flash、その他のモデルでテストしました。彼らは異なるプロンプトタイプを持っていました。ベースラインであるペルソナなし。専門分野の専門家、つまり「あなたは世界クラスの物理学の専門家です」。
次に、ドメインマッチ、ドメインミスマッチ専門家、私の間違いで物理学の専門家が法律の質問に答える。そして、低知識ペルソナ、幼い子供または幼児があります。ランダム性を避けるため、質問ごとに25回の独立した実行がありました。重要な発見は、専門家のペルソナがモデルとベンチマーク全体で精度を向上させることはほとんどないということです。
パフォーマンスは通常、ペルソナなしと統計的に同一でした。ペルソナをドメインに一致させても、実際には信頼できる助けにはなりませんでした。実際にこのスライドをお見せしましょう。このスライドで見ることができます。実際、見るのはかなり難しいです。
デスクトップでない限り、またはズームインしたい場合は見ることができます。しかし、結果が本当に統計的に有意ではないことが分かります。それほど違いはありません。ですから、ペルソナがどれだけの価値を持っているのか疑問に思い始める必要があります。プロンプトからの唯一の結論は、ペルソナには価値があるが、あなたが考えるような方法ではないということです。
ペルソナは、LLMが他の方法で持っていないような新しい情報を与えるわけではありません。ペルソナは、トーン、フレーミング、優先順位、または視点という点でのみ価値があります。それは本当に重要だと主張することもできますし、おそらくいくつかのケースでは重要でしょう。しかし、それらは、あなたが尋ねていることについてより明確に考えるのを助けるだけで、それらの答えをより正確にするわけではありません。
専門家のように振る舞うように指示することは、難しい質問に対する事実の精度を明らかに向上させるわけではなく、場合によってはパフォーマンスを損なうこともあります。最良の結果を得たい場合、基本的には、タスクの指示を改善し、より良い例を使用し、ペルソナワークフローに頼るのではなく、ワークフローを改善するだけだと言っています。
AIペルソナに頼らないでください。LLMは専門家として推論しません。彼らはテキストに耳を傾けることができるだけで、そうでないふりをしても、隠された能力が解き放たれるわけではありません。繰り返しますが、研究論文領域です。これは重要です。AIと実際にどのように連携するかを知りたい場合、この論文は新しい結論を与えてくれます。これをタイムラインで見て、「これはビデオに追加する必要がある」と思いました。
人間とAIの協働における心の理論の重要性
この論文は、AIとうまく連携することは、自分で頭が良いこととは異なるスキルであることを示しています。人間とAIの協働から実際の実世界のパフォーマンスを引き出す最大の推進力は、生の知性ではありません。それは心の理論です。心の理論は、すべての人間が持つべき最大の重要なスキルの一つだと思います。
これは、エージェントが何を知っているか、何を信じているか、何が必要かについて推論する能力です。彼らは、人間のAIシナジーを測定するための厳密なベイジアンフレームワークを導入し、AIがもちろんより難しいタスクで人間のパフォーマンスを有意に向上させることを証明しました。しかし、焦点を当てる必要があることの一つは心の理論です。
つまり、強い心の理論を持っている場合、AIからはるかに高品質のパフォーマンスを得ることができます。なぜなら、AIの制限を予測し、目標を明確にし、プロンプトを動的に適応させることができるからです。つまり、これが意味するのは、ほとんどの人がAIを使って物事を学ぶことができることを理解する必要があるということですが、専門家がこれから最も多くを得るだろうと彼らは基本的に言っていると思います。なぜなら、物理学者のような人であれば、AIが何に苦労するかをすでに知っているからです。しかし、上級物理学を学ぼうとしている普通の人なら、AIの制限、考慮するかしないかもしれないこと、持っていないより多くの情報をAIに探らせることができません。これらの本当のエッジケースは、以前に論文で話したことですが、基本的に知識の崩壊です。つまり、知能の本当のエッジケース、前進させる本当の重要なこと、それらの領域は、人々がLLMから学び続けるだけなら、時間とともに失われていくのです。なぜなら、LLMは常に、分布の中央にある最も統計的に一貫した情報を置くからです。そしてそれは、あなたの特定の質問に対して常に最も関連性の高い情報ではありません。
ですから、彼らが基本的に言っているのは、自分の頭の中で問題を解決できる天才であることは、AIパートナーと問題を解決することとは完全に異なるということです。
AIが何が得意で何が得意でないかを理解できる必要があり、AIと協働できる必要があります。あなたの仕事は、人間の心の橋渡しをすることです。彼らが基本的に言っているのは、AIと連携するときは、AIの制限を理解し、AIの欠点を予測し、もちろん、協働に傾いた方法でプロンプトするように努めるということです。
これは本当に本当に重要だと思います。この種のことは、AIをどれだけ使うかによってのみ改善されると思います。もちろん、AIをより多く使い、その主題をより多く勉強するほど、より多くを学ぶと思います。ですから、学ぼうとしている主題が何であれ、AIが万能だとは思いません。
確実にメディアを消費し、ビデオを消費し、本などを消費して、概念全体を本当に把握できるようにしてください。非常に重要な論文です。
AppleとMetaの最新AI研究
このAIニュースビデオにはもう一つ論文がありました。これは非常に最近出てきたもので、基本的にAppleがRAGよりも多少優れた新しい論文を作成しました。
基本的に、ほとんどの人はすでにRAGが何であるかを知っています。これは、AIが文書を検索し、ロボットが少しのテキストを読む簡単な方法です。RAGの問題は、時々読みすぎて混乱することです。検索脳と回答脳があり、それらは互いに話し合いません。
ですから、ロボットは、どのような情報が実際に回答に役立つかを学びません。これが、この新しいAppleの論文が解決することです。この論文は、AIに文書を重要な意味だけを保持する小さなメモリブロックに圧縮するように教えます。次に、検索と回答に同じブロックを使用します。そして、AIに検索脳と回答脳を基本的に一緒に作業させ、何が機能し、何が機能しなかったかを考えさせます。
これは基本的に、はるかに速く、はるかにスマートな方法であり、はるかにスマートな回答が得られます。別の結論としては、Appleが依然としてAIレースにしっかりと参加しているということです。彼らは依然としてトップのAI研究者を抱えています。彼らは多くの斬新な研究を行ってきました。何度も見て、それについて特定のビデオを作成しました。
Appleが依然としてそこにいることを知るのは興味深いです。繰り返しますが、これはビデオの論文セクションの最後の論文です。Metaがあります。Metaはこの論文をリリースしました。これは、ASIと人間の知能の将来を見る最良の方法だと思います。この論文は基本的に、完全に自己改善するAI、つまり、人工超知能に至るまで自己改善し、非常に賢くて自己改善を続けることができる再帰的な自己改善を追求する代わりに、人間とチームを組むAIを構築すべきだと主張しています。これにより、両方がより安全な方法で一緒にスマートになります。
AIを科学者を置き換えようとするロボットとしてではなく、人間が研究を行うのを助け、時間の経過とともに人々とより良く連携する方法を学ぶ、最高の電卓科学者ヘルパーと考えてください。彼らはこれをAIと人間の共同改善と呼んでおり、これが共同超知能への道だと言っています。これは達成しやすく、AIが単独で自分自身を書き換えるよりも危険が少ないとされています。彼らは純粋な自己改善AIが好きではありません。なぜなら、過去の自己改善作業のほとんどは、モデルが自分自身の重みを微調整し、より多くのデータを使用するだけで、すべての自分自身のコードと目標を書き換えるものではないと指摘しているからです。真に自律的なシステムは、基本的に世界を征服するようなものになる可能性があります。私たちは本当にそれを望んでいません。
理想的には、私たちが望む最良の未来は共同改善です。これは、人間がループに留まる場所です。彼らは問題に気づき、間違いを修正し、研究目標を導き、これは基本的に危険な制御不能なAIの行動の可能性を低下させます。彼らは、これが最高レベルの知能に到達できるが、最も安全な方法だと言っています。
Metaは正しいと思います。
ロボティクスの最新進展
さて、ビデオのロボティクスセクションに移りたい場合、limb Xtron 2を見る必要があります。これは、以前のTron二足歩行プラットフォームのアップグレード版であり、より完全なヒューマノイドに進化することができます。これは、主に脚に焦点を当てた研究から、汎用ヒューマノイド形態要因へのシフトです。
これは、Limb Xtronラインのヒューマノイドへの進化の新しい形であり、以前の脚中心のTron 1プラットフォームに上半身と頭部を追加しています。これは、以前のロコモーション専門家だけでなく、より複雑な全身ヒューマノイドタスクを目指しています。ヒューマノイドの上半身、2本の腕、2本の器用な手、既存の二足歩行ベースの上に頭部があり、従来のヒューマノイドの外観を与え、Tron 1がネイティブに処理できなかった操作タスクを可能にします。
非常に非常に興味深いです。また、AGI botもあり、これは5,000台のヒューマノイドロボットを生産する最初のメーカーです。彼らは今日、5,000台目のヒューマノイドロボット、Lingix X2を発表しました。これは、会社とヒューマノイドロボット業界全体にとって大きなマイルストーンであり、実世界での大規模展開に向けた重要な一歩となります。
AGI cobotの創設者は、ライブストリームで、これらの5,000台にはZangzangシリーズ、Lingシリーズ、Genieシリーズが含まれると述べました。これらのヒューマノイドロボットは、科学研究、エンターテイメント、ショッピングモール、工場、倉庫を含む様々な環境に展開されます。これは、この会社が実際に大量生産の能力を持ち、急増する将来の顧客需要に対応する準備ができていることを示しています。
奇妙な奇妙なロボティクスでは、このビデオが非常にバイラルになっていました。これはYamahaのlambdaからです。これは、バランスを取り、フレームをねじり、AIを使用してライダーに学習し適応する実験的なオートバイコンセプトです。これはかなりクレイジーです。ここでビデオがフリーズしてしまい申し訳ありませんが、これはロボティクスがどれほど柔軟であるかを人々に示すために広まっています。
先日作ったビデオで、ロボティクスがこれまで見たことのない方法で動いていると言ったことを覚えています。繰り返しますが、これは彼らのプロトタイプで、AI試行錯誤中の繰り返しの衝撃に耐えるように設計された軽量で耐久性のある外骨格フレームを使用しており、このクレイジーな外観を定義するのに十分な柔軟性を残しています。
分かりませんが、2026年はこれまで見たことのない方法で動く超奇妙なロボットを手に入れる年になると感じています。ちょっと怖いです。CGIだと思いますが、違います。本物です。
人間らしいロボット技術の進化
CGIの奇妙なロボットと言えば、Hobs 1があります。HOBS 1は、ノエティクスとロボティクスの観察者によって、様々な環境での実世界のインタラクションを目的とした汎用プロフェッショナルグレードのサービスロボットとして説明されています。
これはプロフェッショナルシーンのオールラウンダーとして位置付けられています。つまり、単一の狭いユースケースではなく、カスタマーサービス、教育、イベント、その他の公共または半公共スペースでのタスクを処理することを目的としています。プラットフォームには、車輪付きモバイルヒューマノイドベース上に、人間の表情を模倣し、没入的なアイコンタクトを維持できるNoetics Hobsバイオニックロボットヘッドが搭載されています。
胸部エリアに埋め込まれたディスプレイがあり、視覚情報を提供します。UIブランディングにより、ロボットがインタラクション中に話してコンテンツを表示できます。このAI駆動の接続は非常に興味深いと思います。なぜなら、外に出ている多くの異なるヒューマノイドロボットがあるからです。しかし、個人的には、人々がこれについてどう思うか分かりません。なぜなら、ロボットはただロボットを演じるべきだと思うからです。
一部のロボットは、人間のように見えても、完全に人間を達成できない場合、不気味の谷に入ると思います。ですから、あなたの人間の脳はそれが人間ではないことを知っており、この奇妙な原始人のパニックのようなものを起こします。私にとっては、正直なところ、このロボットは実際に人間のように見える珍しいケースの一つだと思います。
実際に実際の人間のように見えます。しかし、ほとんどの場合、ロボットはロボットのように見えるべきだと思います。なぜなら、分かりません。少し奇妙に見えますが、同時に、人間とAIロボット、その関係は進化しており、これらのことが今後どのように前進するかを見るのは興味深いでしょう。
AI業界のニュースと論争
さて、AIニュースのニュースで、これらは実際に見逃したかもしれないヘッドラインの一部です。Timesはperplexityを訴えました。正直なところ、New York Timesは全員を訴えています。そして、それは公平です。つまり、作品を作り、AI企業がそれでトレーニングすれば、公平に彼らを追求してください。
彼らは、補償なしに顧客にジャーナリズムをコピーして提供したとして、Perplexity AIに対して訴訟を起こしました。彼らはPerplexityにコンテンツの不正使用を終了するよう繰り返し求めましたが、Perplexityは伝えられるところによると、Timesの著作権で保護された素材の違法使用を継続しています。
彼らはOpenAIも訴えました。ですから、彼らは補償を本当に得ようとしてこれらの企業を追求している数少ない企業の一つだと思います。非常に興味深いです。
さて、Copilotを使っている人はいますか?Copilotを使っていますか?個人的にはCopilotを使っていませんが、Microsoftはほぼ誰もCopilotを使っていないため、AI目標を縮小しています。MicrosoftはこれがArticleです。Microsoftは顧客を見つけるのに苦労した後、場合によっては最大50%もCopilotおよびその他のエージェント製品の販売目標を削減しました。
OpenAIへの投資を通じて初期のAIリーダーであったにもかかわらず、その投資を広範な採用や強力な収益に変えることができませんでした。報告によると、ほとんどのユーザーはCopilotが特に有用だとは感じていないとされています。
独立したテストでは、AIエージェントがタスクを最大70%の確率で完了できないことが示されており、人間の労働者の代替としての価値を制限しています。最善の場合でも、彼らは熟練した従業員にわずかな生産性向上を提供するだけであり、多くの場合、すでにジュニアスタッフが処理しているタスクを複製しています。
一方、競合他社はMicrosoftを上回っています。Chat GBTが60%以上の市場シェアで市場を支配しており、Google Geminiは急速に成長し、Copilotの市場ポジションに匹敵しています。
MicrosoftはAI販売クォータ全体を下げたという主張に異議を唱えています。しかし、より広い絵は、Copilotがライバルに遅れをとっていることを示唆しています。これは驚くことではありません。実際に日常的にCopilotを使っていますか?個人的には、Copilotを使う理由が見つかりません。
しかし、これは言います。MicrosoftのCopilotがそれらの製品に組み込まれているため、次のイテレーションサイクル、おそらくGPT6、GPT7時代には、Microsoftに設計された本当に便利なエージェントを手に入れるでしょう。実際に有用な製品を設計するのはそれほど難しくないと思います。正直なところ、時々、これらの企業には何らかの断絶があると思います。なぜなら、彼らはそれらを使わず、AIツールスペースにあるものを見ていないかもしれないからです。
現実的には、人々が実際に使っているAI企業の一部を買収するべきだと思います。なぜなら、この種の行動、つまりツールを使ってもらおうとすることは、人々がこれらの技術とどのように共進化するかを予測することは非常に難しいからです。ですから、これらの企業は、実際に機能しているものを見て、どの企業がこれらの企業によって爆発しているかを見て、実際にそれらの製品をMicrosoftの既存のラインナップに統合する必要があると言いたいです。
大企業がすべきことはこれだと思います。なぜなら、そこにあるものを予測することは本当に難しく、人々が何を好むかを把握しようとして何十億、何百万ドルも失うことになるからです。
Google DeepMindの自動化研究ラボ
さて、Deep Mindsの研究ラボもありました。GoogleのAI部門であるDeep Mindsは、英国初の自動化研究ラボを発表しました。
英国初の自動化ラボが2026年に計画されており、新しい政府とのAIパートナーシップの一環として来ます。これはAIとロボティクスと完全に統合されていると説明されています。つまり、AIシステムと高度なロボティクスが、各ステップを行うために純粋に人間に頼るのではなく、実験を自律的に実行します。
ラボは実際に材料科学に焦点を当て、初期のミッションは新しい材料を発見することです。特に、実用的な温度で動作する超伝導体に取り組んでいます。これは、送電、医療技術、量子コンピューティング、次世代半導体のためのより高速で効率的なコンピュータチップ、高度なバッテリーとエネルギー材料に大きな影響を与えます。
実験分析再設計の人間のサイクルではなく、ロボットAIシステムは1日あたり何百もの実験を実行し、従来のラボよりもはるかに速く有望な候補を特定します。これは興味深いことです。なぜなら、イギリスの科学者たちはこれに最初に取り組むことができるからです。これはまさに、OpenAIが約束したような研究だと思います。
これは、何十億ドルも持っているこれらの企業が「AIが科学研究を解決することになる」と言っている種類の研究であり、ここにGoogleが実際にこれを実現しようとしています。これは非常に非常に興味深いことであり、社会を本当に助ける何かがこれから生まれることを願っています。
さて、Googleのニュースがもっとあります。ちなみに、これはフェイクニュースです。次のストーリーはここにあります。Googleは広告主に、2026年にGeminiに広告を導入すると伝えています。ちなみに、これはフェイクニュースです。多くの人がこれを見て「ああ、Gemini、Geminiはくそだ」のように言ったことを知っています。いいえ。これはフェイクニュースです。
これは広まっていたニュースでした。それは非現実的でした。Gemini Liveもありました。ちなみに、これは狂っています。Googleはそれをまさに粉砕しています。これを見たいと思うかもしれません。
ちょっと待って、待って、待って。1秒だけ待ってください。さて、私が言っていたように、Geminiモデルは今やライブ翻訳を行います。これはGoogle翻訳アプリで任意のヘッドフォンで動作します。お聞きのように、私はリアルタイムで翻訳されています。
同僚のための次の旅行のアドバイスを求めるときにどのようなものかを見てみましょう。行きましょう。
休暇が必要ですが、どこに行けばいいか分かりません。何かアイデアはありますか?
韓国に行くべきです。ソウルには食べ物や見るべきものがたくさんあります。そこに行くなら、食べ物が大好きです。魚の形をしたパンケーキとホットトック、醤油漬けのカニを試すことができます。
ソウルが気に入ると思います。実際、中国にもたくさんあります。北京ダックのために北京に行くか、火鍋のために重慶に行くこともできます。それは素敵でしょう。または、豚肉の煮込みと焼き饅頭のために上海に行きます。本当に気に入ると思います。
さて、物事を変えるために、私たちは間違いなくドイツに行くことができます。特に暗くて寒いこの時期に。クリスマスマーケットに行かなければなりません。モールドワインがあります。蒸し餃子を食べることができます。本当に美しいです。
それで、これらのうち、どこに行きたいですか?
まだ分かりませんが、良いアイデアがいくつかあります。ありがとうございます。70以上の言語で、さらに2,000以上の言語ペアでうまく機能し、移動中でも機能します。
お見せしましょう。Google翻訳で今すぐ試すことができます。休暇シーズン中、旅行や義理の家族との会話に役立つことを願っています。ちなみに、ささやくこともできます。Google翻訳で確認してください。
AI広告をめぐるインターネットの怒り
そして、インターネットがこの広告に対して怒りを示しました。人々はすでにAIを嫌っており、彼らはさらにそれを嫌う理由を与えられました。基本的に、xAIがハッカソンを開催し、これがなぜそんなに怒りを買ったのかをお見せします。人々はすでに広告を嫌っています。分かります。私も広告が嫌いです。しかし、ここでの問題は、彼らが基本的にハッカソンを開催し、生成AIを使用してテレビ番組のセクションに広告を埋め込もうとしていたことです。
このビデオがここで機能しない理由は分かりませんが、広告がどのようなものかを見ることができます。これについてどう思いますか?テレビ番組があります。標準的なものです。テレビ番組を見ています。ただの標準、何でもかんでも、などなど。これらの広告は、スムーズな広告、または侵入性の低い広告と呼ばれるものです。
ここを見てみましょう。このタイムラインをドラッグしている唯一の理由は、この番組を作った会社から著作権侵害のストライクを受けないようにするためです。ここで私が言っているのは、彼がこれを引き上げるのを見るとすぐに分かるということです。これは番組の一部ではありません。なぜなら、この番組を見たことがあり、これは番組の一部ではないからです。
生成AIを使って最初のフレームを取得し、製品を入力すると、その製品配置についてもっと知りたい場合は、そこの「詳細を見る」ボタンをクリックできます。正直なところ、分かりません。これには中立です。つまり、番組にとって本当に意味のある本当に良い製品であれば、それほど悪くないと思います。
これがマーケティングされ、提供された方法が必ずしも最良ではなかったと思います。これはハッカソンに過ぎないので、これはアイデアに過ぎないと言いたいです。人間がこれを拒否すれば、おそらくそれほどうまくいかないでしょう。しかし、これは従来の広告よりも優れていると思います。焦点を止めて中断するだけです。
番組の中に留まり、実際に瞬間の一部であるもの。分かりません。私の意見です。皆さんがどう思うか教えてください。ビデオを楽しんでいただけたら、次回お会いしましょう。


コメント