AI研究

AI研究

Transformerは最終形態ではない:世界モデル、物理AI、そしてAIの次なるフロンティア

Nvidiaの空間知能研究室を率いるサンヤ・フィドラーが、Transformerアーキテクチャの可能性と限界、世界モデルと空間知能の重要性について語った。彼女はTransformerを汎用的なアーキテクチャと位置づけつつも、それが最終形態で...
AI研究

メタハーネス:すべてのAIはハーネスAIを必要とする(Claude Code、MIT、スタンフォード)

本動画は、スタンフォード大学とMITによる最新のAI研究「メタハーネス(Meta Harness)」について解説するものである。AIエージェントの中心となる推論用LLM自体を強化するのではなく、その周辺で入力データを準備・最適化する「外殻(...
AI研究

全てのRNNはこの一つのアイデアから生まれた

ニューラルネットワークの根本的な課題は時間概念の欠如である。従来のフィードフォワードネットワークは各入力を独立して処理し、文脈や記憶を持たない。この問題を解決するために登場したのがリカレントニューラルネットワークであり、その進化の過程で様々...
AI研究

AIの記憶問題は解決された!

本動画は、Kimiチームが提案した新手法 Attention Residuals を軸に、現行AIが抱える「長く深く考えるほど初期の情報を見失う」という記憶の問題を解説する内容である。従来のTransformerや残差接続の限界を整理しつつ...
AI研究

AI、LLM、ロボット知能における世界トップの研究者

本動画は、Physical Intelligenceの共同創業者であり、世界トップクラスのAIおよびロボット知能の研究者であるセルゲイ・レヴィンへのインタビューである。ロボット工学が直面する根本的な課題と、あらゆる物理的環境において任意のタ...
AI研究

Giulio Biroli – 拡散モデルはなぜ記憶化しないのか

拡散モデルは画像・動画・音声生成において最先端の性能を誇るが、理論的には訓練データを記憶化すべき状況でも実際には汎化する不思議な性質を持つ。École Normale SupérieureのGiulio Biroli教授らの研究は、この謎に...
AI研究

AIのファイルシステムは知能を解放できるか?エージェントハーネス(Anthropic、清華大学)

本動画は、AIの最新動向としてAnthropicと清華大学の論文に基づき、AIエージェントの新たなアーキテクチャ「ハーネスエンジニアリング」について解説するものである。従来のプロンプトエンジニアリングやコンテキストエンジニアリングの限界を指...
AI研究

トポロジー推論グラフ最適化のためのHyEvo

本研究は、次世代AIモデルのための自己学習型ハイブリッド推論マニフォールド「HyEvo」を提案するものである。従来の手動設計によるエージェント構造を廃し、LLMノード(セマンティック推論用)とコードノード(決定論的実行用)を統合した異種混合...
AI研究

自己進化するデュアルAIエージェントシステム=自動研究2.0 (LSE)

本動画は、複数のAIモデルを連携させることでシステム自身がプロンプトを最適化し、自律的に性能を向上させる「自己進化するAIシステム(Learning to Self-Evolve: LSE)」の最新研究を解説したものである。軽量なローカルモ...
AI研究

Andrej Karpathy、コードエージェント、AutoResearch、そしてAIのループ時代について語る

元OpenAI研究者のAndrej Karpathyが、コードエージェントの急激な進化と、それが研究・開発プロセスにもたらした革命的変化について語る。2024年12月を境に、彼の作業フローは人間による直接的なコーディングから、エージェントへ...
AI研究

AIにおける絶対的真実: Neuro-Symbolic AI

この動画は、LLM単体では到達しにくい絶対的に正しい論理推論を、Neuro-Symbolic AIによってどう補完するかを解説する内容である。人間の曖昧な自然言語をそのまま扱うのではなく、第一階述語論理やSMT solverのような厳密な記...
AI研究

他の誰よりも早く知っておくべき最新のAIブレイクスルー15選

本動画は、他の誰よりも早く知っておくべき最新のAI技術における15のブレイクスルーを解説するものである。単純なプロンプトの実行から自律的なワークフローの構築へと進化するAIエージェントをはじめ、AIのブラックボックスを解明するモデルの可視化...
AI研究

兆パラメータAIモデルを破壊する数学

Princeton大学が提案する知識グラフを暗黙的報酬モデルとして活用する新しいAI強化学習手法の解説である。従来の数学やコーディング領域に限定されていた検証可能な報酬構造を、医学や法律などオープンエンド領域にも拡張するため、知識グラフの因...
AI研究

AIを私たちは壊してしまったのか。もう元には戻らないのか?

この動画は、2026年3月時点のAI研究が本当に前進しているのか、それとも複雑な知能の実現から後退し、細かなスキル断片の寄せ集めへと向かっているのかを問い直す内容である。話題はSkill MD、経験バンク、world model、科学AI、...
AI研究

マルチスキルMD構成:自己学習型AI

本動画は、AIエージェントの動的な能力拡張を可能にする「マルチスキルMD(Markdown)構成」について解説したものである。2026年2月に発表された最新の研究をもとに、コンテキスト内学習と強化学習を組み合わせ、AIが自律的にスキルを習得...
AI研究

「LLMは行き止まり」AI界の巨人ヤン・ルカンが語る真の知能への道

AI研究の父の一人であるヤン・ルカンが、現代のLLMは物理世界の理解において根本的に限界があると断言し、新たなAIアーキテクチャJEPAを提案する。彼は、真の知能には物理世界の理解、持続的記憶、推論、計画能力が不可欠であり、テキスト学習だけ...
AI研究

AI Shadow Brain:破滅的忘却を克服する直交部分空間による知識分離技術

ウィスコンシン大学医学部とGoogle Researchによる2026年3月9日付の最新研究が、AIモデルのファインチューニングにおける致命的な課題である「破滅的忘却(catastrophic forgetting)」を克服する革新的手法を...
AI研究

PewDiePieがChatGPTを打ち負かした話

YouTuberのPewDiePieが独自のAIコーディングモデルをトレーニングする過程を記録した挑戦的なプロジェクトである。機械学習の知識がほぼゼロの状態から始め、データ収集、合成データ生成、モデルのファインチューニング、ベンチマーク評価...
AI研究

未来はもはや予測ではない。それはAI生成されたグラフである

本動画は、最新のAI研究論文5本を通じて、人間言語の豊かさと数学的論理構造の間に存在する根本的な緊張関係を明らかにする。マルチエージェント通信を制御する強化学習フレームワーク、階層的概念モデル、合成対話生成、擬似コード計画システム、そしてC...
AI研究

イリヤがOpenAIを去ったのには理由がある

OpenAIを去ったイリヤ・サツケヴァーが率いるSafe Super Intelligenceは、評価額320億ドルに達する新興企業である。現在のAI学習の根幹にある深刻な問題、それは生物学的学習とは根本的に異なるバックプロパゲーションの限...
AI研究

GRPOからSAMPOへ:エージェントRLにおけるトレーニング崩壊の解決

本動画は、AIエージェントの強化学習における新たなポリシー最適化手法「SAMPO」を紹介する技術解説である。従来のGRPOなどの手法では、マルチターン環境での学習が不安定になり、勾配爆発やトレーニング崩壊が発生する問題があった。カリフォルニ...
AI研究

デュアルグラフモーフィング:クールなマルチモーダルAIエージェント(動画、音声)

本動画では、マルチモーダルAIエージェントシステムにおける革新的なグラフ構造アプローチを解説している。清華大学と中国人民大学による2つの研究論文を取り上げ、OmniGAが世界をグラフとして表現し、MirrorFlowがエージェントの論理をグ...
AI研究

システム3 AI:人間不要の自律推論システムへの転換

本動画は、大規模言語モデルにおける推論能力の限界と、それを克服するシステム3思考アプローチについて解説している。従来のRLHF(人間フィードバックによる強化学習)に依存するシステム2の思考連鎖方式では、複雑な科学的問題の解決に壁があることを...
AI研究

ファインチューニングに代わる強力な選択肢

Poeticの共同創業者兼共同CEOであるイアン・フィッシャーが、ファインチューニングに代わる革新的なアプローチを語る。同社が開発する再帰的自己改善型AIシステムは、既存の大規模言語モデルの上に構築される「高床式」のアーキテクチャにより、数...
AI研究

拡散LLMがついに登場 これがTransformerの終わりなのか

自己回帰モデルであるGemini、GPT、Claudeは、トークンを順次生成する仕組み上、本質的な遅延が避けられない。拡散モデルはシーケンス全体を並列生成することでこの課題を解決し、最大10倍高速な推論を実現する。Inception Lab...
AI研究

Googleが開発した自己学習AIの新手法「RL2F」

GoogleDeepMindが提案するRL2F(Reinforcement Learning with Language Feedback)は、文脈内学習と強化学習を融合した全く新しいAI訓練手法である。従来のLLMが静的知識の処理には長け...
AI研究

RTX PRO 6000と4ビットAIモデル:量子化がもたらす破綻

本動画は、大規模言語モデル(LLM)における4ビット量子化の落とし穴、いわゆる「量子化の罠」について解説したものである。4ビットモデルが16ビットモデルよりもエネルギーを消費し、処理速度が低下し、推論精度が著しく落ちるというパラドックスを指...
AI研究

AIが推論の複雑性を自己修正する

本動画は、AI推論の精度向上を目指す新手法「セルフエボリューション・ルーブリック」を解説する。従来の強化学習では最終回答の正誤のみで報酬を与えるため、AIが思考プロセスを理解せずショートカットを学ぶ「報酬ハッキング」が生じる問題があった。シ...
AI研究

AIの研究最前線:メモリ、世界モデル、計画能力 — Joelle Pineauと共に

AI研究の最前線では、メモリ管理、世界モデル構築、推論の効率化という三つの重要課題が浮上している。CoherのチーフAIオフィサーであるJoelle Pineauは、現在のAIモデルが持つ能力と実際の活用との間に大きなギャップが存在すると指...
AI研究

知能の新しい幾何学

人工知能の推論能力は学習されたルールではなく、有限次元のニューラルネットワーク空間に最大限の情報を詰め込むことで生じる幾何学的な副産物である。2026年2月に発表された新しい論文は、ニューラルネットワークが持つ次元数よりも遥かに多くの特徴量...
AI研究

Googleの次世代AI研究 次トークン多様体を超えて

Googleが次世代AIモデルに向けて重要な発見を発表した。従来のトランスフォーマーアーキテクチャにおける線形表現仮説は、自然言語の流れには有効だが、推論タスクでは崩壊することが判明した。Google DeepMindとプリンストン大学の共...
AI研究

LLM革命は終わった。物理AI革命が急速に到来している

Meta AIの研究責任者を務めたヤン・ルカンが、現在のLLMパラダイムの限界と次世代AI革命について語る。人間レベルの知能実現には概念的なブレークスルーが必要であり、言語ベースのLLMではなく物理世界を理解するワールドモデルこそが真の知能...
AI研究

より賢いAI勾配 エージェントが思考を学ぶ仕組み

本動画は、AIエージェントがより賢く学習するための新しい勾配最適化手法について解説している。従来の強化学習では、エージェントは勾配を盲目的に追従するだけであったが、新たに提案されたIRPO(Intrinsic Reward Policy O...
AI研究

14BモデルがGPT-5.2を超える性能を実現 ファジーグラフ報酬による推論革命

Princeton大学の研究チームが、知識グラフを暗黙的な報酬モデルとして活用する新しいAIシステムを発表した。この手法は、従来のLLMが抱える「真の組み合わせ的推論」の限界を克服するものである。研究の核心は、3ホップの推論で訓練されたモデ...
AI研究

Janet Adams: 分散化こそが人工超知能を整合させる方法

Singularity NetのCOOであるJanet Adamsが、分散型AIこそが人工超知能を人類全体の利益に整合させる唯一の方法である理由を語る。中央集権的な巨大テクノロジー企業が支配するAI開発に対し、Singularity Net...
AI研究

階層的推論モデルHRM 2.0:AIにおける新しいアトラクター動力学

階層的推論モデル(HRM)2.0は、わずか700万パラメータという小規模ながら従来の大規模モデルを凌駕する推論能力を持つAIシステムである。本研究では、HRMが複雑な数独を解けるのに最も簡単な問題で失敗するという逆説的な現象を分析し、その背...
AI研究

DeepSeekがLLMを劇的に強化:Engramの登場

DeepSeekが発表した「Engram」は、大規模言語モデルの根本的な非効率性を解決する革新的なアーキテクチャである。従来のLLMは繰り返し出現する固有名詞やフレーズを毎回再計算していたが、Engramは人間の脳のような高速メモリモジュー...
AI研究

大規模言語モデルが新しいコンテキストを無視する問題 清華大学とスタンフォード大学の研究

清華大学、スタンフォード大学、ハーバード大学による最新研究が、大規模言語モデルの重大な欠陥を明らかにした。本研究では、AIモデルが新たに提供された文書や証拠を実際に分析しているのか、それとも事前学習された知識に依存して統計的に正しい答えを推...
AI研究

Metaがすべてを変えた – 言語ベースAIの終焉か?

Metaの元AI責任者Yann LeCunが発表した新しいAIアーキテクチャVJEPAは、従来の言語ベースのAIモデルとは根本的に異なるアプローチを提示している。ChatGPTやClaude、Geminiなどの現行AIがテキストを一つずつ生...
AI研究

ルカンはLLMが行き止まりだと発言し、そしてMetaがベンチマークを改ざんしていたことを暴露した。その両方が重要である理由

AI業界における5つの重要な動きを分析する。OpenAIとAnthropicの医療分野参入はIPO戦略の一環であり、ヤン・ルカンのMeta退社とLLM限界論の主張は業界の根本的な方向性に疑問を投げかける。物理AIとロボティクスでは、ファウン...