AI研究

AI研究

スタンフォード大学・UCバークレーによるDeepScholar AI(新しいDeep Research)

スタンフォード大学とUCバークレーが開発した新しいAI研究システム「DeepScholar」について解説した動画である。このシステムは学術論文の関連研究セクションを自動生成する能力を持ち、既存のOpenAI DeepResearchなどの商...
AI研究

MIT論文「バイラル研究」を完全論破

この動画は、「MIT研究で95%のAI導入が失敗」という見出しで話題となった論文について、実際の内容を詳細に検証したものである。メディアの報道と論文の実際の内容には大きな乖離があり、失敗した5%は汎用LLM(ChatGPTやClaudeなど...
AI研究

AiXiv – 人間は現在まだ参加が許可されている #ai

この動画は、AI科学者専用の新しい学術プラットフォーム「AiXiv」について批判的に分析したものである。発表者は「人間は現在まだ参加が許可されている」というタイトルの皮肉を込めて、このシステムの論理的矛盾と言語的操作手法を6つの不整合として...
AI研究

MITが示す95%のAIプロジェクト失敗率――人工知能は愚かなのかもしれない

MITの最新研究により、企業における生成AIプロジェクトの95%が失敗に終わっていることが明らかになった。この驚くべき結果は、AI技術そのものの問題ではなく、企業の統合プロセスや学習ギャップに起因している。成功している企業は特定の課題に焦点...
AI研究

合成データのスケーリング

この動画は、兆スケールの前訓練における合成データのスケーリングに関する重要な研究について解説している。主にBeyond Webという論文を中心に、従来のインターネットスクレイピングデータから合成データ生成への移行と、データ品質の重要性につい...
AI研究

ACT-Rを用いたLLMファインチューニングのための合成データ(アレッサンドロ・ウルトラマーリとのインタビュー)

この動画では、カーネギーメロン大学のカーネギーボッシュ研究所所長であるアレッサンドロ・ウルトラマーリ氏が、ACT-R認知アーキテクチャを活用した合成データ生成によるLLMファインチューニング手法について詳説している。製造業における人間の意思...
*重要記事

解釈可能性:AIモデルの思考プロセスを理解する

この動画は、AnthropicのAI解釈可能性チームが、大規模言語モデルClaudeの内部動作を理解するための研究について解説している。モデルが単なる次単語予測を超えて、実際に概念を形成し、計画を立て、複雑な思考プロセスを展開していることを...
AI研究

「人工知能」ライアン・リース

本動画は、素粒子物理学者から技術業界へ転身したライアン・リースが、人工知能の発展と創造性への影響について語るインタビューである。物理学から始まった彼のキャリアの軌跡、ディープラーニングの基本原理、創造的分野におけるAIの役割、そしてAIが人...
AI研究

ウェーブレット演算子理論:GPT-5を超えて(#スタートアップ)

この動画は、現在のGPTやClaude等のトランスフォーマーベースの大規模言語モデルを超える次世代AI技術として、ウェーブレット演算子理論を紹介している。従来のAIがベクトル空間での行列演算に依存する限界を指摘し、データを関数として扱うヒル...
AI研究

「知能最適化」- AIは実際どこまで賢くなれるのか?

この動画では、AI研究者が「知能最適化」という概念について解説している。人間の脳が一定のIQ閾値を超えると全ての認知プリミティブを生成できるようになるのと同様に、AIモデルも一定の能力に達すると全ての表現と操作が可能になり、それ以降の性能向...
AI研究

GSPO、FPO、ARPO

この動画は最新の強化学習論文であるGSPO、ARPO、FPOの詳細解説を行うhu-poによる配信である。各手法はPPOやGRPOの改良版として位置づけられ、特に大規模言語モデルの推論能力向上に焦点を当てている。GSPOはトークンレベルからシ...
AI研究

VLMはほぼ盲目状態なのか?(プリンストン、ハーバード、Google研究)

この動画では、ハーバード大学とプリンストン大学による最新の研究論文を通じて、現在の視覚言語モデル(VLM)の能力と限界を詳細に分析している。一方の研究では視覚化がAIのデータ分析性能を向上させることを示しているが、他方の研究では基本的な視覚...
AI研究

AI脳流出:重要な判断をChatGPTに外注するのはやめよう

MITの研究でAIが人間の思考力を奪うという結果が話題となった中、多くの人がChatGPTに重要な決断を丸投げしている現状を批判し、AIを単なる答え検索ツールとしてではなく分析パートナーとして活用する重要性を解説する動画である。特に金融分野...
AI研究

AI:知能は鍵ではない

本研究は、大規模言語モデルの推論能力を「高速思考」と「低速思考」に分解し、小型モデルが推論で失敗する理由を定量的に分析したものである。従来、小型モデルの推論性能不足は知識不足が原因とされてきたが、実際には「過度な思考」による自己破壊的な修正...
AI研究

強化学習の終焉:GAPA – 新しい遺伝的AI

この動画では、UC Berkeley、Stanford、MITなどの研究機関が開発した新しい遺伝的アルゴリズム「GAPA」について解説している。従来の強化学習よりも効率的で高性能な手法として、反省的プロンプト進化とパレート最適化を組み合わせ...
AI研究

AI研究者らが自律的自己改良AIを開発!

この動画では、AI研究者が自律的に自己改良するAIシステムを開発したという画期的な研究について解説している。研究チームは囲碁のAlphaGoにおける「第37手」のような革新的な発見をモデル架構の分野で実現したと主張しており、1,773回の自...
AI研究

生成AI の未来 パート2:混合再帰 vs トランスフォーマーアーキテクチャ

この動画は、AI モデルの効率化革命を詳しく探る解説である。従来の「大きければ良い」という考え方から、条件付き計算、混合専門家(MoE)、そして最新の混合再帰(MoR)まで、どのようにしてAIモデルが巨大な計算コストを伴わずに高い性能を実現...
AI研究

あなたのLLMは既に未来を知っている(Apple研究)

Appleが開発した革新的なAI技術について解説する動画である。従来の単一トークン予測から脱却し、既存のLLMが持つ潜在的な未来予測能力を引き出す手法を紹介している。特別な再学習を必要とせず、最小限のファインチューニングで最大500%の推論...
AI研究

エネルギーベーストランスフォーマーはスケーラブルな学習者かつ思考者である(論文レビュー)

の動画は、エネルギーベースモデルとトランスフォーマーを組み合わせた新しいアーキテクチャに関する論文レビューである。従来の単一フォワードパスによる推論とは異なり、推論時に複数の計算ステップを実行することで、より高精度な予測を実現する手法を提案...
AI研究

Stephen WolframがAI、人間的思考、形式的知識について語る

この動画では、計算言語とWolfram Alphaで知られるStephen Wolframが、人工知能と人間的思考の本質的な違いについて深く考察している。彼は人間のような思考と形式的思考の区別を論じ、LLMが浅く広い思考パターンを示す一方で...
AI研究

AIの失敗:DPO強化学習の崩壊(プリンストン大学)

この動画では、プリンストン大学と イリノイ大学による最新の研究論文を取り上げ、DPO(Direct Preference Optimization)における重大な問題点を解説している。従来、DPOは明示的報酬モデルに比べてシンプルで効果的な...
AI研究

AIについての真実は壊滅的:MIT、ハーバード大学による証明

この動画は、ハーバード大学とMITが共同で実施した最新のAI研究について解説している。研究では、大規模言語モデルや基盤モデルが真の物理法則や世界モデルを学習しているかどうかを検証するため、惑星軌道予測という具体的なタスクを用いて実験を行った...
AI研究

LLM推論のための知識グラフ上でのGNN::GATとGraphRAG(英国)

本動画は、グラフニューラルネットワーク(GNN)とグラフアテンションネットワーク(GAT)を知識グラフとGraphRAGシステムと組み合わせ、LLMの推論能力を向上させる最新のAI研究手法について解説している。特に映画推薦システムを例に、個...
AI研究

AIの隠された心:単なるデジタル幻想なのか?

この動画は、大規模言語モデル(LLM)の内部推論プロセスを分析する最新の研究について解説するものである。特に、再帰的トランスフォーマーアーキテクチャを用いた小さな言語モデルの研究に焦点を当て、LLMの隠れた思考プロセスを覗き見ることができる...
AI研究

AIの誇大宣伝を暴く:Meta副社長が語る「知的」機械が愚かなままである理由 | ヤン・ルカン

この動画では、Meta副社長兼NYU教授のヤン・ルカンが現在のAIシステムの根本的な限界について詳しく解説している。言語操作に長けているために知的に見えるAIも、実際には物理世界の理解、持続的記憶、推論、計画といった知的行動の本質的特性を欠...
AI研究

新しいAI枠組み:ポストトレーニング

本動画では、大規模言語モデルの事後訓練における画期的な発見について解説している。教師あり微調整と強化学習の性能比較実験により、教師あり微調整が数学的推論能力を向上させる一方で破滅的忘却を引き起こし、一般的知識を大幅に損失させることが明らかに...
AI研究

MoEよりも優秀 – グループ化エキスパート!

この動画では、Huaweiが開発した新しい大規模言語モデルアーキテクチャである「Grouped Experts混合」について解説している。従来のMixture of Experts(MoE)の問題点である専門家の不均等な活性化を解決するため...
AI研究

新しいAIモデル:階層的推論モデル(HRM)

この動画では、シンガポールのSapion Intelligence社が開発した新しい階層的推論モデル(HRM)について詳しく解説している。従来のトランスフォーマーの限界である浅い処理層と複雑な多段階推論の困難さを克服するため、低レベルモジュ...
AI研究

Fei-Fei Li:空間知能はAIの次なるフロンティア

AI界の「ゴッドマザー」と呼ばれるFei-Fei Li博士が、AIの次なるフロンティアである空間知能について語った講演である。ImageNetの開発から始まった彼女のキャリアを振り返りながら、言語AIの限界を超える3D世界の理解と生成を目指...
AI研究

この新しいアルゴリズムがすべてを変える可能性!真に自律的なAIが間近に迫っている

この動画では、torque clusteringという革新的なAIアルゴリズムについて解説している。この手法は従来の教師あり学習の限界を超え、自然知能のように観察と探索によって自律的に学習する無監督学習を実現する。97.7%という高い性能を...