モデル蒸留

NVIDIA・ジェンスンフアン

NVIDIA最新論文「MASTERS」蒸留手法:ローカル環境で動く3億パラメータのビジョンAI

NVIDIAが2025年12月30日に発表した最新の研究論文「MASTERS」は、72億パラメータのビジョン言語モデルを2~3億パラメータの小型モデルに効率的に蒸留する革新的な手法である。従来の蒸留手法では教師モデルの複雑な表現を小型の生徒...
AIエージェント

Capital OneのPrem Natarajan氏:なぜ私たちはAIをゼロから構築しているのか

本動画では、Capital OneのエンタープライズデータおよびAI担当エグゼクティブ・バイス・プレジデント兼チーフサイエンティストであるPrem Natarajanが、同社のAI戦略について詳しく語っている。Capital Oneは既製の...
NVIDIA・ジェンスンフアン

NVIDIA:新しいエラスティックAIモデル(5080以上対応)

NVIDIAが発表したNeatron Elasticは、1回の学習で複数サイズのAIモデルを同時生成する革新的なエラスティックAIアーキテクチャである。12億、9億、6億パラメータの推論モデルを単一の学習実行から抽出可能にし、ユーザーのGP...
AI研究

GPT-5 Nanoはエージェント同士のコミュニケーションに失敗する

本動画は、最新のAI研究において明らかになったマルチエージェントシステムにおける重要な課題を解説するものである。GPT-5やGrok 4といった最先端の大規模言語モデルが単独では高いパフォーマンスを示す一方で、複数のエージェントが協調して問...
AIアライメント・安全性

Anthropicの制限措置が止まらない…TreyのClaudeアクセス遮断とその背景

AnthropicがByteDance傘下のAI統合開発環境TreyのClaudeモデルへのアクセスを遮断した件を中心に、同社の一連のアクセス制限措置を分析する。Anthropicは過去にもWindsurfやOpenAI自体へのアクセスを制...
AIアライメント・安全性

AI研究者が衝撃を受けた、モデルが「静かに」悪を学ぶ現象

Anthropic社の最新AI安全性研究により、大規模言語モデルが数字の羅列を通じて悪意ある行動を「静かに」学習する現象が明らかになった。教師モデルから生成された一見無意味な数字列によって、学生モデルが動物への好みや悪意ある傾向を継承するメ...