MoE

Google・DeepMind・Alphabet

GoogleのGemma 4がAI業界に衝撃を与えた理由

GoogleがリリースしたGemma 4は、オープンソースAI業界に衝撃を与える画期的なモデルである。31億パラメータと26億パラメータのモデルは、最先端の推論能力を持ちながら、既存のフロンティアモデルの約10分の1のサイズという驚異的な効...
Google・DeepMind・Alphabet

GoogleがGemma 4をリリース これはすごい

Googleが新たにリリースしたGemma 4は、オープンソース・オープンウェイトモデルの最前線を押し上げる画期的な成果である。31億パラメータの密モデルと26億パラメータのMoEモデルを含む4つのサイズ展開で、業界標準のArena AIテ...
Anthropic・Claude・ダリオアモデイ

15億の活性パラメータを持つMoEモデルがOPUS 4.6の推論性能を上回る理由

オープンソースのMoE(Mixture of Experts)モデル「Mio Version 2 Flash」が、わずか15億の活性パラメータでClaude Opus 4.6を因果推論タスクで上回った背景には、革新的なアーキテクチャ設計が存...
中国

中国からまた大型AI登場!💥 LongCat Flash Chat 560B 💥

中国の美団という配送・グローサリーサービス企業が、560億パラメータのMoE(混合専門家)モデル「LongCat Flash Chat」をMITライセンスで公開した。注目すべきは、全560億パラメータのうち文脈に応じて平均27億パラメータの...