推論性能

Anthropic・Claude・ダリオアモデイ

15億の活性パラメータを持つMoEモデルがOPUS 4.6の推論性能を上回る理由

オープンソースのMoE(Mixture of Experts)モデル「Mio Version 2 Flash」が、わずか15億の活性パラメータでClaude Opus 4.6を因果推論タスクで上回った背景には、革新的なアーキテクチャ設計が存...
AI研究

DeepSeekがLLMを劇的に強化:Engramの登場

DeepSeekが発表した「Engram」は、大規模言語モデルの根本的な非効率性を解決する革新的なアーキテクチャである。従来のLLMは繰り返し出現する固有名詞やフレーズを毎回再計算していたが、Engramは人間の脳のような高速メモリモジュー...