MiniCPM-SALA
OpenBMBOpen WeightApache 2.0 · Commercial OK
説明
MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.
リリース日
2026-02-11
パラメータ
9.5B
コンテキスト長
—
モダリティ
—
能力レーダー
70
general
100
coding
80
reasoning
60
science推定
0
agents
0
multimodal
専門的な科学ベンチマークが利用できない場合、Scienceは推論プロキシを使用して推定します。
ランキング
ランキングデータがありません
ベンチマークスコア (LLM Stats)
Code
HumanEval
95.1%自己申告
Finance
MMLU-Pro
67.0%自己申告
General
MBPP
0.89 / 100自己申告
CMMLU
81.5%自己申告
IFEval
76.3%自己申告
LiveCodeBench v5
60.5%自己申告
LiveCodeBench v6
52.0%自己申告
MRCR 64K (2-needle)
29.8%自己申告
MRCR 128K (2-needle)
28.6%自己申告
MRCR 64K (4-needle)
20.6%自己申告
MRCR 128K (4-needle)
19.6%自己申告
MRCR 64K (8-needle)
16.6%自己申告
MRCR 128K (8-needle)
10.1%自己申告
Language
BBH
81.5%自己申告
Long Context
RULER 64k
92.7%自己申告
RULER 128k
89.4%自己申告
RULER 512K
87.1%自己申告
RULER 1000K
86.3%自己申告
RULER 2048K
81.6%自己申告
NoLiMa 32K
54.5%自己申告
NoLiMa 64K
43.0%自己申告
NoLiMa 128K
23.9%自己申告
Math
AIME 2024
83.8%自己申告
AIME 2025
78.3%自己申告
AA評価指数
AA評価データがありません
LLM Statsカテゴリスコア
Code100
Structured Output80
Instruction Following80
Language80
Math80
Reasoning80
Finance70
General70
Healthcare70
Legal70
価格設定
価格データがありません
速度
速度データがありません
利用可能なプロバイダー
(LS内部単位)プロバイダーデータがありません