メインコンテンツへスキップ

MiniCPM-SALA

OpenBMBOpen WeightApache 2.0 · Commercial OK

説明

MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.

リリース日
2026-02-11
パラメータ
9.5B
コンテキスト長
モダリティ

能力レーダー

70
general
100
coding
80
reasoning
60
science推定
0
agents
0
multimodal

専門的な科学ベンチマークが利用できない場合、Scienceは推論プロキシを使用して推定します。

ランキング

ランキングデータがありません

ベンチマークスコア (LLM Stats)

Code

HumanEval95.1%自己申告

Finance

MMLU-Pro67.0%自己申告

General

MBPP0.89 / 100自己申告
CMMLU81.5%自己申告
IFEval76.3%自己申告
LiveCodeBench v560.5%自己申告
LiveCodeBench v652.0%自己申告
MRCR 64K (2-needle)29.8%自己申告
MRCR 128K (2-needle)28.6%自己申告
MRCR 64K (4-needle)20.6%自己申告
MRCR 128K (4-needle)19.6%自己申告
MRCR 64K (8-needle)16.6%自己申告
MRCR 128K (8-needle)10.1%自己申告

Language

BBH81.5%自己申告

Long Context

RULER 64k92.7%自己申告
RULER 128k89.4%自己申告
RULER 512K87.1%自己申告
RULER 1000K86.3%自己申告
RULER 2048K81.6%自己申告
NoLiMa 32K54.5%自己申告
NoLiMa 64K43.0%自己申告
NoLiMa 128K23.9%自己申告

Math

AIME 202483.8%自己申告
AIME 202578.3%自己申告

AA評価指数

AA評価データがありません

LLM Statsカテゴリスコア

Code
100
Structured Output
80
Instruction Following
80
Language
80
Math
80
Reasoning
80
Finance
70
General
70
Healthcare
70
Legal
70

価格設定

価格データがありません

速度

速度データがありません

利用可能なプロバイダー

(LS内部単位)

プロバイダーデータがありません

外部リンク