MiniCPM-SALA
OpenBMBOpen WeightApache 2.0 · Commercial OK
설명
MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.
출시일
2026-02-11
파라미터
9.5B
컨텍스트 길이
—
모달리티
—
능력 레이더
70
general
100
coding
80
reasoning
60
science추정
0
agents
0
multimodal
전용 과학 벤치마크가 없을 때 Science는 추론 프록시를 사용하여 추정합니다.
랭킹
랭킹 데이터가 없습니다
벤치마크 점수 (LLM Stats)
Code
HumanEval
95.1%자체 보고
Finance
MMLU-Pro
67.0%자체 보고
General
MBPP
0.89 / 100자체 보고
CMMLU
81.5%자체 보고
IFEval
76.3%자체 보고
LiveCodeBench v5
60.5%자체 보고
LiveCodeBench v6
52.0%자체 보고
MRCR 64K (2-needle)
29.8%자체 보고
MRCR 128K (2-needle)
28.6%자체 보고
MRCR 64K (4-needle)
20.6%자체 보고
MRCR 128K (4-needle)
19.6%자체 보고
MRCR 64K (8-needle)
16.6%자체 보고
MRCR 128K (8-needle)
10.1%자체 보고
Language
BBH
81.5%자체 보고
Long Context
RULER 64k
92.7%자체 보고
RULER 128k
89.4%자체 보고
RULER 512K
87.1%자체 보고
RULER 1000K
86.3%자체 보고
RULER 2048K
81.6%자체 보고
NoLiMa 32K
54.5%자체 보고
NoLiMa 64K
43.0%자체 보고
NoLiMa 128K
23.9%자체 보고
Math
AIME 2024
83.8%자체 보고
AIME 2025
78.3%자체 보고
AA 평가 지수
AA 평가 데이터가 없습니다
LLM Stats 카테고리 점수
Code100
Structured Output80
Instruction Following80
Language80
Math80
Reasoning80
Finance70
General70
Healthcare70
Legal70
가격
가격 데이터가 없습니다
속도
속도 데이터가 없습니다
사용 가능한 프로바이더
(LS 내부 단위)프로바이더 데이터가 없습니다