MiniCPM-SALA
OpenBMBOpen WeightApache 2.0 · Commercial OK
Описание
MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.
Дата выхода
2026-02-11
Параметры
9.5B
Длина контекста
—
Модальности
—
Радар способностей
70
general
100
coding
80
reasoning
60
scienceоцен.
0
agents
0
multimodal
Science использует прокси на основе рассуждений, когда специализированные научные бенчмарки недоступны.
Рейтинги
Нет данных рейтинга
Оценки бенчмарков (LLM Stats)
Code
HumanEval
95.1%Сам.
Finance
MMLU-Pro
67.0%Сам.
General
MBPP
0.89 / 100Сам.
CMMLU
81.5%Сам.
IFEval
76.3%Сам.
LiveCodeBench v5
60.5%Сам.
LiveCodeBench v6
52.0%Сам.
MRCR 64K (2-needle)
29.8%Сам.
MRCR 128K (2-needle)
28.6%Сам.
MRCR 64K (4-needle)
20.6%Сам.
MRCR 128K (4-needle)
19.6%Сам.
MRCR 64K (8-needle)
16.6%Сам.
MRCR 128K (8-needle)
10.1%Сам.
Language
BBH
81.5%Сам.
Long Context
RULER 64k
92.7%Сам.
RULER 128k
89.4%Сам.
RULER 512K
87.1%Сам.
RULER 1000K
86.3%Сам.
RULER 2048K
81.6%Сам.
NoLiMa 32K
54.5%Сам.
NoLiMa 64K
43.0%Сам.
NoLiMa 128K
23.9%Сам.
Math
AIME 2024
83.8%Сам.
AIME 2025
78.3%Сам.
Индексы оценки AA
Нет данных AA оценки
Оценки категорий LLM Stats
Code100
Structured Output80
Instruction Following80
Language80
Math80
Reasoning80
Finance70
General70
Healthcare70
Legal70
Цены
Нет данных о ценах
Скорость
Нет данных о скорости
Доступные провайдеры
(Внутренние единицы LS)Нет данных провайдеров