Перейти к основному содержанию

MiniCPM-SALA

OpenBMBOpen WeightApache 2.0 · Commercial OK

Описание

MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.

Дата выхода
2026-02-11
Параметры
9.5B
Длина контекста
Модальности

Радар способностей

70
general
100
coding
80
reasoning
60
scienceоцен.
0
agents
0
multimodal

Science использует прокси на основе рассуждений, когда специализированные научные бенчмарки недоступны.

Рейтинги

Нет данных рейтинга

Оценки бенчмарков (LLM Stats)

Code

HumanEval95.1%Сам.

Finance

MMLU-Pro67.0%Сам.

General

MBPP0.89 / 100Сам.
CMMLU81.5%Сам.
IFEval76.3%Сам.
LiveCodeBench v560.5%Сам.
LiveCodeBench v652.0%Сам.
MRCR 64K (2-needle)29.8%Сам.
MRCR 128K (2-needle)28.6%Сам.
MRCR 64K (4-needle)20.6%Сам.
MRCR 128K (4-needle)19.6%Сам.
MRCR 64K (8-needle)16.6%Сам.
MRCR 128K (8-needle)10.1%Сам.

Language

BBH81.5%Сам.

Long Context

RULER 64k92.7%Сам.
RULER 128k89.4%Сам.
RULER 512K87.1%Сам.
RULER 1000K86.3%Сам.
RULER 2048K81.6%Сам.
NoLiMa 32K54.5%Сам.
NoLiMa 64K43.0%Сам.
NoLiMa 128K23.9%Сам.

Math

AIME 202483.8%Сам.
AIME 202578.3%Сам.

Индексы оценки AA

Нет данных AA оценки

Оценки категорий LLM Stats

Code
100
Structured Output
80
Instruction Following
80
Language
80
Math
80
Reasoning
80
Finance
70
General
70
Healthcare
70
Legal
70

Цены

Нет данных о ценах

Скорость

Нет данных о скорости

Доступные провайдеры

(Внутренние единицы LS)

Нет данных провайдеров

Внешние ссылки