मुख्य सामग्री पर जाएं

MiniCPM-SALA

OpenBMBOpen WeightApache 2.0 · Commercial OK

विवरण

MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.

रिलीज़ तिथि
2026-02-11
पैरामीटर
9.5B
संदर्भ लंबाई
मोडैलिटीज़

क्षमता रडार

70
general
100
coding
80
reasoning
60
scienceअनुमानित
0
agents
0
multimodal

समर्पित विज्ञान बेंचमार्क उपलब्ध न होने पर Science तर्क प्रॉक्सी का उपयोग करके अनुमान लगाता है।

रैंकिंग

कोई रैंकिंग डेटा उपलब्ध नहीं

बेंचमार्क स्कोर (LLM Stats)

Code

HumanEval95.1%स्वयं

Finance

MMLU-Pro67.0%स्वयं

General

MBPP0.89 / 100स्वयं
CMMLU81.5%स्वयं
IFEval76.3%स्वयं
LiveCodeBench v560.5%स्वयं
LiveCodeBench v652.0%स्वयं
MRCR 64K (2-needle)29.8%स्वयं
MRCR 128K (2-needle)28.6%स्वयं
MRCR 64K (4-needle)20.6%स्वयं
MRCR 128K (4-needle)19.6%स्वयं
MRCR 64K (8-needle)16.6%स्वयं
MRCR 128K (8-needle)10.1%स्वयं

Language

BBH81.5%स्वयं

Long Context

RULER 64k92.7%स्वयं
RULER 128k89.4%स्वयं
RULER 512K87.1%स्वयं
RULER 1000K86.3%स्वयं
RULER 2048K81.6%स्वयं
NoLiMa 32K54.5%स्वयं
NoLiMa 64K43.0%स्वयं
NoLiMa 128K23.9%स्वयं

Math

AIME 202483.8%स्वयं
AIME 202578.3%स्वयं

AA मूल्यांकन सूचकांक

कोई AA मूल्यांकन डेटा उपलब्ध नहीं

LLM Stats श्रेणी स्कोर

Code
100
Structured Output
80
Instruction Following
80
Language
80
Math
80
Reasoning
80
Finance
70
General
70
Healthcare
70
Legal
70

मूल्य निर्धारण

कोई मूल्य डेटा उपलब्ध नहीं

गति

कोई गति डेटा उपलब्ध नहीं

उपलब्ध प्रदाता

(LS आंतरिक इकाइयाँ)

कोई प्रदाता डेटा उपलब्ध नहीं

बाहरी लिंक