MiniCPM-SALA
विवरण
MiniCPM-SALA (Sparse Attention and Linear Attention) is a 9B hybrid model built from a MiniCPM-4.0 checkpoint via continual training (~2T tokens, 25% of training-from-scratch cost). It interleaves 25% InfLLM-V2 sparse attention and 75% Lightning Attention layers, achieving up to 3.5x inference speed over dense baselines at 256K tokens. With HyPE (Hybrid Positional Encoding) and NoPE in sparse layers, the model extrapolates to 2048K tokens despite a 520K training length, enabling 1M-token inference on consumer GPUs like the RTX 5090.
क्षमता रडार
समर्पित विज्ञान बेंचमार्क उपलब्ध न होने पर Science तर्क प्रॉक्सी का उपयोग करके अनुमान लगाता है।
रैंकिंग
कोई रैंकिंग डेटा उपलब्ध नहीं
बेंचमार्क स्कोर (LLM Stats)
Code
Finance
General
Language
Long Context
Math
AA मूल्यांकन सूचकांक
कोई AA मूल्यांकन डेटा उपलब्ध नहीं
LLM Stats श्रेणी स्कोर
मूल्य निर्धारण
कोई मूल्य डेटा उपलब्ध नहीं
गति
कोई गति डेटा उपलब्ध नहीं
उपलब्ध प्रदाता
(LS आंतरिक इकाइयाँ)कोई प्रदाता डेटा उपलब्ध नहीं