DeepSeek V4 Flash (Reasoning, Max Effort)
विवरण
DeepSeek-V4-Flash-Max is the maximum reasoning effort mode of DeepSeek-V4-Flash, a 284B-parameter MoE model with 13B activated parameters and a 1M-token context window. Sharing the V4 series' hybrid attention architecture (Compressed Sparse Attention combined with Heavily Compressed Attention), Manifold-Constrained Hyper-Connections, and Muon optimizer, V4-Flash-Max delivers reasoning performance comparable to V4-Pro when given a larger thinking budget while operating at a fraction of the parameter scale. It is pre-trained on more than 32T tokens and post-trained with a two-stage paradigm of domain-specific expert cultivation followed by on-policy distillation.
क्षमता रडार
समर्पित विज्ञान बेंचमार्क उपलब्ध न होने पर Science तर्क प्रॉक्सी का उपयोग करके अनुमान लगाता है।
रैंकिंग
| डोमेन | #रैंक | स्कोर | स्रोत |
|---|---|---|---|
| Agents & Tools | 49 | 57.0 | LS |
| Code Ranking | 64 | 68.0 | AA |
| General Ranking | 24 | 85.0 | AA |
| Science | 25 | 80.0 | AA |
बेंचमार्क स्कोर (LLM Stats)
Agents
Biology
Code
Factuality
Finance
General
Math
AA मूल्यांकन सूचकांक
LLM Stats श्रेणी स्कोर
मूल्य निर्धारण
गति
उपलब्ध प्रदाता
(LS आंतरिक इकाइयाँ)| प्रदाता | इनपुट मूल्य | आउटपुट मूल्य |
|---|---|---|
| DeepSeek | 140K | 280K |