DeepSeek V3 (Dec '24)
DeepSeekDeepSeekOpen WeightMIT + Model License (Commercial use allowed)
説明
A powerful Mixture-of-Experts (MoE) language model with 671B total parameters (37B activated per token). Features Multi-head Latent Attention (MLA), auxiliary-loss-free load balancing, and multi-token prediction training. Pre-trained on 14.8T tokens with strong performance in reasoning, math, and code tasks.
リリース日
2024-12-26
パラメータ
671.0B
コンテキスト長
164K
モダリティ
text
能力レーダー
32
general
25
coding
38
reasoning
38
science推定
0
agents
0
multimodal
専門的な科学ベンチマークが利用できない場合、Scienceは推論プロキシを使用して推定します。
ランキング
| ドメイン | #順位 | スコア | ソース |
|---|---|---|---|
| Code Ranking | 273 | 29.0 | AA |
| General Ranking | 306 | 36.0 | AA |
| Math Reasoning | 226 | 39.0 | AA |
| Reasoning | 36 | 76.0 | LS |
| Science | 272 | 40.0 | AA |
ベンチマークスコア (LLM Stats)
Biology
GPQA
59.1%自己申告
Code
Aider-Polyglot Edit
79.7%自己申告
Aider-Polyglot
49.6%自己申告
SWE-Bench Verified
42.0%自己申告
LiveCodeBench
37.6%自己申告
Factuality
SimpleQA
24.9%自己申告
Finance
MMLU
88.5%自己申告
MMLU-Pro
75.9%自己申告
General
MMLU-Redux
89.1%自己申告
C-Eval
86.5%自己申告
IFEval
86.1%自己申告
CSimpleQA
64.8%自己申告
LongBench v2
48.7%自己申告
Language
CLUEWSC
90.9%自己申告
Math
DROP
91.6%自己申告
MATH-500
90.2%自己申告
CNMO 2024
43.2%自己申告
AIME 2024
39.2%自己申告
Reasoning
HumanEval-Mul
82.6%自己申告
FRAMES
73.3%自己申告
AA評価指数
Math Index26.0
Intelligence Index16.5
Coding Index16.4
Math 5000.9
Mmlu Pro0.8
Gpqa0.6
Livecodebench0.4
Scicode0.4
Ifbench0.3
Lcr0.3
Aime 250.3
Aime0.3
Tau20.2
Terminalbench Hard0.1
Hle0.0
LLM Statsカテゴリスコア
Instruction Following90
Finance80
Healthcare80
Language80
Legal80
Structured Output70
General70
Math70
Reasoning70
Biology60
Chemistry60
Physics60
Code50
Long Context50
Frontend Development40
Factuality20
価格設定
入力価格$0.4 / 1M tokens
出力価格$0.89 / 1M tokens
混合価格(3:1)$0.523 / 1M tokens
速度
トークン/秒0.0 tokens/s
初トークン遅延0.00s
初回答遅延0.00s
利用可能なプロバイダー
(LS内部単位)プロバイダーデータがありません