메인 콘텐츠로 건너뛰기

DeepSeek V3 0324

DeepSeekDeepSeekOpen WeightMIT + Model License (Commercial use allowed)

설명

A powerful Mixture-of-Experts (MoE) language model with 671B total parameters (37B activated per token). Features Multi-head Latent Attention (MLA), auxiliary-loss-free load balancing, and multi-token prediction training. Pre-trained on 14.8T tokens with strong performance in reasoning, math, and code tasks.

출시일
2025-03-25
파라미터
671.0B
컨텍스트 길이
164K
모달리티
text

능력 레이더

38
general
30
coding
54
reasoning
43
science추정
0
agents
0
multimodal

전용 과학 벤치마크가 없을 때 Science는 추론 프록시를 사용하여 추정합니다.

랭킹

도메인#순위점수소스
Code Ranking217
39.0
AA
General Ranking209
49.0
AA
Math Reasoning164
54.0
AA
Science232
45.0
AA

벤치마크 점수 (LLM Stats)

Biology

GPQA68.4%자체 보고

Code

LiveCodeBench49.2%자체 보고

Finance

MMLU-Pro81.2%자체 보고

Math

MATH-50094.0%자체 보고
AIME 202459.4%자체 보고

AA 평가 지수

Math Index
41.0
Intelligence Index
22.3
Coding Index
22.0
Math 500
0.9
Mmlu Pro
0.8
Gpqa
0.7
Aime
0.5
Tau2
0.5
Aime 25
0.4
Ifbench
0.4
Lcr
0.4
Livecodebench
0.4
Scicode
0.4
Terminalbench Hard
0.2
Hle
0.1

LLM Stats 카테고리 점수

Finance
80
Healthcare
80
Language
80
Legal
80
Math
80
Biology
70
Chemistry
70
General
70
Physics
70
Reasoning
70
Code
50

가격

입력 가격$1.195 / 1M tokens
출력 가격$1.25 / 1M tokens
혼합 가격 (3:1)$1.209 / 1M tokens

속도

토큰/초0.0 tokens/s
첫 토큰 지연0.00s
첫 응답 지연0.00s

사용 가능한 프로바이더

(LS 내부 단위)
프로바이더입력 가격출력 가격
Novita280K1.1M

외부 링크