Passer au contenu principal

Qwen2.5 Coder Instruct 32B

AlibabaQwenOpen WeightApache 2.0 · Commercial OK

Description

Qwen2.5-Coder is a specialized coding model trained on 5.5 trillion tokens of code data, supporting 92 programming languages with a 128K context window. It excels in code generation, completion, repair, and multi-programming tasks while maintaining strong performance in mathematics and general capabilities.

Date de sortie
2024-11-11
Paramètres
32.0B
Longueur du contexte
33K
Modalités
text

Radar de capacités

27
general
29
coding
37
reasoning
29
scienceest.
0
agents
0
multimodal

Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.

Classements

Domaine#RangScoreSource
Code Ranking256
32.0
AA
General Ranking339
33.0
AA
Math Reasoning208
45.0
AA
Reasoning23
83.0
LS
Science361
30.0
AA

Scores de benchmarks (LLM Stats)

Code

HumanEval92.7%Aut.
LiveCodeBench31.4%Aut.

Finance

MMLU75.1%Aut.
TruthfulQA54.2%Aut.
MMLU-Pro50.4%Aut.
TheoremQA43.1%Aut.

General

MBPP0.90 / 100Aut.
MMLU-Redux77.5%Aut.
ARC-C70.5%Aut.
BigCodeBench-Full49.6%Aut.
BigCodeBench-Hard27.0%Aut.

Language

Winogrande80.8%Aut.

Math

GSM8k91.1%Aut.
MATH57.2%Aut.

Reasoning

HellaSwag83.0%Aut.

Indices d'évaluation AA

Intelligence Index
12.9
Math 500
0.8
Mmlu Pro
0.6
Gpqa
0.4
Livecodebench
0.3
Scicode
0.3
Aime
0.1
Hle
0.0

Scores par catégorie LLM Stats

Language
70
Math
70
Reasoning
70
Code
60
Finance
60
General
60
Healthcare
60
Legal
60
Physics
40

Tarification

Prix d'entréeGratuit
Prix de sortieGratuit
Prix mixte (3:1)Gratuit

Vitesse

Tokens/sec0.0 tokens/s
Délai du premier token0.00s
Temps de réponse0.00s

Fournisseurs disponibles

(Unités internes LS)

Aucune donnée de fournisseur disponible

Sources externes