Passer au contenu principal

Qwen2.5 Coder Instruct 7B

AlibabaQwenOpen WeightApache 2.0 · Commercial OK

Description

Qwen2.5-Coder is a specialized coding model trained on 5.5 trillion tokens of code data, supporting 92 programming languages with a 128K context window. It excels in code generation, completion, and repair while maintaining strong performance in math and general tasks. The model demonstrates exceptional capabilities in multi-programming language tasks and code reasoning.

Date de sortie
2024-09-19
Paramètres
7.0B
Longueur du contexte
33K
Modalités
text

Radar de capacités

20
general
13
coding
29
reasoning
21
scienceest.
0
agents
0
multimodal

Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.

Classements

Domaine#RangScoreSource
Code Ranking399
14.0
AA
General Ranking424
23.0
AA
Math Reasoning250
35.0
AA
Reasoning58
63.0
LS
Science418
21.0
AA

Scores de benchmarks (LLM Stats)

Code

HumanEval88.4%Aut.
Aider55.6%Aut.
LiveCodeBench18.2%Aut.

Finance

MMLU-Base68.0%Aut.
MMLU67.6%Aut.
TruthfulQA50.6%Aut.
MMLU-Pro40.1%Aut.
TheoremQA34.0%Aut.

General

MBPP0.83 / 100Aut.
MMLU-Redux66.6%Aut.
ARC-C60.9%Aut.
BigCodeBench41.0%Aut.

Language

Winogrande72.9%Aut.

Math

GSM8k83.9%Aut.
MATH46.6%Aut.
STEM34.0%Aut.

Reasoning

HellaSwag76.8%Aut.
CRUXEval-Input-CoT56.5%Aut.
CRUXEval-Output-CoT56.0%Aut.

Indices d'évaluation AA

Intelligence Index
10.0
Math 500
0.7
Mmlu Pro
0.5
Gpqa
0.3
Scicode
0.1
Livecodebench
0.1
Aime
0.1
Hle
0.0

Scores par catégorie LLM Stats

General
60
Language
60
Math
60
Reasoning
60
Code
50
Finance
50
Healthcare
50
Legal
50
Physics
30

Tarification

Prix d'entréeGratuit
Prix de sortieGratuit
Prix mixte (3:1)Gratuit

Vitesse

Tokens/sec0.0 tokens/s
Délai du premier token0.00s
Temps de réponse0.00s

Fournisseurs disponibles

(Unités internes LS)

Aucune donnée de fournisseur disponible

Sources externes