Saltar al contenido principal

Qwen2.5 Coder Instruct 7B

AlibabaQwenOpen WeightApache 2.0 · Commercial OK

Descripción

Qwen2.5-Coder is a specialized coding model trained on 5.5 trillion tokens of code data, supporting 92 programming languages with a 128K context window. It excels in code generation, completion, and repair while maintaining strong performance in math and general tasks. The model demonstrates exceptional capabilities in multi-programming language tasks and code reasoning.

Fecha de lanzamiento
2024-09-19
Parámetros
7.0B
Longitud del contexto
33K
Modalidades
text

Radar de capacidades

20
general
13
coding
29
reasoning
21
scienceest.
0
agents
0
multimodal

Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.

Rankings

Dominio#PosiciónPuntuaciónFuente
Code Ranking399
14.0
AA
General Ranking424
23.0
AA
Math Reasoning250
35.0
AA
Reasoning58
63.0
LS
Science418
21.0
AA

Puntuaciones de benchmarks (LLM Stats)

Code

HumanEval88.4%Aut.
Aider55.6%Aut.
LiveCodeBench18.2%Aut.

Finance

MMLU-Base68.0%Aut.
MMLU67.6%Aut.
TruthfulQA50.6%Aut.
MMLU-Pro40.1%Aut.
TheoremQA34.0%Aut.

General

MBPP0.83 / 100Aut.
MMLU-Redux66.6%Aut.
ARC-C60.9%Aut.
BigCodeBench41.0%Aut.

Language

Winogrande72.9%Aut.

Math

GSM8k83.9%Aut.
MATH46.6%Aut.
STEM34.0%Aut.

Reasoning

HellaSwag76.8%Aut.
CRUXEval-Input-CoT56.5%Aut.
CRUXEval-Output-CoT56.0%Aut.

Índices de evaluación AA

Intelligence Index
10.0
Math 500
0.7
Mmlu Pro
0.5
Gpqa
0.3
Scicode
0.1
Livecodebench
0.1
Aime
0.1
Hle
0.0

Puntuaciones por categoría LLM Stats

General
60
Language
60
Math
60
Reasoning
60
Code
50
Finance
50
Healthcare
50
Legal
50
Physics
30

Precios

Precio de entradaGratis
Precio de salidaGratis
Precio mixto (3:1)Gratis

Velocidad

Tokens/seg0.0 tokens/s
Retraso del primer token0.00s
Tiempo hasta la respuesta0.00s

Proveedores disponibles

(Unidades internas LS)

No hay datos de proveedores disponibles

Fuentes externas