Saltar al contenido principal

Qwen2.5 Coder Instruct 32B

AlibabaQwenOpen WeightApache 2.0 · Commercial OK

Descripción

Qwen2.5-Coder is a specialized coding model trained on 5.5 trillion tokens of code data, supporting 92 programming languages with a 128K context window. It excels in code generation, completion, repair, and multi-programming tasks while maintaining strong performance in mathematics and general capabilities.

Fecha de lanzamiento
2024-11-11
Parámetros
32.0B
Longitud del contexto
33K
Modalidades
text

Radar de capacidades

27
general
29
coding
37
reasoning
29
scienceest.
0
agents
0
multimodal

Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.

Rankings

Dominio#PosiciónPuntuaciónFuente
Code Ranking256
32.0
AA
General Ranking339
33.0
AA
Math Reasoning208
45.0
AA
Reasoning23
83.0
LS
Science361
30.0
AA

Puntuaciones de benchmarks (LLM Stats)

Code

HumanEval92.7%Aut.
LiveCodeBench31.4%Aut.

Finance

MMLU75.1%Aut.
TruthfulQA54.2%Aut.
MMLU-Pro50.4%Aut.
TheoremQA43.1%Aut.

General

MBPP0.90 / 100Aut.
MMLU-Redux77.5%Aut.
ARC-C70.5%Aut.
BigCodeBench-Full49.6%Aut.
BigCodeBench-Hard27.0%Aut.

Language

Winogrande80.8%Aut.

Math

GSM8k91.1%Aut.
MATH57.2%Aut.

Reasoning

HellaSwag83.0%Aut.

Índices de evaluación AA

Intelligence Index
12.9
Math 500
0.8
Mmlu Pro
0.6
Gpqa
0.4
Livecodebench
0.3
Scicode
0.3
Aime
0.1
Hle
0.0

Puntuaciones por categoría LLM Stats

Language
70
Math
70
Reasoning
70
Code
60
Finance
60
General
60
Healthcare
60
Legal
60
Physics
40

Precios

Precio de entradaGratis
Precio de salidaGratis
Precio mixto (3:1)Gratis

Velocidad

Tokens/seg0.0 tokens/s
Retraso del primer token0.00s
Tiempo hasta la respuesta0.00s

Proveedores disponibles

(Unidades internas LS)

No hay datos de proveedores disponibles

Fuentes externas