Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)
NVIDIALlamaOpen WeightLlama 3.1 Community License
Descripción
Llama-3.1-Nemotron-Nano-8B-v1 is a large language model (LLM) which is a derivative of Meta Llama-3.1-8B-Instruct (AKA the reference model). It is a reasoning model that is post trained for reasoning, human chat preferences, and tasks, such as RAG and tool calling.
Fecha de lanzamiento
2025-05-20
Parámetros
8.0B
Longitud del contexto
—
Modalidades
—
Radar de capacidades
25
general
41
coding
61
reasoning
23
scienceest.
60
agents
0
multimodal
Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.
Rankings
| Dominio | #Posición | Puntuación | Fuente |
|---|---|---|---|
| Code Ranking | 286 | 27.0 | AA |
| General Ranking | 399 | 25.0 | AA |
| Math Reasoning | 141 | 64.0 | AA |
| Science | 414 | 21.0 | AA |
Puntuaciones de benchmarks (LLM Stats)
Biology
GPQA
54.1%Aut.
Communication
MT-Bench
0.81 / 100Aut.
General
MBPP
0.85 / 100Aut.
IFEval
79.3%Aut.
BFCL v2
63.6%Aut.
Math
MATH-500
95.4%Aut.
AIME 2025
47.1%Aut.
Índices de evaluación AA
Math Index50.0
Intelligence Index14.4
Math 5000.9
Aime0.7
Mmlu Pro0.6
Aime 250.5
Livecodebench0.5
Gpqa0.4
Ifbench0.3
Tau20.1
Scicode0.1
Hle0.1
Lcr0.0
Puntuaciones por categoría LLM Stats
Structured Output80
Communication80
Creativity80
Instruction Following80
Roleplay80
General70
Math70
Reasoning70
Tool Calling60
Biology50
Chemistry50
Physics50
Precios
Precio de entradaGratis
Precio de salidaGratis
Precio mixto (3:1)Gratis
Velocidad
Tokens/seg0.0 tokens/s
Retraso del primer token0.00s
Tiempo hasta la respuesta0.00s
Proveedores disponibles
(Unidades internas LS)No hay datos de proveedores disponibles