Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)
NVIDIALlamaOpen WeightLlama 3.1 Community License
Description
Llama-3.1-Nemotron-Nano-8B-v1 is a large language model (LLM) which is a derivative of Meta Llama-3.1-8B-Instruct (AKA the reference model). It is a reasoning model that is post trained for reasoning, human chat preferences, and tasks, such as RAG and tool calling.
Date de sortie
2025-05-20
Paramètres
8.0B
Longueur du contexte
—
Modalités
—
Radar de capacités
25
general
41
coding
61
reasoning
23
scienceest.
60
agents
0
multimodal
Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.
Classements
| Domaine | #Rang | Score | Source |
|---|---|---|---|
| Code Ranking | 286 | 27.0 | AA |
| General Ranking | 399 | 25.0 | AA |
| Math Reasoning | 141 | 64.0 | AA |
| Science | 414 | 21.0 | AA |
Scores de benchmarks (LLM Stats)
Biology
GPQA
54.1%Aut.
Communication
MT-Bench
0.81 / 100Aut.
General
MBPP
0.85 / 100Aut.
IFEval
79.3%Aut.
BFCL v2
63.6%Aut.
Math
MATH-500
95.4%Aut.
AIME 2025
47.1%Aut.
Indices d'évaluation AA
Math Index50.0
Intelligence Index14.4
Math 5000.9
Aime0.7
Mmlu Pro0.6
Aime 250.5
Livecodebench0.5
Gpqa0.4
Ifbench0.3
Tau20.1
Scicode0.1
Hle0.1
Lcr0.0
Scores par catégorie LLM Stats
Structured Output80
Communication80
Creativity80
Instruction Following80
Roleplay80
General70
Math70
Reasoning70
Tool Calling60
Biology50
Chemistry50
Physics50
Tarification
Prix d'entréeGratuit
Prix de sortieGratuit
Prix mixte (3:1)Gratuit
Vitesse
Tokens/sec0.0 tokens/s
Délai du premier token0.00s
Temps de réponse0.00s
Fournisseurs disponibles
(Unités internes LS)Aucune donnée de fournisseur disponible