Llama 3.3 Instruct 70B
MetaLlamaOpen WeightLlama 3.3 Community License Agreement
Description
Llama 3.3 is a multilingual large language model optimized for dialogue use cases across multiple languages. It is a pretrained and instruction-tuned generative model with 70 billion parameters, outperforming many open-source and closed chat models on common industry benchmarks. Llama 3.3 supports a context length of 128,000 tokens and is designed for commercial and research use in multiple languages.
Date de sortie
2024-12-06
Paramètres
70.0B
Longueur du contexte
131K
Modalités
text
Radar de capacités
30
general
19
coding
28
reasoning
32
scienceest.
80
agents
0
multimodal
Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.
Classements
| Domaine | #Rang | Score | Source |
|---|---|---|---|
| Code Ranking | 357 | 18.0 | AA |
| General Ranking | 280 | 38.0 | AA |
| Math Reasoning | 280 | 26.0 | AA |
| Science | 334 | 32.0 | AA |
Scores de benchmarks (LLM Stats)
Biology
GPQA
50.5%Aut.
Code
HumanEval
88.4%Aut.
Finance
MMLU
86.0%Aut.
MMLU-Pro
68.9%Aut.
General
IFEval
92.1%Aut.
MBPP EvalPlus
87.6%Aut.
BFCL v2
77.3%Aut.
Math
MGSM
91.1%Aut.
MATH
77.0%Aut.
Indices d'évaluation AA
Intelligence Index14.5
Coding Index10.7
Math Index7.7
Math 5000.8
Mmlu Pro0.7
Gpqa0.5
Ifbench0.5
Aime0.3
Livecodebench0.3
Tau20.3
Scicode0.3
Lcr0.1
Aime 250.1
Hle0.0
Terminalbench Hard0.0
Scores par catégorie LLM Stats
Structured Output90
Code90
Instruction Following90
Tool Calling80
Finance80
Healthcare80
Language80
Legal80
Math80
Reasoning80
General70
Biology50
Chemistry50
Physics50
Tarification
Prix d'entrée$0.585 / 1M tokens
Prix de sortie$0.71 / 1M tokens
Prix mixte (3:1)$0.616 / 1M tokens
Vitesse
Tokens/sec92.9 tokens/s
Délai du premier token0.57s
Temps de réponse0.57s
Fournisseurs disponibles
(Unités internes LS)Aucune donnée de fournisseur disponible