Passer au contenu principal

Llama 3.3 Instruct 70B

MetaLlamaOpen WeightLlama 3.3 Community License Agreement

Description

Llama 3.3 is a multilingual large language model optimized for dialogue use cases across multiple languages. It is a pretrained and instruction-tuned generative model with 70 billion parameters, outperforming many open-source and closed chat models on common industry benchmarks. Llama 3.3 supports a context length of 128,000 tokens and is designed for commercial and research use in multiple languages.

Date de sortie
2024-12-06
Paramètres
70.0B
Longueur du contexte
131K
Modalités
text

Radar de capacités

30
general
19
coding
28
reasoning
32
scienceest.
80
agents
0
multimodal

Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.

Classements

Domaine#RangScoreSource
Code Ranking357
18.0
AA
General Ranking280
38.0
AA
Math Reasoning280
26.0
AA
Science334
32.0
AA

Scores de benchmarks (LLM Stats)

Biology

GPQA50.5%Aut.

Code

HumanEval88.4%Aut.

Finance

MMLU86.0%Aut.
MMLU-Pro68.9%Aut.

General

IFEval92.1%Aut.
MBPP EvalPlus87.6%Aut.
BFCL v277.3%Aut.

Math

MGSM91.1%Aut.
MATH77.0%Aut.

Indices d'évaluation AA

Intelligence Index
14.5
Coding Index
10.7
Math Index
7.7
Math 500
0.8
Mmlu Pro
0.7
Gpqa
0.5
Ifbench
0.5
Aime
0.3
Livecodebench
0.3
Tau2
0.3
Scicode
0.3
Lcr
0.1
Aime 25
0.1
Hle
0.0
Terminalbench Hard
0.0

Scores par catégorie LLM Stats

Structured Output
90
Code
90
Instruction Following
90
Tool Calling
80
Finance
80
Healthcare
80
Language
80
Legal
80
Math
80
Reasoning
80
General
70
Biology
50
Chemistry
50
Physics
50

Tarification

Prix d'entrée$0.585 / 1M tokens
Prix de sortie$0.71 / 1M tokens
Prix mixte (3:1)$0.616 / 1M tokens

Vitesse

Tokens/sec92.9 tokens/s
Délai du premier token0.57s
Temps de réponse0.57s

Fournisseurs disponibles

(Unités internes LS)

Aucune donnée de fournisseur disponible

Sources externes