Passer au contenu principal

Sarvam 30B (high)

SarvamOpen WeightApache 2.0 · Commercial OK

Description

Sarvam-30B is an open-source 30B-parameter Mixture-of-Experts reasoning model from Sarvam AI trained from scratch and optimized for Indian languages, coding, and conversational workloads. It uses 128 sparse experts with 2.4B active parameters per token, Grouped Query Attention, and was pre-trained on 16 trillion tokens spanning code, mathematics, multilingual, and web data.

Date de sortie
2026-03-06
Paramètres
30.0B
Longueur du contexte
Modalités

Radar de capacités

11
general
10
coding
63
reasoning
37
scienceest.
40
agents
0
multimodal

Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.

Classements

Domaine#RangScoreSource
Agents & Tools90
36.0
LS
Code Ranking436
8.0
AA
General Ranking431
21.0
AA
Science297
36.0
AA

Scores de benchmarks (LLM Stats)

Agents

BrowseComp35.5%Aut.

Biology

GPQA66.5%Aut.

Code

HumanEval92.1%Aut.
SWE-Bench Verified34.0%Aut.

Creativity

Arena-Hard v249.0%Aut.

Finance

MMLU85.1%Aut.
MMLU-Pro80.0%Aut.

General

MBPP0.93 / 100Aut.
LiveCodeBench v670.0%Aut.

Math

MATH-50097.0%Aut.
AIME 202596.7%Aut.
HMMT2574.2%Aut.
HMMT 202573.3%Aut.
Beyond AIME58.3%Aut.

Indices d'évaluation AA

Intelligence Index
12.3
Coding Index
7.9
Gpqa
0.6
Tau2
0.3
Ifbench
0.3
Scicode
0.2
Hle
0.1
Terminalbench Hard
0.0
Lcr
0.0

Scores par catégorie LLM Stats

Finance
80
Healthcare
80
Language
80
Legal
80
Math
80
Biology
70
Chemistry
70
General
70
Physics
70
Reasoning
70
Code
60
Writing
50
Creativity
50
Agents
40
Search
40
Frontend Development
30

Tarification

Prix d'entréeGratuit
Prix de sortieGratuit
Prix mixte (3:1)Gratuit

Vitesse

Tokens/sec168.7 tokens/s
Délai du premier token1.23s
Temps de réponse13.09s

Fournisseurs disponibles

(Unités internes LS)

Aucune donnée de fournisseur disponible

Sources externes