Saltar al contenido principal

Sarvam 30B (high)

SarvamOpen WeightApache 2.0 · Commercial OK

Descripción

Sarvam-30B is an open-source 30B-parameter Mixture-of-Experts reasoning model from Sarvam AI trained from scratch and optimized for Indian languages, coding, and conversational workloads. It uses 128 sparse experts with 2.4B active parameters per token, Grouped Query Attention, and was pre-trained on 16 trillion tokens spanning code, mathematics, multilingual, and web data.

Fecha de lanzamiento
2026-03-06
Parámetros
30.0B
Longitud del contexto
Modalidades

Radar de capacidades

11
general
10
coding
63
reasoning
37
scienceest.
40
agents
0
multimodal

Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.

Rankings

Dominio#PosiciónPuntuaciónFuente
Agents & Tools90
36.0
LS
Code Ranking436
8.0
AA
General Ranking431
21.0
AA
Science297
36.0
AA

Puntuaciones de benchmarks (LLM Stats)

Agents

BrowseComp35.5%Aut.

Biology

GPQA66.5%Aut.

Code

HumanEval92.1%Aut.
SWE-Bench Verified34.0%Aut.

Creativity

Arena-Hard v249.0%Aut.

Finance

MMLU85.1%Aut.
MMLU-Pro80.0%Aut.

General

MBPP0.93 / 100Aut.
LiveCodeBench v670.0%Aut.

Math

MATH-50097.0%Aut.
AIME 202596.7%Aut.
HMMT2574.2%Aut.
HMMT 202573.3%Aut.
Beyond AIME58.3%Aut.

Índices de evaluación AA

Intelligence Index
12.3
Coding Index
7.9
Gpqa
0.6
Tau2
0.3
Ifbench
0.3
Scicode
0.2
Hle
0.1
Terminalbench Hard
0.0
Lcr
0.0

Puntuaciones por categoría LLM Stats

Finance
80
Healthcare
80
Language
80
Legal
80
Math
80
Biology
70
Chemistry
70
General
70
Physics
70
Reasoning
70
Code
60
Writing
50
Creativity
50
Agents
40
Search
40
Frontend Development
30

Precios

Precio de entradaGratis
Precio de salidaGratis
Precio mixto (3:1)Gratis

Velocidad

Tokens/seg168.7 tokens/s
Retraso del primer token1.23s
Tiempo hasta la respuesta13.09s

Proveedores disponibles

(Unidades internas LS)

No hay datos de proveedores disponibles

Fuentes externas