Gemma 4 E2B (Reasoning)
GoogleGemmaOpen WeightApache 2.0 · Commercial OK
Descripción
Gemma 4 E2B is Google DeepMind's smallest multimodal model with 2.3 billion effective parameters (5.1B with embeddings) and a 128K context window. Supports image, text, and audio inputs. Designed for on-device and edge deployment with Per-Layer Embeddings for efficient inference.
Fecha de lanzamiento
2026-04-02
Parámetros
5.1B
Longitud del contexto
—
Modalidades
—
Radar de capacidades
13
general
11
coding
43
reasoning
28
scienceest.
30
agents
40
multimodal
Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.
Rankings
| Dominio | #Posición | Puntuación | Fuente |
|---|---|---|---|
| Agents & Tools | 97 | 29.0 | LS |
| Code Ranking | 389 | 14.0 | AA |
| General Ranking | 403 | 24.0 | AA |
| Science | 370 | 28.0 | AA |
Puntuaciones de benchmarks (LLM Stats)
Agents
t2-bench
29.4%Aut.
Biology
GPQA
43.4%Aut.
Finance
MMLU-Pro
60.0%Aut.
General
MMMLU
67.4%Aut.
MMMU-Pro
44.2%Aut.
LiveCodeBench v6
44.0%Aut.
BIG-Bench Extra Hard
21.9%Aut.
MRCR v2
19.1%Aut.
Healthcare
MedXpertQA
23.5%Aut.
Math
MathVision
52.4%Aut.
AIME 2026
37.5%Aut.
Índices de evaluación AA
Intelligence Index15.2
Coding Index9.0
Gpqa0.4
Ifbench0.4
Scicode0.2
Tau20.2
Lcr0.1
Hle0.0
Terminalbench Hard0.0
Puntuaciones por categoría LLM Stats
Finance60
Legal60
Language50
Math50
Vision40
Biology40
Chemistry40
General40
Healthcare40
Multimodal40
Physics40
Reasoning40
Tool Calling30
Agents30
Long Context20
Precios
Precio de entradaGratis
Precio de salidaGratis
Precio mixto (3:1)Gratis
Velocidad
Tokens/seg0.0 tokens/s
Retraso del primer token0.00s
Tiempo hasta la respuesta0.00s
Proveedores disponibles
(Unidades internas LS)No hay datos de proveedores disponibles