Mercury 2
InceptionProprietary
Descripción
Mercury 2 is the fastest reasoning LLM, built on diffusion-based language model (dLLM) architecture. Instead of generating text token-by-token, it refines multiple text blocks simultaneously, achieving over 1,000 tokens per second on Nvidia Blackwell GPUs — 5x faster than leading speed-optimized LLMs. Supports tool usage and JSON output with 128K context window.
Fecha de lanzamiento
2026-02-20
Parámetros
—
Longitud del contexto
128K
Modalidades
text
Radar de capacidades
29
general
32
coding
77
reasoning
51
scienceest.
50
agents
0
multimodal
Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.
Rankings
| Dominio | #Posición | Puntuación | Fuente |
|---|---|---|---|
| Code Ranking | 155 | 49.0 | AA |
| General Ranking | 115 | 64.0 | AA |
| Science | 106 | 60.0 | AA |
Puntuaciones de benchmarks (LLM Stats)
Biology
GPQA
74.0%Aut.
SciCode
38.0%Aut.
Code
LiveCodeBench
67.0%Aut.
Communication
Tau2 Airline
53.0%Aut.
General
IFBench
71.0%Aut.
Math
AIME 2025
91.1%Aut.
Índices de evaluación AA
Intelligence Index32.8
Coding Index30.6
Gpqa0.8
Tau20.7
Ifbench0.7
Scicode0.4
Lcr0.4
Terminalbench Hard0.3
Hle0.2
Puntuaciones por categoría LLM Stats
General70
Instruction Following70
Biology60
Chemistry60
Math60
Physics60
Reasoning60
Tool Calling50
Code50
Communication50
Precios
Precio de entrada$0.25 / 1M tokens
Precio de salida$0.75 / 1M tokens
Precio mixto (3:1)$0.375 / 1M tokens
Velocidad
Tokens/seg881.5 tokens/s
Retraso del primer token3.71s
Tiempo hasta la respuesta3.71s
Proveedores disponibles
(Unidades internas LS)| Proveedor | Precio de entrada | Precio de salida |
|---|---|---|
| Inception | 250K | 750K |