Saltar al contenido principal

Mercury 2

InceptionProprietary

Descripción

Mercury 2 is the fastest reasoning LLM, built on diffusion-based language model (dLLM) architecture. Instead of generating text token-by-token, it refines multiple text blocks simultaneously, achieving over 1,000 tokens per second on Nvidia Blackwell GPUs — 5x faster than leading speed-optimized LLMs. Supports tool usage and JSON output with 128K context window.

Fecha de lanzamiento
2026-02-20
Parámetros
Longitud del contexto
128K
Modalidades
text

Radar de capacidades

29
general
32
coding
77
reasoning
51
scienceest.
50
agents
0
multimodal

Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.

Rankings

Dominio#PosiciónPuntuaciónFuente
Code Ranking155
49.0
AA
General Ranking115
64.0
AA
Science106
60.0
AA

Puntuaciones de benchmarks (LLM Stats)

Biology

GPQA74.0%Aut.
SciCode38.0%Aut.

Code

LiveCodeBench67.0%Aut.

Communication

Tau2 Airline53.0%Aut.

General

IFBench71.0%Aut.

Math

AIME 202591.1%Aut.

Índices de evaluación AA

Intelligence Index
32.8
Coding Index
30.6
Gpqa
0.8
Tau2
0.7
Ifbench
0.7
Scicode
0.4
Lcr
0.4
Terminalbench Hard
0.3
Hle
0.2

Puntuaciones por categoría LLM Stats

General
70
Instruction Following
70
Biology
60
Chemistry
60
Math
60
Physics
60
Reasoning
60
Tool Calling
50
Code
50
Communication
50

Precios

Precio de entrada$0.25 / 1M tokens
Precio de salida$0.75 / 1M tokens
Precio mixto (3:1)$0.375 / 1M tokens

Velocidad

Tokens/seg881.5 tokens/s
Retraso del primer token3.71s
Tiempo hasta la respuesta3.71s

Proveedores disponibles

(Unidades internas LS)
ProveedorPrecio de entradaPrecio de salida
Inception250K750K

Fuentes externas