Passer au contenu principal

Mercury 2

InceptionProprietary

Description

Mercury 2 is the fastest reasoning LLM, built on diffusion-based language model (dLLM) architecture. Instead of generating text token-by-token, it refines multiple text blocks simultaneously, achieving over 1,000 tokens per second on Nvidia Blackwell GPUs — 5x faster than leading speed-optimized LLMs. Supports tool usage and JSON output with 128K context window.

Date de sortie
2026-02-20
Paramètres
Longueur du contexte
128K
Modalités
text

Radar de capacités

29
general
32
coding
77
reasoning
51
scienceest.
50
agents
0
multimodal

Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.

Classements

Domaine#RangScoreSource
Code Ranking155
49.0
AA
General Ranking115
64.0
AA
Science106
60.0
AA

Scores de benchmarks (LLM Stats)

Biology

GPQA74.0%Aut.
SciCode38.0%Aut.

Code

LiveCodeBench67.0%Aut.

Communication

Tau2 Airline53.0%Aut.

General

IFBench71.0%Aut.

Math

AIME 202591.1%Aut.

Indices d'évaluation AA

Intelligence Index
32.8
Coding Index
30.6
Gpqa
0.8
Tau2
0.7
Ifbench
0.7
Scicode
0.4
Lcr
0.4
Terminalbench Hard
0.3
Hle
0.2

Scores par catégorie LLM Stats

General
70
Instruction Following
70
Biology
60
Chemistry
60
Math
60
Physics
60
Reasoning
60
Tool Calling
50
Code
50
Communication
50

Tarification

Prix d'entrée$0.25 / 1M tokens
Prix de sortie$0.75 / 1M tokens
Prix mixte (3:1)$0.375 / 1M tokens

Vitesse

Tokens/sec881.5 tokens/s
Délai du premier token3.71s
Temps de réponse3.71s

Fournisseurs disponibles

(Unités internes LS)
FournisseurPrix d'entréePrix de sortie
Inception250K750K

Sources externes