Mercury 2
InceptionProprietary
Description
Mercury 2 is the fastest reasoning LLM, built on diffusion-based language model (dLLM) architecture. Instead of generating text token-by-token, it refines multiple text blocks simultaneously, achieving over 1,000 tokens per second on Nvidia Blackwell GPUs — 5x faster than leading speed-optimized LLMs. Supports tool usage and JSON output with 128K context window.
Date de sortie
2026-02-20
Paramètres
—
Longueur du contexte
128K
Modalités
text
Radar de capacités
29
general
32
coding
77
reasoning
51
scienceest.
50
agents
0
multimodal
Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.
Classements
| Domaine | #Rang | Score | Source |
|---|---|---|---|
| Code Ranking | 155 | 49.0 | AA |
| General Ranking | 115 | 64.0 | AA |
| Science | 106 | 60.0 | AA |
Scores de benchmarks (LLM Stats)
Biology
GPQA
74.0%Aut.
SciCode
38.0%Aut.
Code
LiveCodeBench
67.0%Aut.
Communication
Tau2 Airline
53.0%Aut.
General
IFBench
71.0%Aut.
Math
AIME 2025
91.1%Aut.
Indices d'évaluation AA
Intelligence Index32.8
Coding Index30.6
Gpqa0.8
Tau20.7
Ifbench0.7
Scicode0.4
Lcr0.4
Terminalbench Hard0.3
Hle0.2
Scores par catégorie LLM Stats
General70
Instruction Following70
Biology60
Chemistry60
Math60
Physics60
Reasoning60
Tool Calling50
Code50
Communication50
Tarification
Prix d'entrée$0.25 / 1M tokens
Prix de sortie$0.75 / 1M tokens
Prix mixte (3:1)$0.375 / 1M tokens
Vitesse
Tokens/sec881.5 tokens/s
Délai du premier token3.71s
Temps de réponse3.71s
Fournisseurs disponibles
(Unités internes LS)| Fournisseur | Prix d'entrée | Prix de sortie |
|---|---|---|
| Inception | 250K | 750K |