メインコンテンツへスキップ

GLM-5.1 (Reasoning)

Z AIGLMOpen WeightMIT · Commercial OK

説明

GLM-5.1 is Z.AI's next-generation flagship foundation model designed for long-horizon agentic engineering tasks. Built on a 754B MoE architecture (40B active parameters), it can work continuously and autonomously on a single task for up to 8 hours, completing the full loop from planning and execution to iterative optimization and delivery. GLM-5.1 achieves state-of-the-art on SWE-Bench Pro (58.4) and demonstrates strong performance across coding, reasoning, and agentic benchmarks. It supports 200K context length, 128K max output tokens, thinking mode, function calling, structured output, context caching, and MCP integration. Overall performance is aligned with Claude Opus 4.6 with particular strengths in sustained execution and complex engineering optimization.

リリース日
2026-04-07
パラメータ
754.0B
コンテキスト長
203K
モダリティ
text

能力レーダー

46
general
43
coding
87
reasoning
60
science推定
60
agents
0
multimodal

専門的な科学ベンチマークが利用できない場合、Scienceは推論プロキシを使用して推定します。

ランキング

ドメイン#順位スコアソース
Agents & Tools21
67.0
LS
Code Ranking40
75.0
AA
General Ranking9
90.0
AA
Science33
76.0
AA

ベンチマークスコア (LLM Stats)

Agents

Vending-Bench 2563441.0%自己申告
BrowseComp79.3%自己申告
MCP Atlas71.8%自己申告
TAU3-Bench70.6%自己申告
Terminal-Bench 2.069.0%自己申告
CyberGym68.7%自己申告
SWE-Bench Pro58.4%自己申告
NL2Repo42.7%自己申告
Toolathlon40.7%自己申告

Biology

GPQA86.2%自己申告

Math

AIME 202695.3%自己申告
HMMT 202594.0%自己申告
IMO-AnswerBench83.8%自己申告
HMMT Feb 2682.6%自己申告
Humanity's Last Exam52.3%自己申告

AA評価指数

Intelligence Index
51.4
Coding Index
43.4
Tau2
1.0
Gpqa
0.9
Ifbench
0.8
Lcr
0.6
Scicode
0.4
Terminalbench Hard
0.4
Hle
0.3

LLM Statsカテゴリスコア

Agents
100
Reasoning
100
Biology
90
Chemistry
90
General
90
Physics
90
Math
80
Search
80
Code
70
Safety
70
Tool Calling
60
Vision
50
Coding
40

価格設定

入力価格$1.4 / 1M tokens
出力価格$4.4 / 1M tokens
混合価格(3:1)$2.15 / 1M tokens

速度

トークン/秒53.8 tokens/s
初トークン遅延1.04s
初回答遅延71.55s

利用可能なプロバイダー

(LS内部単位)
プロバイダー入力価格出力価格
ZAI1.4M4.4M

外部リンク