Phi-3.5-MoE-instruct
MicrosoftPhiOpen WeightMIT · Commercial OK
विवरण
Phi-3.5-MoE-instruct is a mixture-of-experts model with ~42B total parameters (6.6B active) and a 128K context window. It excels at reasoning, math, coding, and multilingual tasks, outperforming larger dense models in many benchmarks. It underwent a thorough safety post-training process (SFT + DPO) and is licensed under MIT. This model is ideal for scenarios where efficiency and high performance are both required, particularly in multi-lingual or reasoning-intensive tasks.
रिलीज़ तिथि
2024-08-23
पैरामीटर
60.0B
संदर्भ लंबाई
—
मोडैलिटीज़
—
क्षमता रडार
70
general
70
coding
70
reasoning
34
scienceअनुमानित
0
agents
0
multimodal
समर्पित विज्ञान बेंचमार्क उपलब्ध न होने पर Science तर्क प्रॉक्सी का उपयोग करके अनुमान लगाता है।
रैंकिंग
| डोमेन | #रैंक | स्कोर | स्रोत |
|---|---|---|---|
| Reasoning | 21 | 84.0 | LS |
बेंचमार्क स्कोर (LLM Stats)
Biology
GPQA
36.8%स्वयं
Code
RepoQA
85.0%स्वयं
HumanEval
70.7%स्वयं
Creativity
Social IQa
78.0%स्वयं
Arena Hard
37.9%स्वयं
Finance
MMLU
78.9%स्वयं
TruthfulQA
77.5%स्वयं
MMLU-Pro
45.3%स्वयं
General
ARC-C
91.0%स्वयं
OpenBookQA
89.6%स्वयं
PIQA
88.6%स्वयं
MBPP
0.81 / 100स्वयं
MMMLU
69.9%स्वयं
Language
BoolQ
84.6%स्वयं
MEGA XStoryCloze
82.8%स्वयं
Winogrande
81.3%स्वयं
BIG-Bench Hard
79.1%स्वयं
MEGA XCOPA
76.6%स्वयं
MEGA TyDi QA
67.1%स्वयं
MEGA MLQA
65.3%स्वयं
MEGA UDPOS
60.4%स्वयं
SQuALITY
24.1%स्वयं
Long Context
RULER
87.1%स्वयं
Qasper
40.0%स्वयं
GovReport
26.4%स्वयं
QMSum
19.9%स्वयं
SummScreenFD
16.9%स्वयं
Math
GSM8k
88.7%स्वयं
MATH
59.5%स्वयं
MGSM
58.7%स्वयं
Reasoning
HellaSwag
83.8%स्वयं
AA मूल्यांकन सूचकांक
कोई AA मूल्यांकन डेटा उपलब्ध नहीं
LLM Stats श्रेणी स्कोर
Psychology80
Code70
Finance70
General70
Healthcare70
Language70
Legal70
Math70
Reasoning70
Creativity60
Long Context60
Physics60
Writing40
Biology40
Chemistry40
Summarization20
मूल्य निर्धारण
कोई मूल्य डेटा उपलब्ध नहीं
गति
कोई गति डेटा उपलब्ध नहीं
उपलब्ध प्रदाता
(LS आंतरिक इकाइयाँ)कोई प्रदाता डेटा उपलब्ध नहीं