मुख्य सामग्री पर जाएं

Phi-3.5-MoE-instruct

MicrosoftPhiOpen WeightMIT · Commercial OK

विवरण

Phi-3.5-MoE-instruct is a mixture-of-experts model with ~42B total parameters (6.6B active) and a 128K context window. It excels at reasoning, math, coding, and multilingual tasks, outperforming larger dense models in many benchmarks. It underwent a thorough safety post-training process (SFT + DPO) and is licensed under MIT. This model is ideal for scenarios where efficiency and high performance are both required, particularly in multi-lingual or reasoning-intensive tasks.

रिलीज़ तिथि
2024-08-23
पैरामीटर
60.0B
संदर्भ लंबाई
मोडैलिटीज़

क्षमता रडार

70
general
70
coding
70
reasoning
34
scienceअनुमानित
0
agents
0
multimodal

समर्पित विज्ञान बेंचमार्क उपलब्ध न होने पर Science तर्क प्रॉक्सी का उपयोग करके अनुमान लगाता है।

रैंकिंग

डोमेन#रैंकस्कोरस्रोत
Reasoning21
84.0
LS

बेंचमार्क स्कोर (LLM Stats)

Biology

GPQA36.8%स्वयं

Code

RepoQA85.0%स्वयं
HumanEval70.7%स्वयं

Creativity

Social IQa78.0%स्वयं
Arena Hard37.9%स्वयं

Finance

MMLU78.9%स्वयं
TruthfulQA77.5%स्वयं
MMLU-Pro45.3%स्वयं

General

ARC-C91.0%स्वयं
OpenBookQA89.6%स्वयं
PIQA88.6%स्वयं
MBPP0.81 / 100स्वयं
MMMLU69.9%स्वयं

Language

BoolQ84.6%स्वयं
MEGA XStoryCloze82.8%स्वयं
Winogrande81.3%स्वयं
BIG-Bench Hard79.1%स्वयं
MEGA XCOPA76.6%स्वयं
MEGA TyDi QA67.1%स्वयं
MEGA MLQA65.3%स्वयं
MEGA UDPOS60.4%स्वयं
SQuALITY24.1%स्वयं

Long Context

RULER87.1%स्वयं
Qasper40.0%स्वयं
GovReport26.4%स्वयं
QMSum19.9%स्वयं
SummScreenFD16.9%स्वयं

Math

GSM8k88.7%स्वयं
MATH59.5%स्वयं
MGSM58.7%स्वयं

Reasoning

HellaSwag83.8%स्वयं

AA मूल्यांकन सूचकांक

कोई AA मूल्यांकन डेटा उपलब्ध नहीं

LLM Stats श्रेणी स्कोर

Psychology
80
Code
70
Finance
70
General
70
Healthcare
70
Language
70
Legal
70
Math
70
Reasoning
70
Creativity
60
Long Context
60
Physics
60
Writing
40
Biology
40
Chemistry
40
Summarization
20

मूल्य निर्धारण

कोई मूल्य डेटा उपलब्ध नहीं

गति

कोई गति डेटा उपलब्ध नहीं

उपलब्ध प्रदाता

(LS आंतरिक इकाइयाँ)

कोई प्रदाता डेटा उपलब्ध नहीं

बाहरी लिंक