메인 콘텐츠로 건너뛰기

Phi-3.5-MoE-instruct

MicrosoftPhiOpen WeightMIT · Commercial OK

설명

Phi-3.5-MoE-instruct is a mixture-of-experts model with ~42B total parameters (6.6B active) and a 128K context window. It excels at reasoning, math, coding, and multilingual tasks, outperforming larger dense models in many benchmarks. It underwent a thorough safety post-training process (SFT + DPO) and is licensed under MIT. This model is ideal for scenarios where efficiency and high performance are both required, particularly in multi-lingual or reasoning-intensive tasks.

출시일
2024-08-23
파라미터
60.0B
컨텍스트 길이
모달리티

능력 레이더

70
general
70
coding
70
reasoning
34
science추정
0
agents
0
multimodal

전용 과학 벤치마크가 없을 때 Science는 추론 프록시를 사용하여 추정합니다.

랭킹

도메인#순위점수소스
Reasoning21
84.0
LS

벤치마크 점수 (LLM Stats)

Biology

GPQA36.8%자체 보고

Code

RepoQA85.0%자체 보고
HumanEval70.7%자체 보고

Creativity

Social IQa78.0%자체 보고
Arena Hard37.9%자체 보고

Finance

MMLU78.9%자체 보고
TruthfulQA77.5%자체 보고
MMLU-Pro45.3%자체 보고

General

ARC-C91.0%자체 보고
OpenBookQA89.6%자체 보고
PIQA88.6%자체 보고
MBPP0.81 / 100자체 보고
MMMLU69.9%자체 보고

Language

BoolQ84.6%자체 보고
MEGA XStoryCloze82.8%자체 보고
Winogrande81.3%자체 보고
BIG-Bench Hard79.1%자체 보고
MEGA XCOPA76.6%자체 보고
MEGA TyDi QA67.1%자체 보고
MEGA MLQA65.3%자체 보고
MEGA UDPOS60.4%자체 보고
SQuALITY24.1%자체 보고

Long Context

RULER87.1%자체 보고
Qasper40.0%자체 보고
GovReport26.4%자체 보고
QMSum19.9%자체 보고
SummScreenFD16.9%자체 보고

Math

GSM8k88.7%자체 보고
MATH59.5%자체 보고
MGSM58.7%자체 보고

Reasoning

HellaSwag83.8%자체 보고

AA 평가 지수

AA 평가 데이터가 없습니다

LLM Stats 카테고리 점수

Psychology
80
Code
70
Finance
70
General
70
Healthcare
70
Language
70
Legal
70
Math
70
Reasoning
70
Creativity
60
Long Context
60
Physics
60
Writing
40
Biology
40
Chemistry
40
Summarization
20

가격

가격 데이터가 없습니다

속도

속도 데이터가 없습니다

사용 가능한 프로바이더

(LS 내부 단위)

프로바이더 데이터가 없습니다

외부 링크