Phi-3.5-vision-instruct
MicrosoftPhiOpen WeightMIT · Commercial OK
Description
Phi-3.5-vision-instruct is a 4.2B-parameter open multimodal model with up to 128K context tokens. It emphasizes multi-frame image understanding and reasoning, boosting performance on single-image benchmarks while enabling multi-image comparison, summarization, and even video analysis. The model underwent safety post-training for improved instruction-following, alignment, and robust handling of visual and text inputs, and is released under the MIT license.
Date de sortie
2024-08-23
Paramètres
4.2B
Longueur du contexte
—
Modalités
—
Radar de capacités
40
general
0
coding
40
reasoning
34
scienceest.
0
agents
70
multimodal
Science utilise un proxy de raisonnement lorsque les benchmarks scientifiques dédiés ne sont pas disponibles.
Classements
| Domaine | #Rang | Score | Source |
|---|---|---|---|
| Multimodal Ranking | 30 | 80.0 | LS |
Scores de benchmarks (LLM Stats)
General
MMMU
43.0%Aut.
Image To Text
TextVQA
72.0%Aut.
Math
ScienceQA
91.3%Aut.
MathVista
43.9%Aut.
InterGPS
36.3%Aut.
Multimodal
POPE
86.1%Aut.
MMBench
81.9%Aut.
ChartQA
81.8%Aut.
AI2D
78.1%Aut.
Indices d'évaluation AA
Aucune donnée d'évaluation AA disponible
Scores par catégorie LLM Stats
Vision70
Image To Text70
Multimodal70
Reasoning70
General40
Healthcare40
Math40
Tarification
Aucune donnée de prix disponible
Vitesse
Aucune donnée de vitesse disponible
Fournisseurs disponibles
(Unités internes LS)Aucune donnée de fournisseur disponible