Saltar al contenido principal

Phi-3.5-vision-instruct

MicrosoftPhiOpen WeightMIT · Commercial OK

Descripción

Phi-3.5-vision-instruct is a 4.2B-parameter open multimodal model with up to 128K context tokens. It emphasizes multi-frame image understanding and reasoning, boosting performance on single-image benchmarks while enabling multi-image comparison, summarization, and even video analysis. The model underwent safety post-training for improved instruction-following, alignment, and robust handling of visual and text inputs, and is released under the MIT license.

Fecha de lanzamiento
2024-08-23
Parámetros
4.2B
Longitud del contexto
Modalidades

Radar de capacidades

40
general
0
coding
40
reasoning
34
scienceest.
0
agents
70
multimodal

Science usa un proxy de razonamiento cuando los benchmarks científicos dedicados no están disponibles.

Rankings

Dominio#PosiciónPuntuaciónFuente
Multimodal Ranking30
80.0
LS

Puntuaciones de benchmarks (LLM Stats)

General

MMMU43.0%Aut.

Image To Text

TextVQA72.0%Aut.

Math

ScienceQA91.3%Aut.
MathVista43.9%Aut.
InterGPS36.3%Aut.

Multimodal

POPE86.1%Aut.
MMBench81.9%Aut.
ChartQA81.8%Aut.
AI2D78.1%Aut.

Índices de evaluación AA

No hay datos de evaluación AA disponibles

Puntuaciones por categoría LLM Stats

Vision
70
Image To Text
70
Multimodal
70
Reasoning
70
General
40
Healthcare
40
Math
40

Precios

No hay datos de precios disponibles

Velocidad

No hay datos de velocidad disponibles

Proveedores disponibles

(Unidades internas LS)

No hay datos de proveedores disponibles

Fuentes externas