Ir al contenido

Mistral Small 4 119B 2603

Mistral AI
Code Multilingual Thinking Tool Calls Vision

Mistral Small 4 119B 2603 es un modelo Mixture-of-Experts de 119.400 millones de parámetros de Mistral AI, que activa 6.500 millones de parámetros por token a través de 4 de 128 expertos enrutados más 1 experto compartido. Admite entrada visual, llamada a herramientas, generación de código y esfuerzo de razonamiento ajustable en 24 idiomas. Una ventana de contexto de 256K, 40 % menos latencia y un rendimiento 3 veces superior al de Mistral Small 3 lo hacen idóneo para flujos de trabajo agénticos y multimodales de alto volumen. Su arquitectura MoE se cuantiza eficientemente en formato GGUF para despliegue autoalojado en configuraciones multi-GPU.

Configuración de hardware

Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
Q8_0 Alta 117.78 GB
Q6_K Alta 90.96 GB
Q4_K_M Media 67.21 GB
Última actualización: 17 de marzo de 2026