Mistral Small 4 119B 2603
Mistral AI
Code Multilingual Thinking Tool Calls Vision
Mistral Small 4 119B 2603 es un modelo Mixture-of-Experts de 119.400 millones de parámetros de Mistral AI, que activa 6.500 millones de parámetros por token a través de 4 de 128 expertos enrutados más 1 experto compartido. Admite entrada visual, llamada a herramientas, generación de código y esfuerzo de razonamiento ajustable en 24 idiomas. Una ventana de contexto de 256K, 40 % menos latencia y un rendimiento 3 veces superior al de Mistral Small 3 lo hacen idóneo para flujos de trabajo agénticos y multimodales de alto volumen. Su arquitectura MoE se cuantiza eficientemente en formato GGUF para despliegue autoalojado en configuraciones multi-GPU.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 117.78 GB | — |
| Q6_K | Alta | 90.96 GB | — |
| Q4_K_M | Media | 67.21 GB | — |
Última actualización: 17 de marzo de 2026