Mistral Large 3 675B Instruct 2512
Mistral AI
Code Multilingual Tool Calls
Mistral Large 3 675B Instruct 2512 es un modelo granular "Mixture-of-Experts" de 675.000 millones de parámetros de Mistral AI, que activa 4 de 128 expertos más 1 experto compartido por token para una inferencia eficiente a gran escala. Representa el modelo abierto insignia de Mistral AI, diseñado para razonamiento general, flujos de trabajo agente y aplicaciones empresariales. El modelo soporta "tool calling", generación de código y 11 idiomas, incluidos inglés, francés, español y árabe. Con una ventana de contexto de 288K y "flash attention", maneja el análisis de documentos extensos mientras su arquitectura MoE mantiene el cómputo por token manejable para despliegue autoalojado cuantizado en formato GGUF.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 666.55 GB | — |
| Q8_K_XL | Alta | 720.39 GB | — |
| Q6_K | Alta | 515.3 GB | — |
| Q6_K_XL | Alta | 536.9 GB | — |
| Q5_K_M | Media | 445.15 GB | — |
| Q5_K_S | Media | 432.56 GB | — |
| Q5_K_XL | Media | 446.87 GB | — |
| Q4_K_M | Media | 379.04 GB | — |
| Q4_K_S | Media | 356.38 GB | — |
| Q4_K_XL | Media | 361.26 GB | — |
| Q4_0 | Media | 355.48 GB | — |
| Q4_1 | Media | 393.34 GB | — |
| Q3_K_M | Baja | 299.72 GB | — |
| Q3_K_S | Baja | 271.83 GB | — |
| Q3_K_XL | Baja | 280.14 GB | — |
| Q2_K | Baja | 230.13 GB | — |
| Q2_K_L | Baja | 230.33 GB | — |
| Q2_K_XL | Baja | 238.76 GB | — |
Última actualización: 5 de marzo de 2026