DeepSeek V3.1
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.1 es un modelo "Mixture-of-Experts" de 685.000 millones de parametros de DeepSeek, que activa 8 de 256 expertos por token mas un experto compartido. Ofrece rendimiento de vanguardia en generacion de codigo, razonamiento y tareas multilingues utilizando muchos menos parametros activos por paso de inferencia que modelos densos de tamano comparable. El modelo soporta modo de razonamiento, "tool calling" y nueve idiomas. Con una ventana de contexto de 160K, requiere configuraciones multi-GPU o distribuidas pero se cuantiza hasta niveles Q2 para una huella de VRAM reducida.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 664.33 GB | — |
| Q8_K_XL | Alta | 726.99 GB | — |
| Q6_K | Alta | 513.41 GB | — |
| Q6_K_XL | Alta | 535.03 GB | — |
| Q5_K_M | Media | 443.48 GB | — |
| Q5_K_S | Media | 430.87 GB | — |
| Q5_K_XL | Media | 451.3 GB | — |
| Q4_K_M | Media | 377.56 GB | — |
| Q4_K_S | Media | 354.9 GB | — |
| Q4_K_XL | Media | 360.33 GB | — |
| Q4_0 | Media | 354 GB | — |
| Q4_1 | Media | 391.86 GB | — |
| Q3_K_M | Baja | 298.46 GB | — |
| Q3_K_S | Baja | 270.49 GB | — |
| Q3_K_XL | Baja | 279.43 GB | — |
| Q2_K | Baja | 228.82 GB | — |
| Q2_K_L | Baja | 229.02 GB | — |
| Q2_K_XL | Baja | 238.17 GB | — |
Última actualización: 5 de marzo de 2026