DeepSeek V3.2
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.2 es un modelo « Mixture-of-Experts » de 685.000 millones de parámetros de DeepSeek, que activa 8 de 256 expertos por token más un experto compartido. Ofrece rendimiento de vanguardia en generación de código, razonamiento y tareas multilingües utilizando muchos menos parámetros activos por paso de inferencia que modelos densos de tamaño comparable. El modelo soporta modo de razonamiento, « tool calling » y amplio soporte multilingüe. Con una ventana de contexto de 163K, requiere configuraciones multi-GPU o distribuidas pero se cuantiza hasta niveles Q2 para una huella de VRAM reducida.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 664.33 GB | — |
| Q8_K_XL | Alta | 726.67 GB | — |
| Q6_K | Alta | 513.41 GB | — |
| Q6_K_XL | Alta | 534.55 GB | — |
| Q5_K_M | Media | 443.48 GB | — |
| Q5_K_S | Media | 430.87 GB | — |
| Q5_K_XL | Media | 448.8 GB | — |
| Q4_K_M | Media | 377.56 GB | — |
| Q4_K_S | Media | 354.89 GB | — |
| Q4_K_XL | Media | 379.8 GB | — |
| Q4_0 | Media | 353.99 GB | — |
| Q4_1 | Media | 391.86 GB | — |
| Q3_K_M | Baja | 298.21 GB | — |
| Q3_K_S | Baja | 270.49 GB | — |
| Q3_K_XL | Baja | 298.99 GB | — |
| Q2_K | Baja | 228.52 GB | — |
| Q2_K_L | Baja | 228.73 GB | — |
| Q2_K_XL | Baja | 229.68 GB | — |
Última actualización: 19 de marzo de 2026