Ir al contenido

DeepSeek V3.2

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.2 es un modelo « Mixture-of-Experts » de 685.000 millones de parámetros de DeepSeek, que activa 8 de 256 expertos por token más un experto compartido. Ofrece rendimiento de vanguardia en generación de código, razonamiento y tareas multilingües utilizando muchos menos parámetros activos por paso de inferencia que modelos densos de tamaño comparable. El modelo soporta modo de razonamiento, « tool calling » y amplio soporte multilingüe. Con una ventana de contexto de 163K, requiere configuraciones multi-GPU o distribuidas pero se cuantiza hasta niveles Q2 para una huella de VRAM reducida.

Configuración de hardware

Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
Q8_0 Alta 664.33 GB
Q8_K_XL Alta 726.67 GB
Q6_K Alta 513.41 GB
Q6_K_XL Alta 534.55 GB
Q5_K_M Media 443.48 GB
Q5_K_S Media 430.87 GB
Q5_K_XL Media 448.8 GB
Q4_K_M Media 377.56 GB
Q4_K_S Media 354.89 GB
Q4_K_XL Media 379.8 GB
Q4_0 Media 353.99 GB
Q4_1 Media 391.86 GB
Q3_K_M Baja 298.21 GB
Q3_K_S Baja 270.49 GB
Q3_K_XL Baja 298.99 GB
Q2_K Baja 228.52 GB
Q2_K_L Baja 228.73 GB
Q2_K_XL Baja 229.68 GB
Última actualización: 19 de marzo de 2026