Ir al contenido

DeepSeek R1 0528 Qwen3 8B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 0528 Qwen3 8B es un transformador denso de 8.190 millones de parámetros de DeepSeek, destilado del modelo de razonamiento R1-0528 en una arquitectura basada en Qwen3. Aporta razonamiento "chain-of-thought" a la clase de 8B, igualando modelos mucho mayores en benchmarks matemáticos mientras se ejecuta en una sola GPU de consumo. Soporta generación de código, llamadas a herramientas y nueve idiomas incluyendo inglés, chino y las principales lenguas europeas. Con una ventana de contexto de 128K y "flash attention", se cuantiza eficientemente a GGUF para inferencia autoalojada con uso moderado de recursos.

Configuración de hardware

Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
Q8_0 Alta 8.11 GB
Q8_K_XL Alta 10.08 GB
Q6_K Alta 6.26 GB
Q6_K_XL Alta 6.98 GB
Q5_K_M Media 5.45 GB
Q5_K_S Media 5.33 GB
Q5_K_XL Media 5.48 GB
Q4_K_M Media 4.68 GB
Q4_K_S Media 4.47 GB
Q4_K_XL Media 4.77 GB
Q4_0 Media 4.46 GB
Q4_1 Media 4.89 GB
Q3_K_M Baja 3.84 GB
Q3_K_S Baja 3.51 GB
Q3_K_XL Baja 4.02 GB
Q2_K Baja 3.06 GB
Q2_K_L Baja 3.19 GB
Q2_K_XL Baja 3.26 GB
Última actualización: 5 de marzo de 2026