DeepSeek R1 0528 Qwen3 8B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 0528 Qwen3 8B es un transformador denso de 8.190 millones de parámetros de DeepSeek, destilado del modelo de razonamiento R1-0528 en una arquitectura basada en Qwen3. Aporta razonamiento "chain-of-thought" a la clase de 8B, igualando modelos mucho mayores en benchmarks matemáticos mientras se ejecuta en una sola GPU de consumo. Soporta generación de código, llamadas a herramientas y nueve idiomas incluyendo inglés, chino y las principales lenguas europeas. Con una ventana de contexto de 128K y "flash attention", se cuantiza eficientemente a GGUF para inferencia autoalojada con uso moderado de recursos.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 8.11 GB | — |
| Q8_K_XL | Alta | 10.08 GB | — |
| Q6_K | Alta | 6.26 GB | — |
| Q6_K_XL | Alta | 6.98 GB | — |
| Q5_K_M | Media | 5.45 GB | — |
| Q5_K_S | Media | 5.33 GB | — |
| Q5_K_XL | Media | 5.48 GB | — |
| Q4_K_M | Media | 4.68 GB | — |
| Q4_K_S | Media | 4.47 GB | — |
| Q4_K_XL | Media | 4.77 GB | — |
| Q4_0 | Media | 4.46 GB | — |
| Q4_1 | Media | 4.89 GB | — |
| Q3_K_M | Baja | 3.84 GB | — |
| Q3_K_S | Baja | 3.51 GB | — |
| Q3_K_XL | Baja | 4.02 GB | — |
| Q2_K | Baja | 3.06 GB | — |
| Q2_K_L | Baja | 3.19 GB | — |
| Q2_K_XL | Baja | 3.26 GB | — |
Última actualización: 5 de marzo de 2026