DeepSeek R1 Distill Qwen 14B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 14B es un transformador denso de 14.770 millones de parámetros de DeepSeek, destilado del modelo de razonamiento R1 en una arquitectura basada en Qwen2.5. Aporta razonamiento "chain-of-thought" a la clase de 14B, superando a modelos instruct comparables en benchmarks de matemáticas y código mediante destilación de razonamiento. Soporta generación de código, llamadas a herramientas y nueve idiomas incluyendo inglés, chino y las principales lenguas europeas. Con una ventana de contexto de 128K y "flash attention", cabe en una sola GPU de gama media y se cuantiza eficientemente a GGUF para despliegue autoalojado.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| FP16 | Precisión completa | 27.52 GB | — |
| Q8_0 | Alta | 14.62 GB | — |
| Q6_K | Alta | 11.29 GB | — |
| Q5_K_M | Media | 9.79 GB | — |
| Q4_K_M | Media | 8.37 GB | — |
| Q3_K_M | Baja | 6.84 GB | — |
| Q2_K | Baja | 5.37 GB | — |
| Q2_K_L | Baja | 5.54 GB | — |
Última actualización: 5 de marzo de 2026