DeepSeek R1 Distill Qwen 7B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 7B es un transformador denso de 7.620 millones de parametros de DeepSeek, destilado del modelo de razonamiento R1 en una arquitectura compacta basada en Qwen. Aporta razonamiento "chain-of-thought" y capacidades de pensamiento a la clase de 7B parametros, rindiendo por encima de su categoria en tareas de matematicas y logica. Comparado con modelos instruct 7B estandar, ofrece un razonamiento estructurado notablemente mas fuerte. Con una ventana de contexto de 128K y nueve idiomas soportados, cabe en una sola GPU de consumo y se cuantiza bien para despliegue autoalojado eficiente.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| FP16 | Precisión completa | 14.19 GB | — |
| Q8_0 | Alta | 7.54 GB | — |
| Q6_K | Alta | 5.82 GB | — |
| Q5_K_M | Media | 5.07 GB | — |
| Q4_K_M | Media | 4.36 GB | — |
| Q3_K_M | Baja | 3.55 GB | — |
| Q2_K | Baja | 2.81 GB | — |
| Q2_K_L | Baja | 2.93 GB | — |
Última actualización: 5 de marzo de 2026