Ir al contenido

DeepSeek R1 Distill Qwen 7B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 7B es un transformador denso de 7.620 millones de parametros de DeepSeek, destilado del modelo de razonamiento R1 en una arquitectura compacta basada en Qwen. Aporta razonamiento "chain-of-thought" y capacidades de pensamiento a la clase de 7B parametros, rindiendo por encima de su categoria en tareas de matematicas y logica. Comparado con modelos instruct 7B estandar, ofrece un razonamiento estructurado notablemente mas fuerte. Con una ventana de contexto de 128K y nueve idiomas soportados, cabe en una sola GPU de consumo y se cuantiza bien para despliegue autoalojado eficiente.

Configuración de hardware

Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
FP16 Precisión completa 14.19 GB
Q8_0 Alta 7.54 GB
Q6_K Alta 5.82 GB
Q5_K_M Media 5.07 GB
Q4_K_M Media 4.36 GB
Q3_K_M Baja 3.55 GB
Q2_K Baja 2.81 GB
Q2_K_L Baja 2.93 GB
Última actualización: 5 de marzo de 2026