Ir al contenido

DeepSeek R1 Distill Llama 70B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Llama 70B es un transformador denso de 70.550 millones de parámetros de DeepSeek, destilado del modelo de razonamiento R1 en una arquitectura basada en Llama 3. Ofrece razonamiento "chain-of-thought" de nivel frontera en la clase de 70B, superando a modelos de razonamiento más pequeños en benchmarks de matemáticas, código y lógica. Soporta generación de código, llamadas a herramientas y nueve idiomas incluyendo inglés, chino y las principales lenguas europeas. Con una ventana de contexto de 128K y "flash attention", es adecuado para despliegues autoalojados multi-GPU y se cuantiza bien a GGUF en una amplia gama de formatos.

Configuración de hardware

Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
FP16 Precisión completa 131.43 GB
Q8_0 Alta 69.82 GB
Q8_K_XL Alta 75.66 GB
Q6_K Alta 107.82 GB
Q6_K_XL Alta 56.96 GB
Q5_K_M Media 46.52 GB
Q5_K_S Media 45.32 GB
Q5_K_XL Media 46.54 GB
Q4_K_M Media 39.6 GB
Q4_K_S Media 37.58 GB
Q4_K_XL Media 39.73 GB
Q4_0 Media 37.36 GB
Q4_1 Media 41.27 GB
Q3_K_M Baja 31.91 GB
Q3_K_S Baja 28.79 GB
Q3_K_XL Baja 32.48 GB
Q2_K Baja 24.56 GB
Q2_K_L Baja 24.79 GB
Q2_K_XL Baja 25.11 GB
Última actualización: 5 de marzo de 2026