DeepSeek R1 Distill Llama 70B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Llama 70B es un transformador denso de 70.550 millones de parámetros de DeepSeek, destilado del modelo de razonamiento R1 en una arquitectura basada en Llama 3. Ofrece razonamiento "chain-of-thought" de nivel frontera en la clase de 70B, superando a modelos de razonamiento más pequeños en benchmarks de matemáticas, código y lógica. Soporta generación de código, llamadas a herramientas y nueve idiomas incluyendo inglés, chino y las principales lenguas europeas. Con una ventana de contexto de 128K y "flash attention", es adecuado para despliegues autoalojados multi-GPU y se cuantiza bien a GGUF en una amplia gama de formatos.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| FP16 | Precisión completa | 131.43 GB | — |
| Q8_0 | Alta | 69.82 GB | — |
| Q8_K_XL | Alta | 75.66 GB | — |
| Q6_K | Alta | 107.82 GB | — |
| Q6_K_XL | Alta | 56.96 GB | — |
| Q5_K_M | Media | 46.52 GB | — |
| Q5_K_S | Media | 45.32 GB | — |
| Q5_K_XL | Media | 46.54 GB | — |
| Q4_K_M | Media | 39.6 GB | — |
| Q4_K_S | Media | 37.58 GB | — |
| Q4_K_XL | Media | 39.73 GB | — |
| Q4_0 | Media | 37.36 GB | — |
| Q4_1 | Media | 41.27 GB | — |
| Q3_K_M | Baja | 31.91 GB | — |
| Q3_K_S | Baja | 28.79 GB | — |
| Q3_K_XL | Baja | 32.48 GB | — |
| Q2_K | Baja | 24.56 GB | — |
| Q2_K_L | Baja | 24.79 GB | — |
| Q2_K_XL | Baja | 25.11 GB | — |
Última actualización: 5 de marzo de 2026