DeepSeek R1 Distill Llama 70B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Llama 70B est un transformeur dense de 70,55 milliards de paramètres de DeepSeek, distillé à partir du modèle de raisonnement R1 dans une architecture basée sur Llama 3. Il offre un raisonnement "chain-of-thought" de pointe dans la classe des 70B, surpassant les modèles de raisonnement plus petits sur les benchmarks de mathématiques, de code et de logique. Il prend en charge la génération de code, les appels d'outils et neuf langues dont l'anglais, le chinois et les principales langues européennes. Avec une fenêtre de contexte de 128K et le "flash attention", il convient aux déploiements auto-hébergés multi-GPU et se quantifie bien en GGUF dans de nombreux formats.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 131.43 GB | — |
| Q8_0 | Élevée | 69.82 GB | — |
| Q8_K_XL | Élevée | 75.66 GB | — |
| Q6_K | Élevée | 107.82 GB | — |
| Q6_K_XL | Élevée | 56.96 GB | — |
| Q5_K_M | Moyenne | 46.52 GB | — |
| Q5_K_S | Moyenne | 45.32 GB | — |
| Q5_K_XL | Moyenne | 46.54 GB | — |
| Q4_K_M | Moyenne | 39.6 GB | — |
| Q4_K_S | Moyenne | 37.58 GB | — |
| Q4_K_XL | Moyenne | 39.73 GB | — |
| Q4_0 | Moyenne | 37.36 GB | — |
| Q4_1 | Moyenne | 41.27 GB | — |
| Q3_K_M | Basse | 31.91 GB | — |
| Q3_K_S | Basse | 28.79 GB | — |
| Q3_K_XL | Basse | 32.48 GB | — |
| Q2_K | Basse | 24.56 GB | — |
| Q2_K_L | Basse | 24.79 GB | — |
| Q2_K_XL | Basse | 25.11 GB | — |
Dernière mise à jour : 5 mars 2026