Aller au contenu

DeepSeek R1 Distill Llama 70B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Llama 70B est un transformeur dense de 70,55 milliards de paramètres de DeepSeek, distillé à partir du modèle de raisonnement R1 dans une architecture basée sur Llama 3. Il offre un raisonnement "chain-of-thought" de pointe dans la classe des 70B, surpassant les modèles de raisonnement plus petits sur les benchmarks de mathématiques, de code et de logique. Il prend en charge la génération de code, les appels d'outils et neuf langues dont l'anglais, le chinois et les principales langues européennes. Avec une fenêtre de contexte de 128K et le "flash attention", il convient aux déploiements auto-hébergés multi-GPU et se quantifie bien en GGUF dans de nombreux formats.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 131.43 GB
Q8_0 Élevée 69.82 GB
Q8_K_XL Élevée 75.66 GB
Q6_K Élevée 107.82 GB
Q6_K_XL Élevée 56.96 GB
Q5_K_M Moyenne 46.52 GB
Q5_K_S Moyenne 45.32 GB
Q5_K_XL Moyenne 46.54 GB
Q4_K_M Moyenne 39.6 GB
Q4_K_S Moyenne 37.58 GB
Q4_K_XL Moyenne 39.73 GB
Q4_0 Moyenne 37.36 GB
Q4_1 Moyenne 41.27 GB
Q3_K_M Basse 31.91 GB
Q3_K_S Basse 28.79 GB
Q3_K_XL Basse 32.48 GB
Q2_K Basse 24.56 GB
Q2_K_L Basse 24.79 GB
Q2_K_XL Basse 25.11 GB
Dernière mise à jour : 5 mars 2026