Aller au contenu

DeepSeek R1 Distill Qwen 14B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 14B est un transformeur dense de 14,77 milliards de paramètres de DeepSeek, distillé à partir du modèle de raisonnement R1 dans une architecture basée sur Qwen2.5. Il apporte le raisonnement "chain-of-thought" à la classe des 14B, surpassant les modèles instruct comparables sur les benchmarks de mathématiques et de code grâce à la distillation de raisonnement. Il prend en charge la génération de code, les appels d'outils et neuf langues dont l'anglais, le chinois et les principales langues européennes. Avec une fenêtre de contexte de 128K et le "flash attention", il tient sur un seul GPU de milieu de gamme et se quantifie efficacement en GGUF pour un déploiement auto-hébergé.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 27.52 GB
Q8_0 Élevée 14.62 GB
Q6_K Élevée 11.29 GB
Q5_K_M Moyenne 9.79 GB
Q4_K_M Moyenne 8.37 GB
Q3_K_M Basse 6.84 GB
Q2_K Basse 5.37 GB
Q2_K_L Basse 5.54 GB
Dernière mise à jour : 5 mars 2026