DeepSeek R1 Distill Qwen 14B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 14B est un transformeur dense de 14,77 milliards de paramètres de DeepSeek, distillé à partir du modèle de raisonnement R1 dans une architecture basée sur Qwen2.5. Il apporte le raisonnement "chain-of-thought" à la classe des 14B, surpassant les modèles instruct comparables sur les benchmarks de mathématiques et de code grâce à la distillation de raisonnement. Il prend en charge la génération de code, les appels d'outils et neuf langues dont l'anglais, le chinois et les principales langues européennes. Avec une fenêtre de contexte de 128K et le "flash attention", il tient sur un seul GPU de milieu de gamme et se quantifie efficacement en GGUF pour un déploiement auto-hébergé.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 27.52 GB | — |
| Q8_0 | Élevée | 14.62 GB | — |
| Q6_K | Élevée | 11.29 GB | — |
| Q5_K_M | Moyenne | 9.79 GB | — |
| Q4_K_M | Moyenne | 8.37 GB | — |
| Q3_K_M | Basse | 6.84 GB | — |
| Q2_K | Basse | 5.37 GB | — |
| Q2_K_L | Basse | 5.54 GB | — |
Dernière mise à jour : 5 mars 2026