DeepSeek R1 Distill Qwen 7B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 7B est un transformeur dense de 7,62 milliards de parametres de DeepSeek, distille a partir du modele de raisonnement R1 dans une architecture compacte basee sur Qwen. Il apporte le raisonnement "chain-of-thought" et les capacites de reflexion a la classe des 7B parametres, surpassant son poids sur les taches de mathematiques et de logique. Compare aux modeles instruct 7B standard, il offre un raisonnement structure nettement plus performant. Avec une fenetre de contexte de 128K et neuf langues prises en charge, il tient sur un seul GPU grand public et se quantifie bien pour un deploiement auto-heberge efficace.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 14.19 GB | — |
| Q8_0 | Élevée | 7.54 GB | — |
| Q6_K | Élevée | 5.82 GB | — |
| Q5_K_M | Moyenne | 5.07 GB | — |
| Q4_K_M | Moyenne | 4.36 GB | — |
| Q3_K_M | Basse | 3.55 GB | — |
| Q2_K | Basse | 2.81 GB | — |
| Q2_K_L | Basse | 2.93 GB | — |
Dernière mise à jour : 5 mars 2026