Aller au contenu

DeepSeek R1 Distill Qwen 7B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 7B est un transformeur dense de 7,62 milliards de parametres de DeepSeek, distille a partir du modele de raisonnement R1 dans une architecture compacte basee sur Qwen. Il apporte le raisonnement "chain-of-thought" et les capacites de reflexion a la classe des 7B parametres, surpassant son poids sur les taches de mathematiques et de logique. Compare aux modeles instruct 7B standard, il offre un raisonnement structure nettement plus performant. Avec une fenetre de contexte de 128K et neuf langues prises en charge, il tient sur un seul GPU grand public et se quantifie bien pour un deploiement auto-heberge efficace.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 14.19 GB
Q8_0 Élevée 7.54 GB
Q6_K Élevée 5.82 GB
Q5_K_M Moyenne 5.07 GB
Q4_K_M Moyenne 4.36 GB
Q3_K_M Basse 3.55 GB
Q2_K Basse 2.81 GB
Q2_K_L Basse 2.93 GB
Dernière mise à jour : 5 mars 2026