Aller au contenu

DeepSeek R1 Distill Qwen 32B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 32B est un transformeur dense de 32,76 milliards de parametres de DeepSeek, distille a partir du plus grand modele de raisonnement R1 dans une architecture basee sur Qwen. Il excelle dans le raisonnement "chain-of-thought", la generation de code et les taches multilingues avec des capacites de reflexion integrees. Compare aux modeles instruct standard de classe 30B, il offre un raisonnement logique et mathematique plus performant. Le modele prend en charge neuf langues et une fenetre de contexte de 128K, ce qui le rend adapte aux developpeurs et chercheurs ayant besoin d'une inference axee sur le raisonnement avec des configurations GPU de milieu de gamme.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 61.03 GB
Q8_0 Élevée 32.43 GB
Q6_K Élevée 25.04 GB
Q5_K_M Moyenne 21.66 GB
Q4_K_M Moyenne 18.49 GB
Q3_K_M Basse 14.84 GB
Q2_K Basse 11.47 GB
Q2_K_L Basse 11.64 GB
Dernière mise à jour : 5 mars 2026