DeepSeek R1 Distill Qwen 32B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 32B est un transformeur dense de 32,76 milliards de parametres de DeepSeek, distille a partir du plus grand modele de raisonnement R1 dans une architecture basee sur Qwen. Il excelle dans le raisonnement "chain-of-thought", la generation de code et les taches multilingues avec des capacites de reflexion integrees. Compare aux modeles instruct standard de classe 30B, il offre un raisonnement logique et mathematique plus performant. Le modele prend en charge neuf langues et une fenetre de contexte de 128K, ce qui le rend adapte aux developpeurs et chercheurs ayant besoin d'une inference axee sur le raisonnement avec des configurations GPU de milieu de gamme.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 61.03 GB | — |
| Q8_0 | Élevée | 32.43 GB | — |
| Q6_K | Élevée | 25.04 GB | — |
| Q5_K_M | Moyenne | 21.66 GB | — |
| Q4_K_M | Moyenne | 18.49 GB | — |
| Q3_K_M | Basse | 14.84 GB | — |
| Q2_K | Basse | 11.47 GB | — |
| Q2_K_L | Basse | 11.64 GB | — |
Dernière mise à jour : 5 mars 2026