DeepSeek V3.2
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.2 est un modèle « Mixture-of-Experts » de 685 milliards de paramètres de DeepSeek, activant 8 des 256 experts par token plus un expert partagé. Il offre des performances de pointe en génération de code, raisonnement et tâches multilingues tout en utilisant bien moins de paramètres actifs par étape d'inférence que des modèles denses de taille comparable. Le modèle prend en charge le mode réflexion, le « tool calling » et un large support multilingue. Avec une fenêtre de contexte de 163K, il nécessite des configurations multi-GPU ou distribuées mais se quantifie jusqu'au niveau Q2 pour une empreinte VRAM réduite.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 664.33 GB | — |
| Q8_K_XL | Élevée | 726.67 GB | — |
| Q6_K | Élevée | 513.41 GB | — |
| Q6_K_XL | Élevée | 534.55 GB | — |
| Q5_K_M | Moyenne | 443.48 GB | — |
| Q5_K_S | Moyenne | 430.87 GB | — |
| Q5_K_XL | Moyenne | 448.8 GB | — |
| Q4_K_M | Moyenne | 377.56 GB | — |
| Q4_K_S | Moyenne | 354.89 GB | — |
| Q4_K_XL | Moyenne | 379.8 GB | — |
| Q4_0 | Moyenne | 353.99 GB | — |
| Q4_1 | Moyenne | 391.86 GB | — |
| Q3_K_M | Basse | 298.21 GB | — |
| Q3_K_S | Basse | 270.49 GB | — |
| Q3_K_XL | Basse | 298.99 GB | — |
| Q2_K | Basse | 228.52 GB | — |
| Q2_K_L | Basse | 228.73 GB | — |
| Q2_K_XL | Basse | 229.68 GB | — |
Dernière mise à jour : 19 mars 2026