Aller au contenu

DeepSeek V3.2

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.2 est un modèle « Mixture-of-Experts » de 685 milliards de paramètres de DeepSeek, activant 8 des 256 experts par token plus un expert partagé. Il offre des performances de pointe en génération de code, raisonnement et tâches multilingues tout en utilisant bien moins de paramètres actifs par étape d'inférence que des modèles denses de taille comparable. Le modèle prend en charge le mode réflexion, le « tool calling » et un large support multilingue. Avec une fenêtre de contexte de 163K, il nécessite des configurations multi-GPU ou distribuées mais se quantifie jusqu'au niveau Q2 pour une empreinte VRAM réduite.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 664.33 GB
Q8_K_XL Élevée 726.67 GB
Q6_K Élevée 513.41 GB
Q6_K_XL Élevée 534.55 GB
Q5_K_M Moyenne 443.48 GB
Q5_K_S Moyenne 430.87 GB
Q5_K_XL Moyenne 448.8 GB
Q4_K_M Moyenne 377.56 GB
Q4_K_S Moyenne 354.89 GB
Q4_K_XL Moyenne 379.8 GB
Q4_0 Moyenne 353.99 GB
Q4_1 Moyenne 391.86 GB
Q3_K_M Basse 298.21 GB
Q3_K_S Basse 270.49 GB
Q3_K_XL Basse 298.99 GB
Q2_K Basse 228.52 GB
Q2_K_L Basse 228.73 GB
Q2_K_XL Basse 229.68 GB
Dernière mise à jour : 19 mars 2026