Aller au contenu

DeepSeek V3.1

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.1 est un modele "Mixture-of-Experts" de 685 milliards de parametres de DeepSeek, activant 8 des 256 experts par token plus un expert partage. Il offre des performances de pointe en generation de code, raisonnement et taches multilingues tout en utilisant bien moins de parametres actifs par etape d'inference que des modeles denses de taille comparable. Le modele prend en charge le mode reflexion, le "tool calling" et neuf langues. Avec une fenetre de contexte de 160K, il necessite des configurations multi-GPU ou distribuees mais se quantifie jusqu'au niveau Q2 pour une empreinte VRAM reduite.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 664.33 GB
Q8_K_XL Élevée 726.99 GB
Q6_K Élevée 513.41 GB
Q6_K_XL Élevée 535.03 GB
Q5_K_M Moyenne 443.48 GB
Q5_K_S Moyenne 430.87 GB
Q5_K_XL Moyenne 451.3 GB
Q4_K_M Moyenne 377.56 GB
Q4_K_S Moyenne 354.9 GB
Q4_K_XL Moyenne 360.33 GB
Q4_0 Moyenne 354 GB
Q4_1 Moyenne 391.86 GB
Q3_K_M Basse 298.46 GB
Q3_K_S Basse 270.49 GB
Q3_K_XL Basse 279.43 GB
Q2_K Basse 228.82 GB
Q2_K_L Basse 229.02 GB
Q2_K_XL Basse 238.17 GB
Dernière mise à jour : 5 mars 2026