DeepSeek V3.1
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.1 est un modele "Mixture-of-Experts" de 685 milliards de parametres de DeepSeek, activant 8 des 256 experts par token plus un expert partage. Il offre des performances de pointe en generation de code, raisonnement et taches multilingues tout en utilisant bien moins de parametres actifs par etape d'inference que des modeles denses de taille comparable. Le modele prend en charge le mode reflexion, le "tool calling" et neuf langues. Avec une fenetre de contexte de 160K, il necessite des configurations multi-GPU ou distribuees mais se quantifie jusqu'au niveau Q2 pour une empreinte VRAM reduite.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 664.33 GB | — |
| Q8_K_XL | Élevée | 726.99 GB | — |
| Q6_K | Élevée | 513.41 GB | — |
| Q6_K_XL | Élevée | 535.03 GB | — |
| Q5_K_M | Moyenne | 443.48 GB | — |
| Q5_K_S | Moyenne | 430.87 GB | — |
| Q5_K_XL | Moyenne | 451.3 GB | — |
| Q4_K_M | Moyenne | 377.56 GB | — |
| Q4_K_S | Moyenne | 354.9 GB | — |
| Q4_K_XL | Moyenne | 360.33 GB | — |
| Q4_0 | Moyenne | 354 GB | — |
| Q4_1 | Moyenne | 391.86 GB | — |
| Q3_K_M | Basse | 298.46 GB | — |
| Q3_K_S | Basse | 270.49 GB | — |
| Q3_K_XL | Basse | 279.43 GB | — |
| Q2_K | Basse | 228.82 GB | — |
| Q2_K_L | Basse | 229.02 GB | — |
| Q2_K_XL | Basse | 238.17 GB | — |
Dernière mise à jour : 5 mars 2026