DeepSeek V3.1
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.1 e un modello "Mixture-of-Experts" da 685 miliardi di parametri di DeepSeek, che attiva 8 dei 256 esperti per token piu un esperto condiviso. Offre prestazioni di frontiera nella generazione di codice, nel ragionamento e nei compiti multilingue, utilizzando molti meno parametri attivi per passo di inferenza rispetto a modelli densi di dimensioni comparabili. Il modello supporta la modalita di ragionamento, il "tool calling" e nove lingue. Con una finestra di contesto da 160K, richiede configurazioni multi-GPU o distribuite ma si quantizza fino a livelli Q2 per un'impronta VRAM ridotta.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 664.33 GB | — |
| Q8_K_XL | Alta | 726.99 GB | — |
| Q6_K | Alta | 513.41 GB | — |
| Q6_K_XL | Alta | 535.03 GB | — |
| Q5_K_M | Media | 443.48 GB | — |
| Q5_K_S | Media | 430.87 GB | — |
| Q5_K_XL | Media | 451.3 GB | — |
| Q4_K_M | Media | 377.56 GB | — |
| Q4_K_S | Media | 354.9 GB | — |
| Q4_K_XL | Media | 360.33 GB | — |
| Q4_0 | Media | 354 GB | — |
| Q4_1 | Media | 391.86 GB | — |
| Q3_K_M | Bassa | 298.46 GB | — |
| Q3_K_S | Bassa | 270.49 GB | — |
| Q3_K_XL | Bassa | 279.43 GB | — |
| Q2_K | Bassa | 228.82 GB | — |
| Q2_K_L | Bassa | 229.02 GB | — |
| Q2_K_XL | Bassa | 238.17 GB | — |
Ultimo aggiornamento: 5 marzo 2026