DeepSeek V3.2
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.2 è un modello « Mixture-of-Experts » da 685 miliardi di parametri di DeepSeek, che attiva 8 dei 256 esperti per token più un esperto condiviso. Offre prestazioni di frontiera nella generazione di codice, nel ragionamento e nei compiti multilingue, utilizzando molti meno parametri attivi per passo di inferenza rispetto a modelli densi di dimensioni comparabili. Il modello supporta la modalità di ragionamento, il « tool calling » e ampio supporto multilingue. Con una finestra di contesto da 163K, richiede configurazioni multi-GPU o distribuite ma si quantizza fino a livelli Q2 per un'impronta VRAM ridotta.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 664.33 GB | — |
| Q8_K_XL | Alta | 726.67 GB | — |
| Q6_K | Alta | 513.41 GB | — |
| Q6_K_XL | Alta | 534.55 GB | — |
| Q5_K_M | Media | 443.48 GB | — |
| Q5_K_S | Media | 430.87 GB | — |
| Q5_K_XL | Media | 448.8 GB | — |
| Q4_K_M | Media | 377.56 GB | — |
| Q4_K_S | Media | 354.89 GB | — |
| Q4_K_XL | Media | 379.8 GB | — |
| Q4_0 | Media | 353.99 GB | — |
| Q4_1 | Media | 391.86 GB | — |
| Q3_K_M | Bassa | 298.21 GB | — |
| Q3_K_S | Bassa | 270.49 GB | — |
| Q3_K_XL | Bassa | 298.99 GB | — |
| Q2_K | Bassa | 228.52 GB | — |
| Q2_K_L | Bassa | 228.73 GB | — |
| Q2_K_XL | Bassa | 229.68 GB | — |
Ultimo aggiornamento: 19 marzo 2026