Salta ai contenuti

DeepSeek V3.2

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.2 è un modello « Mixture-of-Experts » da 685 miliardi di parametri di DeepSeek, che attiva 8 dei 256 esperti per token più un esperto condiviso. Offre prestazioni di frontiera nella generazione di codice, nel ragionamento e nei compiti multilingue, utilizzando molti meno parametri attivi per passo di inferenza rispetto a modelli densi di dimensioni comparabili. Il modello supporta la modalità di ragionamento, il « tool calling » e ampio supporto multilingue. Con una finestra di contesto da 163K, richiede configurazioni multi-GPU o distribuite ma si quantizza fino a livelli Q2 per un'impronta VRAM ridotta.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 664.33 GB
Q8_K_XL Alta 726.67 GB
Q6_K Alta 513.41 GB
Q6_K_XL Alta 534.55 GB
Q5_K_M Media 443.48 GB
Q5_K_S Media 430.87 GB
Q5_K_XL Media 448.8 GB
Q4_K_M Media 377.56 GB
Q4_K_S Media 354.89 GB
Q4_K_XL Media 379.8 GB
Q4_0 Media 353.99 GB
Q4_1 Media 391.86 GB
Q3_K_M Bassa 298.21 GB
Q3_K_S Bassa 270.49 GB
Q3_K_XL Bassa 298.99 GB
Q2_K Bassa 228.52 GB
Q2_K_L Bassa 228.73 GB
Q2_K_XL Bassa 229.68 GB
Ultimo aggiornamento: 19 marzo 2026