Salta ai contenuti

DeepSeek V3.1

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.1 e un modello "Mixture-of-Experts" da 685 miliardi di parametri di DeepSeek, che attiva 8 dei 256 esperti per token piu un esperto condiviso. Offre prestazioni di frontiera nella generazione di codice, nel ragionamento e nei compiti multilingue, utilizzando molti meno parametri attivi per passo di inferenza rispetto a modelli densi di dimensioni comparabili. Il modello supporta la modalita di ragionamento, il "tool calling" e nove lingue. Con una finestra di contesto da 160K, richiede configurazioni multi-GPU o distribuite ma si quantizza fino a livelli Q2 per un'impronta VRAM ridotta.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 664.33 GB
Q8_K_XL Alta 726.99 GB
Q6_K Alta 513.41 GB
Q6_K_XL Alta 535.03 GB
Q5_K_M Media 443.48 GB
Q5_K_S Media 430.87 GB
Q5_K_XL Media 451.3 GB
Q4_K_M Media 377.56 GB
Q4_K_S Media 354.9 GB
Q4_K_XL Media 360.33 GB
Q4_0 Media 354 GB
Q4_1 Media 391.86 GB
Q3_K_M Bassa 298.46 GB
Q3_K_S Bassa 270.49 GB
Q3_K_XL Bassa 279.43 GB
Q2_K Bassa 228.82 GB
Q2_K_L Bassa 229.02 GB
Q2_K_XL Bassa 238.17 GB
Ultimo aggiornamento: 5 marzo 2026