DeepSeek R1 Distill Qwen 32B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 32B e un trasformatore denso da 32,76 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1 piu grande in un'architettura basata su Qwen. Eccelle nel ragionamento "chain-of-thought", nella generazione di codice e nei compiti multilingue con capacita di pensiero integrate. Rispetto ai modelli instruct standard di classe 30B, offre un ragionamento logico e matematico piu forte. Il modello supporta nove lingue e una finestra di contesto da 128K, rendendolo adatto a sviluppatori e ricercatori che necessitano di inferenza focalizzata sul ragionamento su configurazioni GPU di fascia media.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 61.03 GB | — |
| Q8_0 | Alta | 32.43 GB | — |
| Q6_K | Alta | 25.04 GB | — |
| Q5_K_M | Media | 21.66 GB | — |
| Q4_K_M | Media | 18.49 GB | — |
| Q3_K_M | Bassa | 14.84 GB | — |
| Q2_K | Bassa | 11.47 GB | — |
| Q2_K_L | Bassa | 11.64 GB | — |
Ultimo aggiornamento: 5 marzo 2026