Qwen3 32B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 32B e un trasformatore denso da 32 miliardi di parametri del team Qwen di Alibaba, che combina capacita di ragionamento con generazione di codice avanzata, "tool calling" e supporto multilingue. Si colloca in una classe di parametri intermedia che bilancia la profondita di ragionamento con i requisiti pratici di deployment, superando molti modelli piu grandi nei benchmark di matematica e logica. Il modello supporta 14 lingue tra cui inglese, cinese e arabo. Con una finestra di contesto da 40K e "flash attention", funziona su una singola GPU di fascia alta con quantizzazione Q4 per inferenza self-hosted.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 32.43 GB | — |
| Q8_K_XL | Alta | 36.77 GB | — |
| Q6_K | Alta | 25.04 GB | — |
| Q6_K_XL | Alta | 26.97 GB | — |
| Q5_K_M | Media | 21.62 GB | — |
| Q5_K_S | Media | 21.08 GB | — |
| Q5_K_XL | Media | 21.64 GB | — |
| Q4_K_M | Media | 18.4 GB | — |
| Q4_K_S | Media | 17.48 GB | — |
| Q4_K_XL | Media | 18.65 GB | — |
| Q4_0 | Media | 17.42 GB | — |
| Q4_1 | Media | 19.22 GB | — |
| Q3_K_M | Bassa | 14.87 GB | — |
| Q3_K_S | Bassa | 13.4 GB | — |
| Q3_K_XL | Bassa | 15.28 GB | — |
| Q2_K | Bassa | 11.5 GB | — |
| Q2_K_L | Bassa | 11.67 GB | — |
| Q2_K_XL | Bassa | 11.92 GB | — |
Ultimo aggiornamento: 5 marzo 2026