Qwen3 235B A22B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 235B A22B è un modello "Mixture-of-Experts" da 235,09 miliardi di parametri del team Qwen di Alibaba, ottimizzato per modalità di inferenza con e senza ragionamento. Attiva 8 esperti su 128 per token, offrendo ragionamento di frontiera a una frazione del costo computazionale dei modelli densi comparabili. Il modello supporta generazione di codice, "tool calling" e 14 lingue tra cui inglese, cinese, giapponese e arabo. Con una finestra di contesto da 40K e "flash attention", è destinato a deployment multi-GPU e si quantizza bene in formato GGUF per inferenza self-hosted su hardware di fascia alta.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 232.76 GB | — |
| Q8_K_XL | Alta | 246.89 GB | — |
| Q6_K | Alta | 179.76 GB | — |
| Q6_K_XL | Alta | 185.2 GB | — |
| Q5_K_M | Media | 155.36 GB | — |
| Q5_K_S | Media | 150.76 GB | — |
| Q5_K_XL | Media | 155.43 GB | — |
| Q4_K_M | Media | 132.39 GB | — |
| Q4_K_S | Media | 124.51 GB | — |
| Q4_K_XL | Media | 124.91 GB | — |
| Q4_1 | Media | 137.12 GB | — |
| Q3_K_M | Bassa | 104.73 GB | — |
| Q3_K_S | Bassa | 94.47 GB | — |
| Q3_K_XL | Bassa | 96.61 GB | — |
| Q2_K | Bassa | 79.81 GB | — |
| Q2_K_L | Bassa | 79.94 GB | — |
| Q2_K_XL | Bassa | 81.97 GB | — |
Ultimo aggiornamento: 5 marzo 2026