Qwen3 Next 80B A3B Thinking
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 Next 80B A3B Thinking è un modello "Mixture-of-Experts" focalizzato sul ragionamento del team Qwen di Alibaba con 81,32 miliardi di parametri totali, ottimizzato per l'inferenza "chain-of-thought" su compiti complessi di matematica, logica e programmazione. Solo circa 3 miliardi di parametri si attivano per token, attivando 10 dei 512 esperti, raggiungendo solide prestazioni di ragionamento a una frazione del costo computazionale delle alternative dense. Il modello supporta generazione di codice, "tool calling" e 13 lingue tra cui inglese e cinese. Con una finestra di contesto da 262K e "flash attention", gestisce nativamente lunghe tracce di ragionamento e si quantizza bene in formato GGUF per il deployment self-hosted.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 78.99 GB | — |
| Q8_K_XL | Alta | 86.69 GB | — |
| Q6_K | Alta | 61.04 GB | — |
| Q6_K_XL | Alta | 63.81 GB | — |
| Q5_K_M | Media | 52.91 GB | — |
| Q5_K_S | Media | 51.24 GB | — |
| Q5_K_XL | Media | 52.77 GB | — |
| Q4_K_M | Media | 45.17 GB | — |
| Q4_K_S | Media | 42.38 GB | — |
| Q4_K_XL | Media | 42.78 GB | — |
| Q4_0 | Media | 42.2 GB | — |
| Q4_1 | Media | 46.61 GB | — |
| Q3_K_M | Bassa | 35.67 GB | — |
| Q3_K_S | Bassa | 32.21 GB | — |
| Q3_K_XL | Bassa | 33.06 GB | — |
| Q2_K | Bassa | 27.17 GB | — |
| Q2_K_L | Bassa | 27.24 GB | — |
| Q2_K_XL | Bassa | 28.06 GB | — |
Ultimo aggiornamento: 5 marzo 2026