Qwen3.6 27B
Qwen
Code Multilingual Thinking Tool Calls Vision
Qwen3.6 27B è un grande modello linguistico denso del team Qwen di Alibaba, con 27 miliardi di parametri e 64 strati, costruito su un'innovativa architettura ibrida che combina Gated DeltaNet e Gated Attention, condivisa con i suoi fratelli Mixture-of-Experts più grandi. È nativamente multimodale, elabora testo, immagini e video, ed è dotato di capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 262K token, estendibile a circa un milione di token tramite YaRN. Il modello è rilasciato sotto licenza Apache 2.0. Con quantizzazione Q4 richiede circa 16 GB di VRAM, rendendolo molto adatto al deployment self-hosted su una singola GPU consumer di fascia alta.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| BF16 | Piena precisione | 50.11 GB | — |
| Q8_0 | Alta | 26.63 GB | — |
| Q8_K_XL | Alta | 32.9 GB | — |
| Q6_K | Alta | 20.98 GB | — |
| Q6_K_XL | Alta | 23.88 GB | — |
| Q5_K_M | Media | 18.17 GB | — |
| Q5_K_S | Media | 17.66 GB | — |
| Q5_K_XL | Media | 18.66 GB | — |
| Q4_K_M | Media | 15.66 GB | — |
| Q4_K_S | Media | 14.77 GB | — |
| Q4_K_XL | Media | 16.4 GB | — |
| IQ4_NL | Media | 14.97 GB | — |
| IQ4_XS | Media | 14.38 GB | — |
| Q4_0 | Media | 14.71 GB | — |
| Q4_1 | Media | 16.07 GB | — |
| Q3_K_M | Bassa | 12.65 GB | — |
| Q3_K_S | Bassa | 11.51 GB | — |
| Q3_K_XL | Bassa | 13.48 GB | — |
| IQ3_XXS | Bassa | 11.17 GB | — |
| Q2_K_XL | Bassa | 11.04 GB | — |
| IQ2_M | Bassa | 10.1 GB | — |
| IQ2_XXS | Bassa | 8.74 GB | — |
Ultimo aggiornamento: 29 aprile 2026