Salta ai contenuti

Qwen3.6 27B

Qwen
Code Multilingual Thinking Tool Calls Vision

Qwen3.6 27B è un grande modello linguistico denso del team Qwen di Alibaba, con 27 miliardi di parametri e 64 strati, costruito su un'innovativa architettura ibrida che combina Gated DeltaNet e Gated Attention, condivisa con i suoi fratelli Mixture-of-Experts più grandi. È nativamente multimodale, elabora testo, immagini e video, ed è dotato di capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 262K token, estendibile a circa un milione di token tramite YaRN. Il modello è rilasciato sotto licenza Apache 2.0. Con quantizzazione Q4 richiede circa 16 GB di VRAM, rendendolo molto adatto al deployment self-hosted su una singola GPU consumer di fascia alta.

Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
BF16 Piena precisione 50.11 GB
Q8_0 Alta 26.63 GB
Q8_K_XL Alta 32.9 GB
Q6_K Alta 20.98 GB
Q6_K_XL Alta 23.88 GB
Q5_K_M Media 18.17 GB
Q5_K_S Media 17.66 GB
Q5_K_XL Media 18.66 GB
Q4_K_M Media 15.66 GB
Q4_K_S Media 14.77 GB
Q4_K_XL Media 16.4 GB
IQ4_NL Media 14.97 GB
IQ4_XS Media 14.38 GB
Q4_0 Media 14.71 GB
Q4_1 Media 16.07 GB
Q3_K_M Bassa 12.65 GB
Q3_K_S Bassa 11.51 GB
Q3_K_XL Bassa 13.48 GB
IQ3_XXS Bassa 11.17 GB
Q2_K_XL Bassa 11.04 GB
IQ2_M Bassa 10.1 GB
IQ2_XXS Bassa 8.74 GB
Ultimo aggiornamento: 29 aprile 2026