Salta ai contenuti

Qwen3 235B A22B

Qwen
Code Multilingual Thinking Tool Calls

Qwen3 235B A22B è un modello "Mixture-of-Experts" da 235,09 miliardi di parametri del team Qwen di Alibaba, ottimizzato per modalità di inferenza con e senza ragionamento. Attiva 8 esperti su 128 per token, offrendo ragionamento di frontiera a una frazione del costo computazionale dei modelli densi comparabili. Il modello supporta generazione di codice, "tool calling" e 14 lingue tra cui inglese, cinese, giapponese e arabo. Con una finestra di contesto da 40K e "flash attention", è destinato a deployment multi-GPU e si quantizza bene in formato GGUF per inferenza self-hosted su hardware di fascia alta.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 232.76 GB
Q8_K_XL Alta 246.89 GB
Q6_K Alta 179.76 GB
Q6_K_XL Alta 185.2 GB
Q5_K_M Media 155.36 GB
Q5_K_S Media 150.76 GB
Q5_K_XL Media 155.43 GB
Q4_K_M Media 132.39 GB
Q4_K_S Media 124.51 GB
Q4_K_XL Media 124.91 GB
Q4_1 Media 137.12 GB
Q3_K_M Bassa 104.73 GB
Q3_K_S Bassa 94.47 GB
Q3_K_XL Bassa 96.61 GB
Q2_K Bassa 79.81 GB
Q2_K_L Bassa 79.94 GB
Q2_K_XL Bassa 81.97 GB
Ultimo aggiornamento: 5 marzo 2026