Qwen3 8B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 8B e un trasformatore denso da 8 miliardi di parametri del team Qwen di Alibaba, con capacita di ragionamento integrate insieme alla generazione di codice, "tool calling" e supporto multilingue. Va oltre Qwen2.5 con un ragionamento migliorato, supportando l'inferenza "chain-of-thought" in un fattore di forma compatto. Il modello copre 14 lingue tra cui inglese, cinese e arabo. Con una finestra di contesto da 40K e "flash attention", funziona su una singola GPU consumer e si quantizza in modo efficiente per carichi di ragionamento self-hosted economici.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 8.11 GB | — |
| Q8_K_XL | Alta | 10.08 GB | — |
| Q6_K | Alta | 6.26 GB | — |
| Q6_K_XL | Alta | 6.98 GB | — |
| Q5_K_M | Media | 5.45 GB | — |
| Q5_K_S | Media | 5.33 GB | — |
| Q5_K_XL | Media | 5.47 GB | — |
| Q4_K_M | Media | 4.68 GB | — |
| Q4_K_S | Media | 4.47 GB | — |
| Q4_K_XL | Media | 4.78 GB | — |
| Q4_1 | Media | 4.89 GB | — |
| Q3_K_M | Bassa | 3.84 GB | — |
| Q3_K_S | Bassa | 3.51 GB | — |
| Q3_K_XL | Bassa | 4.01 GB | — |
| Q2_K | Bassa | 3.06 GB | — |
| Q2_K_L | Bassa | 3.19 GB | — |
| Q2_K_XL | Bassa | 3.26 GB | — |
Ultimo aggiornamento: 5 marzo 2026