Qwen3 32B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 32B est un transformeur dense de 32 milliards de parametres de l'equipe Qwen d'Alibaba, combinant des capacites de reflexion avec une generation de code performante, le "tool calling" et le support multilingue. Il se situe dans une classe de parametres moyenne qui equilibre la profondeur de raisonnement avec les exigences pratiques de deploiement, surpassant de nombreux modeles plus grands sur les benchmarks de mathematiques et de logique. Le modele prend en charge 14 langues dont l'anglais, le chinois et l'arabe. Avec une fenetre de contexte de 40K et le "flash attention", il tient sur un seul GPU haut de gamme en quantification Q4 pour une inference auto-hebergee.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 32.43 GB | — |
| Q8_K_XL | Élevée | 36.77 GB | — |
| Q6_K | Élevée | 25.04 GB | — |
| Q6_K_XL | Élevée | 26.97 GB | — |
| Q5_K_M | Moyenne | 21.62 GB | — |
| Q5_K_S | Moyenne | 21.08 GB | — |
| Q5_K_XL | Moyenne | 21.64 GB | — |
| Q4_K_M | Moyenne | 18.4 GB | — |
| Q4_K_S | Moyenne | 17.48 GB | — |
| Q4_K_XL | Moyenne | 18.65 GB | — |
| Q4_0 | Moyenne | 17.42 GB | — |
| Q4_1 | Moyenne | 19.22 GB | — |
| Q3_K_M | Basse | 14.87 GB | — |
| Q3_K_S | Basse | 13.4 GB | — |
| Q3_K_XL | Basse | 15.28 GB | — |
| Q2_K | Basse | 11.5 GB | — |
| Q2_K_L | Basse | 11.67 GB | — |
| Q2_K_XL | Basse | 11.92 GB | — |
Dernière mise à jour : 5 mars 2026