Qwen3 235B A22B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 235B A22B est un modèle "Mixture-of-Experts" de 235,09 milliards de paramètres de l'équipe Qwen d'Alibaba, optimisé pour les modes d'inférence avec et sans réflexion. Il active 8 experts sur 128 par token, offrant un raisonnement de pointe à une fraction du coût de calcul des modèles denses comparables. Le modèle prend en charge la génération de code, le "tool calling" et 14 langues dont l'anglais, le chinois, le japonais et l'arabe. Avec une fenêtre de contexte de 40K et le "flash attention", il vise les déploiements multi-GPU et se quantifie bien au format GGUF pour une inférence auto-hébergée sur du matériel haut de gamme.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 232.76 GB | — |
| Q8_K_XL | Élevée | 246.89 GB | — |
| Q6_K | Élevée | 179.76 GB | — |
| Q6_K_XL | Élevée | 185.2 GB | — |
| Q5_K_M | Moyenne | 155.36 GB | — |
| Q5_K_S | Moyenne | 150.76 GB | — |
| Q5_K_XL | Moyenne | 155.43 GB | — |
| Q4_K_M | Moyenne | 132.39 GB | — |
| Q4_K_S | Moyenne | 124.51 GB | — |
| Q4_K_XL | Moyenne | 124.91 GB | — |
| Q4_1 | Moyenne | 137.12 GB | — |
| Q3_K_M | Basse | 104.73 GB | — |
| Q3_K_S | Basse | 94.47 GB | — |
| Q3_K_XL | Basse | 96.61 GB | — |
| Q2_K | Basse | 79.81 GB | — |
| Q2_K_L | Basse | 79.94 GB | — |
| Q2_K_XL | Basse | 81.97 GB | — |
Dernière mise à jour : 5 mars 2026