Aller au contenu

Qwen3 235B A22B

Qwen
Code Multilingual Thinking Tool Calls

Qwen3 235B A22B est un modèle "Mixture-of-Experts" de 235,09 milliards de paramètres de l'équipe Qwen d'Alibaba, optimisé pour les modes d'inférence avec et sans réflexion. Il active 8 experts sur 128 par token, offrant un raisonnement de pointe à une fraction du coût de calcul des modèles denses comparables. Le modèle prend en charge la génération de code, le "tool calling" et 14 langues dont l'anglais, le chinois, le japonais et l'arabe. Avec une fenêtre de contexte de 40K et le "flash attention", il vise les déploiements multi-GPU et se quantifie bien au format GGUF pour une inférence auto-hébergée sur du matériel haut de gamme.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 232.76 GB
Q8_K_XL Élevée 246.89 GB
Q6_K Élevée 179.76 GB
Q6_K_XL Élevée 185.2 GB
Q5_K_M Moyenne 155.36 GB
Q5_K_S Moyenne 150.76 GB
Q5_K_XL Moyenne 155.43 GB
Q4_K_M Moyenne 132.39 GB
Q4_K_S Moyenne 124.51 GB
Q4_K_XL Moyenne 124.91 GB
Q4_1 Moyenne 137.12 GB
Q3_K_M Basse 104.73 GB
Q3_K_S Basse 94.47 GB
Q3_K_XL Basse 96.61 GB
Q2_K Basse 79.81 GB
Q2_K_L Basse 79.94 GB
Q2_K_XL Basse 81.97 GB
Dernière mise à jour : 5 mars 2026