Aller au contenu

Qwen3.6 27B

Qwen
Code Multilingual Thinking Tool Calls Vision

Qwen3.6 27B est un grand modèle de langage dense de l'équipe Qwen d'Alibaba, doté de 27 milliards de paramètres et 64 couches, fondé sur une architecture hybride novatrice combinant Gated DeltaNet et Gated Attention, partagée avec ses variantes Mixture-of-Experts plus grandes. Il est nativement multimodal, traitant texte, images et vidéo, et embarque des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 262K tokens, extensible à environ un million de tokens via YaRN. Le modèle est publié sous licence Apache 2.0. En quantification Q4 il nécessite environ 16 Go de VRAM, ce qui en fait un excellent candidat au déploiement auto-hébergé sur un seul GPU grand public haut de gamme.

Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
BF16 Pleine précision 50.11 GB
Q8_0 Élevée 26.63 GB
Q8_K_XL Élevée 32.9 GB
Q6_K Élevée 20.98 GB
Q6_K_XL Élevée 23.88 GB
Q5_K_M Moyenne 18.17 GB
Q5_K_S Moyenne 17.66 GB
Q5_K_XL Moyenne 18.66 GB
Q4_K_M Moyenne 15.66 GB
Q4_K_S Moyenne 14.77 GB
Q4_K_XL Moyenne 16.4 GB
IQ4_NL Moyenne 14.97 GB
IQ4_XS Moyenne 14.38 GB
Q4_0 Moyenne 14.71 GB
Q4_1 Moyenne 16.07 GB
Q3_K_M Basse 12.65 GB
Q3_K_S Basse 11.51 GB
Q3_K_XL Basse 13.48 GB
IQ3_XXS Basse 11.17 GB
Q2_K_XL Basse 11.04 GB
IQ2_M Basse 10.1 GB
IQ2_XXS Basse 8.74 GB
Dernière mise à jour : 29 avril 2026