Qwen2.5 14B Instruct
Qwen
Code Multilingual Tool Calls
Qwen2.5 14B Instruct est un transformeur dense de 14,77 milliards de paramètres de l'équipe Qwen d'Alibaba, affiné pour le suivi d'instructions, la génération de code et la sortie structurée. Il comble l'écart entre les classes 7B et 72B, offrant un raisonnement solide et la génération de textes longs tout en restant déployable sur un seul GPU grand public. Le modèle prend en charge le "tool calling" et couvre 14 langues dont l'anglais, le chinois, le japonais et l'arabe. Avec une fenêtre de contexte de 32K et le "flash attention", il se quantifie bien au format GGUF pour une inférence auto-hébergée à coût matériel modéré.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 27.51 GB | — |
| Q8_0 | Élevée | 14.62 GB | — |
| Q6_K | Élevée | 11.29 GB | — |
| Q5_K_M | Moyenne | 9.78 GB | — |
| Q4_K_M | Moyenne | 8.38 GB | — |
| Q4_0 | Moyenne | 7.93 GB | — |
| Q3_K_M | Basse | 6.84 GB | — |
| Q2_K | Basse | 5.38 GB | — |
| Q5_0 | Basse | 9.56 GB | — |
Dernière mise à jour : 5 mars 2026