Aller au contenu

Llama 4 Scout 17B 16E Instruct

Meta
Code Multilingual Tool Calls Vision

Llama 4 Scout 17B 16E Instruct est un modele "Mixture-of-Experts" de Meta avec 17 milliards de parametres par expert et 16 experts, activant un expert par token. Il prend en charge la vision, la generation de code, le "tool calling" et 12 langues, ce qui en fait l'un des modeles les plus polyvalents de la famille Llama 4. Scout cible le segment axe sur l'efficacite, offrant des capacites multimodales a un cout de calcul inferieur a celui de modeles denses de qualite similaire. Sa fenetre de contexte de 10M de tokens est parmi les plus grandes disponibles, et il se quantifie bien pour des deployments multi-GPU auto-heberges.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 106.66 GB
Q8_K_XL Élevée 119.38 GB
Q6_K Élevée 82.36 GB
Q6_K_XL Élevée 87.61 GB
Q5_K_M Moyenne 71.29 GB
Q5_K_S Moyenne 69.16 GB
Q5_K_XL Moyenne 73.71 GB
Q4_K_M Moyenne 60.87 GB
Q4_K_S Moyenne 57.23 GB
Q4_K_XL Moyenne 57.74 GB
Q4_0 Moyenne 56.98 GB
Q4_1 Moyenne 62.94 GB
Q3_K_M Basse 48.2 GB
Q3_K_S Basse 43.53 GB
Q3_K_XL Basse 45.65 GB
Q2_K Basse 36.85 GB
Q2_K_L Basse 37.07 GB
Q2_K_XL Basse 39.47 GB
Dernière mise à jour : 5 mars 2026