Llama 4 Scout 17B 16E Instruct
Meta
Code Multilingual Tool Calls Vision
Llama 4 Scout 17B 16E Instruct est un modele "Mixture-of-Experts" de Meta avec 17 milliards de parametres par expert et 16 experts, activant un expert par token. Il prend en charge la vision, la generation de code, le "tool calling" et 12 langues, ce qui en fait l'un des modeles les plus polyvalents de la famille Llama 4. Scout cible le segment axe sur l'efficacite, offrant des capacites multimodales a un cout de calcul inferieur a celui de modeles denses de qualite similaire. Sa fenetre de contexte de 10M de tokens est parmi les plus grandes disponibles, et il se quantifie bien pour des deployments multi-GPU auto-heberges.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 106.66 GB | — |
| Q8_K_XL | Élevée | 119.38 GB | — |
| Q6_K | Élevée | 82.36 GB | — |
| Q6_K_XL | Élevée | 87.61 GB | — |
| Q5_K_M | Moyenne | 71.29 GB | — |
| Q5_K_S | Moyenne | 69.16 GB | — |
| Q5_K_XL | Moyenne | 73.71 GB | — |
| Q4_K_M | Moyenne | 60.87 GB | — |
| Q4_K_S | Moyenne | 57.23 GB | — |
| Q4_K_XL | Moyenne | 57.74 GB | — |
| Q4_0 | Moyenne | 56.98 GB | — |
| Q4_1 | Moyenne | 62.94 GB | — |
| Q3_K_M | Basse | 48.2 GB | — |
| Q3_K_S | Basse | 43.53 GB | — |
| Q3_K_XL | Basse | 45.65 GB | — |
| Q2_K | Basse | 36.85 GB | — |
| Q2_K_L | Basse | 37.07 GB | — |
| Q2_K_XL | Basse | 39.47 GB | — |
Dernière mise à jour : 5 mars 2026