Llama 4 Scout 17B 16E Instruct
Meta
Code Multilingual Tool Calls Vision
Llama 4 Scout 17B 16E Instruct ist ein Mixture-of-Experts-Modell von Meta mit 17 Milliarden Parametern pro Experte und 16 Experten, wobei ein Experte pro Token aktiviert wird. Es unterstuetzt Vision, Codegenerierung, Tool Calling und 12 Sprachen und ist damit eines der vielseitigsten Modelle der Llama-4-Familie. Scout zielt auf das effizienzbetonte Segment und bietet multimodale Faehigkeiten bei geringeren Rechenkosten als dichte Modelle vergleichbarer Qualitaet. Sein 10M-Token-Kontextfenster gehoert zu den groessten verfuegbaren, und es laesst sich gut fuer selbstgehostete Multi-GPU-Deployments quantisieren.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 106.66 GB | — |
| Q8_K_XL | Hoch | 119.38 GB | — |
| Q6_K | Hoch | 82.36 GB | — |
| Q6_K_XL | Hoch | 87.61 GB | — |
| Q5_K_M | Mittel | 71.29 GB | — |
| Q5_K_S | Mittel | 69.16 GB | — |
| Q5_K_XL | Mittel | 73.71 GB | — |
| Q4_K_M | Mittel | 60.87 GB | — |
| Q4_K_S | Mittel | 57.23 GB | — |
| Q4_K_XL | Mittel | 57.74 GB | — |
| Q4_0 | Mittel | 56.98 GB | — |
| Q4_1 | Mittel | 62.94 GB | — |
| Q3_K_M | Niedrig | 48.2 GB | — |
| Q3_K_S | Niedrig | 43.53 GB | — |
| Q3_K_XL | Niedrig | 45.65 GB | — |
| Q2_K | Niedrig | 36.85 GB | — |
| Q2_K_L | Niedrig | 37.07 GB | — |
| Q2_K_XL | Niedrig | 39.47 GB | — |
Zuletzt aktualisiert: 5. März 2026