Llama 4 Maverick 17B 128E Instruct
Meta
Code Multilingual Tool Calls Vision
Llama 4 Maverick 17B 128E Instruct ist ein grosses Mixture-of-Experts-Modell von Meta mit 17 Milliarden Parametern pro Experte und 128 Experten, wobei ein Experte pro Token aktiviert wird -- insgesamt rund 400 Milliarden Parameter. Es liefert Spitzenleistungen bei Vision, Codegenerierung und mehrsprachigen Aufgaben in 12 Sprachen. Maverick bildet die leistungsstarke Stufe der Llama-4-Familie und tauscht hoehere Speicheranforderungen gegen staerkere Benchmark-Ergebnisse. Mit einem 1M-Token-Kontextfenster erfordert es Multi-GPU-Setups, laesst sich aber bis auf Q2-Stufen quantisieren.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 396.58 GB | — |
| Q8_K_XL | Hoch | 428.4 GB | — |
| Q6_K | Hoch | 306.2 GB | — |
| Q6_K_XL | Hoch | 317.63 GB | — |
| Q5_K_M | Mittel | 264.93 GB | — |
| Q5_K_S | Mittel | 256.77 GB | — |
| Q5_K_XL | Mittel | 267.29 GB | — |
| Q4_K_M | Mittel | 226.1 GB | — |
| Q4_K_S | Mittel | 212.16 GB | — |
| Q4_K_XL | Mittel | 216.2 GB | — |
| Q4_0 | Mittel | 211.19 GB | — |
| Q4_1 | Mittel | 233.49 GB | — |
| Q3_K_M | Niedrig | 177.95 GB | — |
| Q3_K_S | Niedrig | 160.79 GB | — |
| Q3_K_XL | Niedrig | 167.23 GB | — |
| Q2_K | Niedrig | 135.64 GB | — |
| Q2_K_L | Niedrig | 135.87 GB | — |
| Q2_K_XL | Niedrig | 142.17 GB | — |
Zuletzt aktualisiert: 5. März 2026