Llama 4 Maverick 17B 128E Instruct
Meta
Code Multilingual Tool Calls Vision
Llama 4 Maverick 17B 128E Instruct est un modele "Mixture-of-Experts" a grande echelle de Meta avec 17 milliards de parametres par expert et 128 experts, activant un expert par token pour un total d'environ 400 milliards de parametres. Il offre des performances de pointe en vision, generation de code et taches multilingues dans 12 langues. Maverick represente le niveau haute capacite de la famille Llama 4, echangeant des besoins memoire plus eleves contre de meilleurs resultats de benchmark. Avec une fenetre de contexte de 1M de tokens, il necessite des configurations multi-GPU mais se quantifie jusqu'au niveau Q2.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 396.58 GB | — |
| Q8_K_XL | Élevée | 428.4 GB | — |
| Q6_K | Élevée | 306.2 GB | — |
| Q6_K_XL | Élevée | 317.63 GB | — |
| Q5_K_M | Moyenne | 264.93 GB | — |
| Q5_K_S | Moyenne | 256.77 GB | — |
| Q5_K_XL | Moyenne | 267.29 GB | — |
| Q4_K_M | Moyenne | 226.1 GB | — |
| Q4_K_S | Moyenne | 212.16 GB | — |
| Q4_K_XL | Moyenne | 216.2 GB | — |
| Q4_0 | Moyenne | 211.19 GB | — |
| Q4_1 | Moyenne | 233.49 GB | — |
| Q3_K_M | Basse | 177.95 GB | — |
| Q3_K_S | Basse | 160.79 GB | — |
| Q3_K_XL | Basse | 167.23 GB | — |
| Q2_K | Basse | 135.64 GB | — |
| Q2_K_L | Basse | 135.87 GB | — |
| Q2_K_XL | Basse | 142.17 GB | — |
Dernière mise à jour : 5 mars 2026