Gemma 4 E4B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 E4B est le modèle dense edge Effective 4B de Google DeepMind, issu de la recherche Gemini pour le déploiement embarqué et sur appareil. Il obtient 69,4 sur MMLU-Pro, 42,5 sur AIME 2026 et 52,0 sur LiveCodeBench v6, offrant un raisonnement solide dans un format compact. Nativement multimodal, il traite texte, images et audio avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 128K tokens. Publié sous licence Apache 2.0, il ne nécessite qu'environ 5 Go de VRAM en Q4, ce qui en fait un excellent choix pour le déploiement auto-hébergé sur GPU grand public et appareils edge.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 14.02 GB | — |
| BF16 | Pleine précision | 14.02 GB | — |
| Q8_0 | Élevée | 7.48 GB | — |
| Q8_K_XL | Élevée | 8.06 GB | — |
| Q6_K | Élevée | 6.59 GB | — |
| Q6_K_XL | Élevée | 6.95 GB | — |
| Q5_K_M | Moyenne | 5.11 GB | — |
| Q5_K_S | Moyenne | 5.03 GB | — |
| Q5_K_XL | Moyenne | 6.19 GB | — |
| Q4_K_M | Moyenne | 4.97 GB | — |
| Q4_K_S | Moyenne | 4.51 GB | — |
| Q4_K_XL | Moyenne | 4.75 GB | — |
| IQ4_NL | Moyenne | 4.5 GB | — |
| IQ4_XS | Moyenne | 4.39 GB | — |
| Q4_0 | Moyenne | 4.5 GB | — |
| Q4_1 | Moyenne | 4.73 GB | — |
| Q3_K_M | Basse | 3.78 GB | — |
| Q3_K_S | Basse | 3.6 GB | — |
| Q3_K_XL | Basse | 4.25 GB | — |
| IQ3_XXS | Basse | 3.45 GB | — |
| Q2_K_XL | Basse | 3.49 GB | — |
| IQ2_M | Basse | 3.29 GB | — |
Dernière mise à jour : 3 avril 2026