Gemma 4 E2B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 E2B est le modèle dense ultra-compact Effective 2B de Google DeepMind, issu de la recherche Gemini pour les téléphones et les environnements contraints. Il obtient 60,0 sur MMLU-Pro, 37,5 sur AIME 2026 et 44,0 sur LiveCodeBench v6, apportant un véritable raisonnement dans le plus petit format de la famille. Nativement multimodal, il traite texte, images et audio avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 128K tokens. Publié sous licence Apache 2.0, il ne nécessite qu'environ 3 Go de VRAM en Q4, ce qui en fait un choix idéal pour le déploiement auto-hébergé sur téléphones, ordinateurs portables et appareils edge à très faible consommation.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 8.67 GB | — |
| BF16 | Pleine précision | 8.67 GB | — |
| Q8_0 | Élevée | 4.63 GB | — |
| Q8_K_XL | Élevée | 4.91 GB | — |
| Q6_K | Élevée | 4.19 GB | — |
| Q6_K_XL | Élevée | 4.39 GB | — |
| Q5_K_M | Moyenne | 3.13 GB | — |
| Q5_K_S | Moyenne | 3.09 GB | — |
| Q5_K_XL | Moyenne | 4 GB | — |
| Q4_K_M | Moyenne | 2.89 GB | — |
| Q4_K_S | Moyenne | 2.83 GB | — |
| Q4_K_XL | Moyenne | 2.96 GB | — |
| IQ4_NL | Moyenne | 2.83 GB | — |
| IQ4_XS | Moyenne | 2.78 GB | — |
| Q4_0 | Moyenne | 2.83 GB | — |
| Q4_1 | Moyenne | 2.94 GB | — |
| Q3_K_M | Basse | 2.36 GB | — |
| Q3_K_S | Basse | 2.28 GB | — |
| Q3_K_XL | Basse | 2.71 GB | — |
| IQ3_XXS | Basse | 2.21 GB | — |
| Q2_K_XL | Basse | 2.24 GB | — |
| IQ2_M | Basse | 2.13 GB | — |
Dernière mise à jour : 3 avril 2026