Aller au contenu

Gemma 4 E4B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 E4B est le modèle dense edge Effective 4B de Google DeepMind, issu de la recherche Gemini pour le déploiement embarqué et sur appareil. Il obtient 69,4 sur MMLU-Pro, 42,5 sur AIME 2026 et 52,0 sur LiveCodeBench v6, offrant un raisonnement solide dans un format compact. Nativement multimodal, il traite texte, images et audio avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 128K tokens. Publié sous licence Apache 2.0, il ne nécessite qu'environ 5 Go de VRAM en Q4, ce qui en fait un excellent choix pour le déploiement auto-hébergé sur GPU grand public et appareils edge.

Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 14.02 GB
BF16 Pleine précision 14.02 GB
Q8_0 Élevée 7.48 GB
Q8_K_XL Élevée 8.06 GB
Q6_K Élevée 6.59 GB
Q6_K_XL Élevée 6.95 GB
Q5_K_M Moyenne 5.11 GB
Q5_K_S Moyenne 5.03 GB
Q5_K_XL Moyenne 6.19 GB
Q4_K_M Moyenne 4.97 GB
Q4_K_S Moyenne 4.51 GB
Q4_K_XL Moyenne 4.75 GB
IQ4_NL Moyenne 4.5 GB
IQ4_XS Moyenne 4.39 GB
Q4_0 Moyenne 4.5 GB
Q4_1 Moyenne 4.73 GB
Q3_K_M Basse 3.78 GB
Q3_K_S Basse 3.6 GB
Q3_K_XL Basse 4.25 GB
IQ3_XXS Basse 3.45 GB
Q2_K_XL Basse 3.49 GB
IQ2_M Basse 3.29 GB
Dernière mise à jour : 3 avril 2026