Zum Inhalt springen

Gemma 4 E2B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 E2B ist Google DeepMinds ultrakompaktes Effective-2B-Dense-Modell, destilliert aus der Gemini-Forschung für Smartphones und ressourcenbeschränkte Umgebungen. Es erreicht 60,0 auf MMLU-Pro, 37,5 auf AIME 2026 und 44,0 auf LiveCodeBench v6 und bringt echtes Denkvermögen in den kleinsten Formfaktor der Familie. Nativ multimodal verarbeitet es Text, Bilder und Audio mit integriertem Denkvermögen und Tool-Calling über ein 128K-Kontextfenster. Unter der Apache-2.0-Lizenz veröffentlicht, benötigt es bei Q4 nur etwa 3 GB VRAM und eignet sich ideal für selbstgehostete Bereitstellung auf Smartphones, Laptops und Edge-Geräten mit minimaler Leistung.

Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
FP16 Volle Präzision 8.67 GB
BF16 Volle Präzision 8.67 GB
Q8_0 Hoch 4.63 GB
Q8_K_XL Hoch 4.91 GB
Q6_K Hoch 4.19 GB
Q6_K_XL Hoch 4.39 GB
Q5_K_M Mittel 3.13 GB
Q5_K_S Mittel 3.09 GB
Q5_K_XL Mittel 4 GB
Q4_K_M Mittel 2.89 GB
Q4_K_S Mittel 2.83 GB
Q4_K_XL Mittel 2.96 GB
IQ4_NL Mittel 2.83 GB
IQ4_XS Mittel 2.78 GB
Q4_0 Mittel 2.83 GB
Q4_1 Mittel 2.94 GB
Q3_K_M Niedrig 2.36 GB
Q3_K_S Niedrig 2.28 GB
Q3_K_XL Niedrig 2.71 GB
IQ3_XXS Niedrig 2.21 GB
Q2_K_XL Niedrig 2.24 GB
IQ2_M Niedrig 2.13 GB
Zuletzt aktualisiert: 3. April 2026