Gemma 4 E2B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 E2B ist Google DeepMinds ultrakompaktes Effective-2B-Dense-Modell, destilliert aus der Gemini-Forschung für Smartphones und ressourcenbeschränkte Umgebungen. Es erreicht 60,0 auf MMLU-Pro, 37,5 auf AIME 2026 und 44,0 auf LiveCodeBench v6 und bringt echtes Denkvermögen in den kleinsten Formfaktor der Familie. Nativ multimodal verarbeitet es Text, Bilder und Audio mit integriertem Denkvermögen und Tool-Calling über ein 128K-Kontextfenster. Unter der Apache-2.0-Lizenz veröffentlicht, benötigt es bei Q4 nur etwa 3 GB VRAM und eignet sich ideal für selbstgehostete Bereitstellung auf Smartphones, Laptops und Edge-Geräten mit minimaler Leistung.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| FP16 | Volle Präzision | 8.67 GB | — |
| BF16 | Volle Präzision | 8.67 GB | — |
| Q8_0 | Hoch | 4.63 GB | — |
| Q8_K_XL | Hoch | 4.91 GB | — |
| Q6_K | Hoch | 4.19 GB | — |
| Q6_K_XL | Hoch | 4.39 GB | — |
| Q5_K_M | Mittel | 3.13 GB | — |
| Q5_K_S | Mittel | 3.09 GB | — |
| Q5_K_XL | Mittel | 4 GB | — |
| Q4_K_M | Mittel | 2.89 GB | — |
| Q4_K_S | Mittel | 2.83 GB | — |
| Q4_K_XL | Mittel | 2.96 GB | — |
| IQ4_NL | Mittel | 2.83 GB | — |
| IQ4_XS | Mittel | 2.78 GB | — |
| Q4_0 | Mittel | 2.83 GB | — |
| Q4_1 | Mittel | 2.94 GB | — |
| Q3_K_M | Niedrig | 2.36 GB | — |
| Q3_K_S | Niedrig | 2.28 GB | — |
| Q3_K_XL | Niedrig | 2.71 GB | — |
| IQ3_XXS | Niedrig | 2.21 GB | — |
| Q2_K_XL | Niedrig | 2.24 GB | — |
| IQ2_M | Niedrig | 2.13 GB | — |
Zuletzt aktualisiert: 3. April 2026