Gemma 4 E4B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 E4B ist Google DeepMinds dichtes Effective-4B-Edge-Modell, destilliert aus der Gemini-Forschung für den Einsatz auf Endgeräten und eingebetteten Systemen. Es erreicht 69,4 auf MMLU-Pro, 42,5 auf AIME 2026 und 52,0 auf LiveCodeBench v6 und bietet starkes Denkvermögen in einem kompakten Format. Nativ multimodal verarbeitet es Text, Bilder und Audio mit integriertem Denkvermögen und Tool-Calling über ein 128K-Kontextfenster. Unter der Apache-2.0-Lizenz veröffentlicht, benötigt es bei Q4 nur etwa 5 GB VRAM und eignet sich hervorragend für selbstgehostete Bereitstellung auf Consumer-GPUs und Edge-Geräten.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| FP16 | Volle Präzision | 14.02 GB | — |
| BF16 | Volle Präzision | 14.02 GB | — |
| Q8_0 | Hoch | 7.48 GB | — |
| Q8_K_XL | Hoch | 8.06 GB | — |
| Q6_K | Hoch | 6.59 GB | — |
| Q6_K_XL | Hoch | 6.95 GB | — |
| Q5_K_M | Mittel | 5.11 GB | — |
| Q5_K_S | Mittel | 5.03 GB | — |
| Q5_K_XL | Mittel | 6.19 GB | — |
| Q4_K_M | Mittel | 4.97 GB | — |
| Q4_K_S | Mittel | 4.51 GB | — |
| Q4_K_XL | Mittel | 4.75 GB | — |
| IQ4_NL | Mittel | 4.5 GB | — |
| IQ4_XS | Mittel | 4.39 GB | — |
| Q4_0 | Mittel | 4.5 GB | — |
| Q4_1 | Mittel | 4.73 GB | — |
| Q3_K_M | Niedrig | 3.78 GB | — |
| Q3_K_S | Niedrig | 3.6 GB | — |
| Q3_K_XL | Niedrig | 4.25 GB | — |
| IQ3_XXS | Niedrig | 3.45 GB | — |
| Q2_K_XL | Niedrig | 3.49 GB | — |
| IQ2_M | Niedrig | 3.29 GB | — |
Zuletzt aktualisiert: 3. April 2026