Zum Inhalt springen

Gemma 4 E4B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 E4B ist Google DeepMinds dichtes Effective-4B-Edge-Modell, destilliert aus der Gemini-Forschung für den Einsatz auf Endgeräten und eingebetteten Systemen. Es erreicht 69,4 auf MMLU-Pro, 42,5 auf AIME 2026 und 52,0 auf LiveCodeBench v6 und bietet starkes Denkvermögen in einem kompakten Format. Nativ multimodal verarbeitet es Text, Bilder und Audio mit integriertem Denkvermögen und Tool-Calling über ein 128K-Kontextfenster. Unter der Apache-2.0-Lizenz veröffentlicht, benötigt es bei Q4 nur etwa 5 GB VRAM und eignet sich hervorragend für selbstgehostete Bereitstellung auf Consumer-GPUs und Edge-Geräten.

Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
FP16 Volle Präzision 14.02 GB
BF16 Volle Präzision 14.02 GB
Q8_0 Hoch 7.48 GB
Q8_K_XL Hoch 8.06 GB
Q6_K Hoch 6.59 GB
Q6_K_XL Hoch 6.95 GB
Q5_K_M Mittel 5.11 GB
Q5_K_S Mittel 5.03 GB
Q5_K_XL Mittel 6.19 GB
Q4_K_M Mittel 4.97 GB
Q4_K_S Mittel 4.51 GB
Q4_K_XL Mittel 4.75 GB
IQ4_NL Mittel 4.5 GB
IQ4_XS Mittel 4.39 GB
Q4_0 Mittel 4.5 GB
Q4_1 Mittel 4.73 GB
Q3_K_M Niedrig 3.78 GB
Q3_K_S Niedrig 3.6 GB
Q3_K_XL Niedrig 4.25 GB
IQ3_XXS Niedrig 3.45 GB
Q2_K_XL Niedrig 3.49 GB
IQ2_M Niedrig 3.29 GB
Zuletzt aktualisiert: 3. April 2026