Salta ai contenuti

Gemma 4 E4B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 E4B è il modello denso edge Effective 4B di Google DeepMind, derivato dalla ricerca Gemini per il deployment su dispositivi ed embedded. Raggiunge 69,4 su MMLU-Pro, 42,5 su AIME 2026 e 52,0 su LiveCodeBench v6, offrendo un ragionamento solido in un formato compatto. Nativamente multimodale, elabora testo, immagini e audio con capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 128K token. Rilasciato con licenza Apache 2.0, richiede solo circa 5 GB di VRAM in Q4, rendendolo ideale per il deployment self-hosted su GPU consumer e dispositivi edge.

Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 14.02 GB
BF16 Piena precisione 14.02 GB
Q8_0 Alta 7.48 GB
Q8_K_XL Alta 8.06 GB
Q6_K Alta 6.59 GB
Q6_K_XL Alta 6.95 GB
Q5_K_M Media 5.11 GB
Q5_K_S Media 5.03 GB
Q5_K_XL Media 6.19 GB
Q4_K_M Media 4.97 GB
Q4_K_S Media 4.51 GB
Q4_K_XL Media 4.75 GB
IQ4_NL Media 4.5 GB
IQ4_XS Media 4.39 GB
Q4_0 Media 4.5 GB
Q4_1 Media 4.73 GB
Q3_K_M Bassa 3.78 GB
Q3_K_S Bassa 3.6 GB
Q3_K_XL Bassa 4.25 GB
IQ3_XXS Bassa 3.45 GB
Q2_K_XL Bassa 3.49 GB
IQ2_M Bassa 3.29 GB
Ultimo aggiornamento: 3 aprile 2026