Gemma 4 E2B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 E2B è il modello denso ultracompatto Effective 2B di Google DeepMind, derivato dalla ricerca Gemini per smartphone e ambienti con risorse limitate. Raggiunge 60,0 su MMLU-Pro, 37,5 su AIME 2026 e 44,0 su LiveCodeBench v6, portando un ragionamento autentico nel formato più piccolo della famiglia. Nativamente multimodale, elabora testo, immagini e audio con capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 128K token. Rilasciato con licenza Apache 2.0, richiede solo circa 3 GB di VRAM in Q4, rendendolo ideale per il deployment self-hosted su smartphone, laptop e dispositivi edge a bassissimo consumo.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 8.67 GB | — |
| BF16 | Piena precisione | 8.67 GB | — |
| Q8_0 | Alta | 4.63 GB | — |
| Q8_K_XL | Alta | 4.91 GB | — |
| Q6_K | Alta | 4.19 GB | — |
| Q6_K_XL | Alta | 4.39 GB | — |
| Q5_K_M | Media | 3.13 GB | — |
| Q5_K_S | Media | 3.09 GB | — |
| Q5_K_XL | Media | 4 GB | — |
| Q4_K_M | Media | 2.89 GB | — |
| Q4_K_S | Media | 2.83 GB | — |
| Q4_K_XL | Media | 2.96 GB | — |
| IQ4_NL | Media | 2.83 GB | — |
| IQ4_XS | Media | 2.78 GB | — |
| Q4_0 | Media | 2.83 GB | — |
| Q4_1 | Media | 2.94 GB | — |
| Q3_K_M | Bassa | 2.36 GB | — |
| Q3_K_S | Bassa | 2.28 GB | — |
| Q3_K_XL | Bassa | 2.71 GB | — |
| IQ3_XXS | Bassa | 2.21 GB | — |
| Q2_K_XL | Bassa | 2.24 GB | — |
| IQ2_M | Bassa | 2.13 GB | — |
Ultimo aggiornamento: 3 aprile 2026