Gemma 4 26B A4B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 26B A4B è il modello Mixture-of-Experts di Google DeepMind con 25,2 miliardi di parametri totali ma solo 3,8 miliardi attivi per token, derivato dalla ricerca Gemini. Si posiziona al 6° posto nella classifica Arena AI e raggiunge 88,3 su AIME 2026, offrendo un ragionamento di livello superiore con una frazione della potenza di calcolo. Nativamente multimodale, elabora testo e immagini con capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 256K token. Rilasciato con licenza Apache 2.0, richiede circa 16 GB di VRAM in Q4, rendendolo una scelta eccezionalmente efficiente per il deployment self-hosted su GPU consumer.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 47.04 GB | — |
| BF16 | Piena precisione | 47.03 GB | — |
| Q8_0 | Alta | 25.02 GB | — |
| Q8_K_XL | Alta | 25.95 GB | — |
| Q6_K | Alta | 21.33 GB | — |
| Q6_K_XL | Alta | 22.19 GB | — |
| Q5_K_M | Media | 19.7 GB | — |
| Q5_K_S | Media | 17.48 GB | — |
| Q5_K_XL | Media | 19.81 GB | — |
| Q4_K_M | Media | 15.64 GB | — |
| Q4_K_S | Media | 15.27 GB | — |
| Q4_K_XL | Media | 15.97 GB | — |
| MXFP4_MOE | Media | 15.54 GB | — |
| IQ4_NL | Media | 12.5 GB | — |
| IQ4_XS | Media | 12.5 GB | — |
| Q3_K_M | Bassa | 11.67 GB | — |
| Q3_K_S | Bassa | 11.67 GB | — |
| Q3_K_XL | Bassa | 12.04 GB | — |
| IQ3_S | Bassa | 10.45 GB | — |
| IQ3_XXS | Bassa | 10.45 GB | — |
| Q2_K_XL | Bassa | 9.82 GB | — |
| IQ2_M | Bassa | 9.29 GB | — |
Ultimo aggiornamento: 29 aprile 2026