Salta ai contenuti

Gemma 4 26B A4B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 26B A4B è il modello Mixture-of-Experts di Google DeepMind con 25,2 miliardi di parametri totali ma solo 3,8 miliardi attivi per token, derivato dalla ricerca Gemini. Si posiziona al 6° posto nella classifica Arena AI e raggiunge 88,3 su AIME 2026, offrendo un ragionamento di livello superiore con una frazione della potenza di calcolo. Nativamente multimodale, elabora testo e immagini con capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 256K token. Rilasciato con licenza Apache 2.0, richiede circa 16 GB di VRAM in Q4, rendendolo una scelta eccezionalmente efficiente per il deployment self-hosted su GPU consumer.

Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 47.04 GB
BF16 Piena precisione 47.03 GB
Q8_0 Alta 25.02 GB
Q8_K_XL Alta 25.95 GB
Q6_K Alta 21.33 GB
Q6_K_XL Alta 22.19 GB
Q5_K_M Media 19.7 GB
Q5_K_S Media 17.48 GB
Q5_K_XL Media 19.81 GB
Q4_K_M Media 15.64 GB
Q4_K_S Media 15.27 GB
Q4_K_XL Media 15.97 GB
MXFP4_MOE Media 15.54 GB
IQ4_NL Media 12.5 GB
IQ4_XS Media 12.5 GB
Q3_K_M Bassa 11.67 GB
Q3_K_S Bassa 11.67 GB
Q3_K_XL Bassa 12.04 GB
IQ3_S Bassa 10.45 GB
IQ3_XXS Bassa 10.45 GB
Q2_K_XL Bassa 9.82 GB
IQ2_M Bassa 9.29 GB
Ultimo aggiornamento: 29 aprile 2026