Salta ai contenuti

Gemma 4 31B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 31B è il modello denso di punta di Google DeepMind con 30,7 miliardi di parametri, derivato dalla ricerca Gemini. Si posiziona al 3° posto nella classifica Arena AI e raggiunge 85,2 su MMLU-Pro, 89,2 su AIME 2026 e 80,0 su LiveCodeBench v6, con un ELO Codeforces di 2.150. Nativamente multimodale, elabora testo e immagini con capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 256K token. Rilasciato con licenza Apache 2.0, richiede circa 17 GB di VRAM in Q4, rendendolo ideale per il deployment self-hosted su GPU consumer di fascia alta.

Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 57.2 GB
BF16 Piena precisione 57.2 GB
Q8_0 Alta 30.39 GB
Q8_K_XL Alta 32.61 GB
Q6_K Alta 23.47 GB
Q6_K_XL Alta 25.63 GB
Q5_K_M Media 20.17 GB
Q5_K_S Media 19.67 GB
Q5_K_XL Media 20.39 GB
Q4_K_M Media 17.4 GB
Q4_K_S Media 16.2 GB
Q4_K_XL Media 17.48 GB
IQ4_NL Media 16.1 GB
IQ4_XS Media 15.25 GB
Q4_0 Media 16.15 GB
Q4_1 Media 17.81 GB
Q3_K_M Bassa 13.72 GB
Q3_K_S Bassa 12.3 GB
Q3_K_XL Bassa 14.27 GB
IQ3_XXS Bassa 11.02 GB
Q2_K_XL Bassa 10.97 GB
IQ2_M Bassa 10.01 GB
IQ2_XXS Bassa 7.95 GB
Ultimo aggiornamento: 29 aprile 2026