Gemma 4 31B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 31B è il modello denso di punta di Google DeepMind con 30,7 miliardi di parametri, derivato dalla ricerca Gemini. Si posiziona al 3° posto nella classifica Arena AI e raggiunge 85,2 su MMLU-Pro, 89,2 su AIME 2026 e 80,0 su LiveCodeBench v6, con un ELO Codeforces di 2.150. Nativamente multimodale, elabora testo e immagini con capacità integrate di ragionamento e chiamata di strumenti su una finestra di contesto da 256K token. Rilasciato con licenza Apache 2.0, richiede circa 17 GB di VRAM in Q4, rendendolo ideale per il deployment self-hosted su GPU consumer di fascia alta.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 57.2 GB | — |
| BF16 | Piena precisione | 57.2 GB | — |
| Q8_0 | Alta | 30.39 GB | — |
| Q8_K_XL | Alta | 32.61 GB | — |
| Q6_K | Alta | 23.47 GB | — |
| Q6_K_XL | Alta | 25.63 GB | — |
| Q5_K_M | Media | 20.17 GB | — |
| Q5_K_S | Media | 19.67 GB | — |
| Q5_K_XL | Media | 20.39 GB | — |
| Q4_K_M | Media | 17.4 GB | — |
| Q4_K_S | Media | 16.2 GB | — |
| Q4_K_XL | Media | 17.48 GB | — |
| IQ4_NL | Media | 16.1 GB | — |
| IQ4_XS | Media | 15.25 GB | — |
| Q4_0 | Media | 16.15 GB | — |
| Q4_1 | Media | 17.81 GB | — |
| Q3_K_M | Bassa | 13.72 GB | — |
| Q3_K_S | Bassa | 12.3 GB | — |
| Q3_K_XL | Bassa | 14.27 GB | — |
| IQ3_XXS | Bassa | 11.02 GB | — |
| Q2_K_XL | Bassa | 10.97 GB | — |
| IQ2_M | Bassa | 10.01 GB | — |
| IQ2_XXS | Bassa | 7.95 GB | — |
Ultimo aggiornamento: 29 aprile 2026