Gemma 4 31B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 31B est le modèle dense phare de Google DeepMind, doté de 30,7 milliards de paramètres et issu de la recherche Gemini. Il se classe 3e au classement Arena AI et obtient 85,2 sur MMLU-Pro, 89,2 sur AIME 2026 et 80,0 sur LiveCodeBench v6, avec un ELO Codeforces de 2 150. Nativement multimodal, il traite texte et images avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 256K tokens. Publié sous licence Apache 2.0, il nécessite environ 17 Go de VRAM en Q4, ce qui en fait un excellent choix pour le déploiement auto-hébergé sur GPU grand public haut de gamme.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 57.2 GB | — |
| BF16 | Pleine précision | 57.2 GB | — |
| Q8_0 | Élevée | 30.39 GB | — |
| Q8_K_XL | Élevée | 32.61 GB | — |
| Q6_K | Élevée | 23.47 GB | — |
| Q6_K_XL | Élevée | 25.63 GB | — |
| Q5_K_M | Moyenne | 20.17 GB | — |
| Q5_K_S | Moyenne | 19.67 GB | — |
| Q5_K_XL | Moyenne | 20.39 GB | — |
| Q4_K_M | Moyenne | 17.4 GB | — |
| Q4_K_S | Moyenne | 16.2 GB | — |
| Q4_K_XL | Moyenne | 17.48 GB | — |
| IQ4_NL | Moyenne | 16.1 GB | — |
| IQ4_XS | Moyenne | 15.25 GB | — |
| Q4_0 | Moyenne | 16.15 GB | — |
| Q4_1 | Moyenne | 17.81 GB | — |
| Q3_K_M | Basse | 13.72 GB | — |
| Q3_K_S | Basse | 12.3 GB | — |
| Q3_K_XL | Basse | 14.27 GB | — |
| IQ3_XXS | Basse | 11.02 GB | — |
| Q2_K_XL | Basse | 10.97 GB | — |
| IQ2_M | Basse | 10.01 GB | — |
| IQ2_XXS | Basse | 7.95 GB | — |
Dernière mise à jour : 29 avril 2026