Aller au contenu

Gemma 4 31B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 31B est le modèle dense phare de Google DeepMind, doté de 30,7 milliards de paramètres et issu de la recherche Gemini. Il se classe 3e au classement Arena AI et obtient 85,2 sur MMLU-Pro, 89,2 sur AIME 2026 et 80,0 sur LiveCodeBench v6, avec un ELO Codeforces de 2 150. Nativement multimodal, il traite texte et images avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 256K tokens. Publié sous licence Apache 2.0, il nécessite environ 17 Go de VRAM en Q4, ce qui en fait un excellent choix pour le déploiement auto-hébergé sur GPU grand public haut de gamme.

Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 57.2 GB
BF16 Pleine précision 57.2 GB
Q8_0 Élevée 30.39 GB
Q8_K_XL Élevée 32.61 GB
Q6_K Élevée 23.47 GB
Q6_K_XL Élevée 25.63 GB
Q5_K_M Moyenne 20.17 GB
Q5_K_S Moyenne 19.67 GB
Q5_K_XL Moyenne 20.39 GB
Q4_K_M Moyenne 17.4 GB
Q4_K_S Moyenne 16.2 GB
Q4_K_XL Moyenne 17.48 GB
IQ4_NL Moyenne 16.1 GB
IQ4_XS Moyenne 15.25 GB
Q4_0 Moyenne 16.15 GB
Q4_1 Moyenne 17.81 GB
Q3_K_M Basse 13.72 GB
Q3_K_S Basse 12.3 GB
Q3_K_XL Basse 14.27 GB
IQ3_XXS Basse 11.02 GB
Q2_K_XL Basse 10.97 GB
IQ2_M Basse 10.01 GB
IQ2_XXS Basse 7.95 GB
Dernière mise à jour : 29 avril 2026