Aller au contenu

Gemma 4 26B A4B

Google
Code Multilingual Thinking Tool Calls Vision

Gemma 4 26B A4B est le modèle Mixture-of-Experts de Google DeepMind avec 25,2 milliards de paramètres au total mais seulement 3,8 milliards actifs par token, issu de la recherche Gemini. Il se classe 6e au classement Arena AI et obtient 88,3 sur AIME 2026, offrant un raisonnement proche du haut de gamme avec une fraction du calcul. Nativement multimodal, il traite texte et images avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 256K tokens. Publié sous licence Apache 2.0, il nécessite environ 16 Go de VRAM en Q4, ce qui en fait un choix exceptionnellement efficace pour le déploiement auto-hébergé sur GPU grand public.

Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 47.04 GB
BF16 Pleine précision 47.03 GB
Q8_0 Élevée 25.02 GB
Q8_K_XL Élevée 25.95 GB
Q6_K Élevée 21.33 GB
Q6_K_XL Élevée 22.19 GB
Q5_K_M Moyenne 19.7 GB
Q5_K_S Moyenne 17.48 GB
Q5_K_XL Moyenne 19.81 GB
Q4_K_M Moyenne 15.64 GB
Q4_K_S Moyenne 15.27 GB
Q4_K_XL Moyenne 15.97 GB
MXFP4_MOE Moyenne 15.54 GB
IQ4_NL Moyenne 12.5 GB
IQ4_XS Moyenne 12.5 GB
Q3_K_M Basse 11.67 GB
Q3_K_S Basse 11.67 GB
Q3_K_XL Basse 12.04 GB
IQ3_S Basse 10.45 GB
IQ3_XXS Basse 10.45 GB
Q2_K_XL Basse 9.82 GB
IQ2_M Basse 9.29 GB
Dernière mise à jour : 29 avril 2026