Gemma 4 26B A4B
Google
Code Multilingual Thinking Tool Calls Vision
Gemma 4 26B A4B est le modèle Mixture-of-Experts de Google DeepMind avec 25,2 milliards de paramètres au total mais seulement 3,8 milliards actifs par token, issu de la recherche Gemini. Il se classe 6e au classement Arena AI et obtient 88,3 sur AIME 2026, offrant un raisonnement proche du haut de gamme avec une fraction du calcul. Nativement multimodal, il traite texte et images avec des capacités intégrées de raisonnement et d'appel d'outils sur une fenêtre de contexte de 256K tokens. Publié sous licence Apache 2.0, il nécessite environ 16 Go de VRAM en Q4, ce qui en fait un choix exceptionnellement efficace pour le déploiement auto-hébergé sur GPU grand public.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 47.04 GB | — |
| BF16 | Pleine précision | 47.03 GB | — |
| Q8_0 | Élevée | 25.02 GB | — |
| Q8_K_XL | Élevée | 25.95 GB | — |
| Q6_K | Élevée | 21.33 GB | — |
| Q6_K_XL | Élevée | 22.19 GB | — |
| Q5_K_M | Moyenne | 19.7 GB | — |
| Q5_K_S | Moyenne | 17.48 GB | — |
| Q5_K_XL | Moyenne | 19.81 GB | — |
| Q4_K_M | Moyenne | 15.64 GB | — |
| Q4_K_S | Moyenne | 15.27 GB | — |
| Q4_K_XL | Moyenne | 15.97 GB | — |
| MXFP4_MOE | Moyenne | 15.54 GB | — |
| IQ4_NL | Moyenne | 12.5 GB | — |
| IQ4_XS | Moyenne | 12.5 GB | — |
| Q3_K_M | Basse | 11.67 GB | — |
| Q3_K_S | Basse | 11.67 GB | — |
| Q3_K_XL | Basse | 12.04 GB | — |
| IQ3_S | Basse | 10.45 GB | — |
| IQ3_XXS | Basse | 10.45 GB | — |
| Q2_K_XL | Basse | 9.82 GB | — |
| IQ2_M | Basse | 9.29 GB | — |
Dernière mise à jour : 29 avril 2026