Mistral Small 4 119B 2603
Mistral AI
Code Multilingual Thinking Tool Calls Vision
Mistral Small 4 119B 2603 est un modèle Mixture-of-Experts à 119,4 milliards de paramètres développé par Mistral AI, activant 6,5 milliards de paramètres par token via 4 des 128 experts routés plus 1 expert partagé. Il prend en charge l'entrée visuelle, l'appel d'outils, la génération de code et un effort de raisonnement ajustable dans 24 langues. Une fenêtre de contexte de 256K, une latence réduite de 40 % et un débit 3 fois supérieur à Mistral Small 3 le rendent adapté aux workflows agentiques et multimodaux à haut volume. Son architecture MoE se quantifie efficacement en GGUF pour un déploiement auto-hébergé sur des configurations multi-GPU.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 117.78 GB | — |
| Q6_K | Élevée | 90.96 GB | — |
| Q4_K_M | Moyenne | 67.21 GB | — |
Dernière mise à jour : 17 mars 2026