Aller au contenu

Mistral Small 4 119B 2603

Mistral AI
Code Multilingual Thinking Tool Calls Vision

Mistral Small 4 119B 2603 est un modèle Mixture-of-Experts à 119,4 milliards de paramètres développé par Mistral AI, activant 6,5 milliards de paramètres par token via 4 des 128 experts routés plus 1 expert partagé. Il prend en charge l'entrée visuelle, l'appel d'outils, la génération de code et un effort de raisonnement ajustable dans 24 langues. Une fenêtre de contexte de 256K, une latence réduite de 40 % et un débit 3 fois supérieur à Mistral Small 3 le rendent adapté aux workflows agentiques et multimodaux à haut volume. Son architecture MoE se quantifie efficacement en GGUF pour un déploiement auto-hébergé sur des configurations multi-GPU.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 117.78 GB
Q6_K Élevée 90.96 GB
Q4_K_M Moyenne 67.21 GB
Dernière mise à jour : 17 mars 2026