Aller au contenu

Mistral Small 3.1 24B Instruct 2503

Mistral AI
Code Multilingual Tool Calls Vision

Mistral Small 3.1 24B Instruct 2503 est un transformeur dense de 24 milliards de paramètres développé par Mistral AI, optimisé pour le suivi d'instructions, la génération de code, la compréhension d'images et la conversation multilingue. Il succède au précédent Mistral Small 2501 avec une fenêtre de contexte étendue à 128K et un encodeur de vision Pixtral natif. Le modèle prend en charge le "tool calling" et 24 langues dont l'anglais, le français, l'arabe et le hindi. Avec le "flash attention" et une quantification efficace, il tient sur un seul GPU grand public en Q4 pour une inférence auto-hébergée.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 23.33 GB
Q8_K_XL Élevée 27 GB
Q6_K Élevée 18.02 GB
Q6_K_XL Élevée 19.36 GB
Q5_K_M Moyenne 15.61 GB
Q5_K_S Moyenne 15.18 GB
Q5_K_XL Moyenne 15.61 GB
Q4_K_M Moyenne 13.35 GB
Q4_K_S Moyenne 12.62 GB
Q4_K_XL Moyenne 13.51 GB
Q4_0 Moyenne 12.57 GB
Q4_1 Moyenne 13.85 GB
Q3_K_M Basse 10.69 GB
Q3_K_S Basse 9.69 GB
Q3_K_XL Basse 11.04 GB
Q2_K Basse 8.28 GB
Q2_K_L Basse 8.43 GB
Q2_K_XL Basse 8.65 GB
Dernière mise à jour : 7 mars 2026