Aller au contenu

Mistral Small 24B Instruct 2501

Mistral AI
Code Multilingual Tool Calls

Mistral Small 24B Instruct 2501 est un transformeur dense de 23,57 milliards de paramètres développé par Mistral AI, optimisé pour le suivi d'instructions, la génération de code et la conversation multilingue. Il se situe dans une classe de paramètres moyenne offrant des performances élevées par rapport à sa taille, rivalisant avec des modèles plus grands de 30B sur de nombreux benchmarks. Le modèle prend en charge le "tool calling" et 10 langues dont l'anglais, le français, le chinois et le japonais. Avec une fenêtre de contexte de 32K et le "flash attention", il tient sur un seul GPU grand public en quantification Q4 pour une inférence auto-hébergée efficace.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP32 Pleine précision 87.82 GB
FP16 Pleine précision 43.92 GB
Q8_0 Élevée 23.33 GB
Q6_K Élevée 18.02 GB
Q5_K_M Moyenne 15.61 GB
Q5_K_S Moyenne 15.18 GB
Q4_K_M Moyenne 13.35 GB
Q4_K_S Moyenne 12.62 GB
Q4_0 Moyenne 12.57 GB
Q4_1 Moyenne 13.85 GB
Q3_K_M Basse 10.69 GB
Q3_K_S Basse 9.69 GB
Q3_K_XL Basse 12.1 GB
Q2_K Basse 8.28 GB
Q2_K_L Basse 8.89 GB
Q3_K_L Basse 11.55 GB
Q4_K_L Basse 13.81 GB
Q5_K_L Basse 16 GB
Q6_K_L Basse 18.32 GB
Dernière mise à jour : 12 mars 2026