Mistral Small 24B Instruct 2501
Mistral AI
Code Multilingual Tool Calls
Mistral Small 24B Instruct 2501 est un transformeur dense de 23,57 milliards de paramètres développé par Mistral AI, optimisé pour le suivi d'instructions, la génération de code et la conversation multilingue. Il se situe dans une classe de paramètres moyenne offrant des performances élevées par rapport à sa taille, rivalisant avec des modèles plus grands de 30B sur de nombreux benchmarks. Le modèle prend en charge le "tool calling" et 10 langues dont l'anglais, le français, le chinois et le japonais. Avec une fenêtre de contexte de 32K et le "flash attention", il tient sur un seul GPU grand public en quantification Q4 pour une inférence auto-hébergée efficace.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP32 | Pleine précision | 87.82 GB | — |
| FP16 | Pleine précision | 43.92 GB | — |
| Q8_0 | Élevée | 23.33 GB | — |
| Q6_K | Élevée | 18.02 GB | — |
| Q5_K_M | Moyenne | 15.61 GB | — |
| Q5_K_S | Moyenne | 15.18 GB | — |
| Q4_K_M | Moyenne | 13.35 GB | — |
| Q4_K_S | Moyenne | 12.62 GB | — |
| Q4_0 | Moyenne | 12.57 GB | — |
| Q4_1 | Moyenne | 13.85 GB | — |
| Q3_K_M | Basse | 10.69 GB | — |
| Q3_K_S | Basse | 9.69 GB | — |
| Q3_K_XL | Basse | 12.1 GB | — |
| Q2_K | Basse | 8.28 GB | — |
| Q2_K_L | Basse | 8.89 GB | — |
| Q3_K_L | Basse | 11.55 GB | — |
| Q4_K_L | Basse | 13.81 GB | — |
| Q5_K_L | Basse | 16 GB | — |
| Q6_K_L | Basse | 18.32 GB | — |
Dernière mise à jour : 12 mars 2026