Aller au contenu

Devstral Small 2 24B Instruct 2512

Mistral AI
Code Multilingual Tool Calls

Devstral Small 2 24B Instruct 2512 est un transformeur dense de 24,01 milliards de paramètres développé par Mistral AI, optimisé pour l'ingénierie logicielle agentique et l'édition de code multi-fichiers sur du matériel grand public. Il atteint 68,0% sur SWE-bench Verified, rivalisant avec des modèles cinq fois plus grands. Le modèle prend en charge le "tool calling" et 11 langues dont l'anglais, le français, l'allemand et le chinois. Avec une fenêtre de contexte de 384K et le "flash attention", il tourne sur un seul GPU et peut être auto-hébergé avec une quantification GGUF.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 23.33 GB
Q8_K_XL Élevée 27 GB
Q6_K Élevée 18.02 GB
Q6_K_XL Élevée 19.36 GB
Q5_K_M Moyenne 15.61 GB
Q5_K_S Moyenne 15.19 GB
Q5_K_XL Moyenne 15.61 GB
Q4_K_M Moyenne 13.35 GB
Q4_K_S Moyenne 12.62 GB
Q4_K_XL Moyenne 13.51 GB
Q4_0 Moyenne 12.57 GB
Q4_1 Moyenne 13.85 GB
Q3_K_M Basse 10.69 GB
Q3_K_S Basse 9.69 GB
Q3_K_XL Basse 11.04 GB
Q2_K Basse 8.28 GB
Q2_K_L Basse 8.43 GB
Q2_K_XL Basse 8.65 GB
Dernière mise à jour : 6 mars 2026