Devstral Small 2 24B Instruct 2512
Mistral AI
Code Multilingual Tool Calls
Devstral Small 2 24B Instruct 2512 è un trasformatore denso da 24,01 miliardi di parametri di Mistral AI, ottimizzato per l'ingegneria del software agentica e la modifica di codice su più file su hardware consumer. Raggiunge il 68,0% su SWE-bench Verified, competendo con modelli cinque volte più grandi. Il modello supporta il "tool calling" e 11 lingue tra cui inglese, francese, tedesco e cinese. Con una finestra di contesto da 384K e "flash attention", gira su una singola GPU e può essere self-hosted con quantizzazione GGUF.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 23.33 GB | — |
| Q8_K_XL | Alta | 27 GB | — |
| Q6_K | Alta | 18.02 GB | — |
| Q6_K_XL | Alta | 19.36 GB | — |
| Q5_K_M | Media | 15.61 GB | — |
| Q5_K_S | Media | 15.19 GB | — |
| Q5_K_XL | Media | 15.61 GB | — |
| Q4_K_M | Media | 13.35 GB | — |
| Q4_K_S | Media | 12.62 GB | — |
| Q4_K_XL | Media | 13.51 GB | — |
| Q4_0 | Media | 12.57 GB | — |
| Q4_1 | Media | 13.85 GB | — |
| Q3_K_M | Bassa | 10.69 GB | — |
| Q3_K_S | Bassa | 9.69 GB | — |
| Q3_K_XL | Bassa | 11.04 GB | — |
| Q2_K | Bassa | 8.28 GB | — |
| Q2_K_L | Bassa | 8.43 GB | — |
| Q2_K_XL | Bassa | 8.65 GB | — |
Ultimo aggiornamento: 6 marzo 2026