Salta ai contenuti

Mistral Small 3.1 24B Instruct 2503

Mistral AI
Code Multilingual Tool Calls Vision

Mistral Small 3.1 24B Instruct 2503 è un trasformatore denso da 24 miliardi di parametri di Mistral AI, ottimizzato per il seguimento di istruzioni, la generazione di codice, la comprensione di immagini e la conversazione multilingue. Succede al precedente Mistral Small 2501 con una finestra di contesto ampliata a 128K e un encoder di visione Pixtral nativo. Il modello supporta il "tool calling" e 24 lingue tra cui inglese, francese, arabo e hindi. Con "flash attention" e quantizzazione efficiente, funziona su una singola GPU consumer in Q4 per un'inferenza self-hosted.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 23.33 GB
Q8_K_XL Alta 27 GB
Q6_K Alta 18.02 GB
Q6_K_XL Alta 19.36 GB
Q5_K_M Media 15.61 GB
Q5_K_S Media 15.18 GB
Q5_K_XL Media 15.61 GB
Q4_K_M Media 13.35 GB
Q4_K_S Media 12.62 GB
Q4_K_XL Media 13.51 GB
Q4_0 Media 12.57 GB
Q4_1 Media 13.85 GB
Q3_K_M Bassa 10.69 GB
Q3_K_S Bassa 9.69 GB
Q3_K_XL Bassa 11.04 GB
Q2_K Bassa 8.28 GB
Q2_K_L Bassa 8.43 GB
Q2_K_XL Bassa 8.65 GB
Ultimo aggiornamento: 7 marzo 2026