Zum Inhalt springen

Mistral Small 3.1 24B Instruct 2503

Mistral AI
Code Multilingual Tool Calls Vision

Mistral Small 3.1 24B Instruct 2503 ist ein dichter Transformer mit 24 Milliarden Parametern von Mistral AI, optimiert für Instruktionsbefolgung, Codegenerierung, Bildverständnis und mehrsprachige Konversation. Es folgt auf das frühere Mistral Small 2501 mit einem erweiterten 128K-Kontextfenster und einem nativen Pixtral-Vision-Encoder. Das Modell unterstützt "tool calling" und 24 Sprachen, darunter Englisch, Französisch, Arabisch und Hindi. Mit Flash Attention und effizienter Quantisierung passt es bei Q4 auf eine einzelne Consumer-GPU für selbstgehostete Inferenz.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 23.33 GB
Q8_K_XL Hoch 27 GB
Q6_K Hoch 18.02 GB
Q6_K_XL Hoch 19.36 GB
Q5_K_M Mittel 15.61 GB
Q5_K_S Mittel 15.18 GB
Q5_K_XL Mittel 15.61 GB
Q4_K_M Mittel 13.35 GB
Q4_K_S Mittel 12.62 GB
Q4_K_XL Mittel 13.51 GB
Q4_0 Mittel 12.57 GB
Q4_1 Mittel 13.85 GB
Q3_K_M Niedrig 10.69 GB
Q3_K_S Niedrig 9.69 GB
Q3_K_XL Niedrig 11.04 GB
Q2_K Niedrig 8.28 GB
Q2_K_L Niedrig 8.43 GB
Q2_K_XL Niedrig 8.65 GB
Zuletzt aktualisiert: 7. März 2026