Mistral Small 3.1 24B Instruct 2503
Mistral AI
Code Multilingual Tool Calls Vision
Mistral Small 3.1 24B Instruct 2503 ist ein dichter Transformer mit 24 Milliarden Parametern von Mistral AI, optimiert für Instruktionsbefolgung, Codegenerierung, Bildverständnis und mehrsprachige Konversation. Es folgt auf das frühere Mistral Small 2501 mit einem erweiterten 128K-Kontextfenster und einem nativen Pixtral-Vision-Encoder. Das Modell unterstützt "tool calling" und 24 Sprachen, darunter Englisch, Französisch, Arabisch und Hindi. Mit Flash Attention und effizienter Quantisierung passt es bei Q4 auf eine einzelne Consumer-GPU für selbstgehostete Inferenz.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 23.33 GB | — |
| Q8_K_XL | Hoch | 27 GB | — |
| Q6_K | Hoch | 18.02 GB | — |
| Q6_K_XL | Hoch | 19.36 GB | — |
| Q5_K_M | Mittel | 15.61 GB | — |
| Q5_K_S | Mittel | 15.18 GB | — |
| Q5_K_XL | Mittel | 15.61 GB | — |
| Q4_K_M | Mittel | 13.35 GB | — |
| Q4_K_S | Mittel | 12.62 GB | — |
| Q4_K_XL | Mittel | 13.51 GB | — |
| Q4_0 | Mittel | 12.57 GB | — |
| Q4_1 | Mittel | 13.85 GB | — |
| Q3_K_M | Niedrig | 10.69 GB | — |
| Q3_K_S | Niedrig | 9.69 GB | — |
| Q3_K_XL | Niedrig | 11.04 GB | — |
| Q2_K | Niedrig | 8.28 GB | — |
| Q2_K_L | Niedrig | 8.43 GB | — |
| Q2_K_XL | Niedrig | 8.65 GB | — |
Zuletzt aktualisiert: 7. März 2026