Zum Inhalt springen

Devstral 2 123B Instruct 2512

Mistral AI
Code Multilingual Tool Calls

Devstral 2 123B Instruct 2512 ist ein dichter Transformer mit 125,03 Milliarden Parametern von Mistral AI, speziell entwickelt für agentenbasiertes Software-Engineering und dateiübergreifende Codebearbeitung. Es erreicht 72,2% auf SWE-bench Verified und zählt damit zu den stärksten offenen Coding-Modellen. Das Modell unterstützt Tool Calling und 11 Sprachen, darunter Englisch, Französisch, Deutsch und Chinesisch. Mit einem 256K-Kontextfenster und Flash Attention bewerkstelligt es Repository-weites Reasoning über große Codebasen und lässt sich mit GGUF-Quantisierung selbst hosten.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 123.73 GB
Q8_K_XL Hoch 136.03 GB
Q6_K Hoch 95.53 GB
Q6_K_XL Hoch 102.29 GB
Q5_K_M Mittel 82.25 GB
Q5_K_S Mittel 80.27 GB
Q5_K_XL Mittel 82.19 GB
Q4_K_M Mittel 69.76 GB
Q4_K_S Mittel 66.36 GB
Q4_K_XL Mittel 70.32 GB
Q4_0 Mittel 66.12 GB
Q4_1 Mittel 73.08 GB
Q3_K_M Niedrig 56.45 GB
Q3_K_S Niedrig 50.63 GB
Q3_K_XL Niedrig 57.68 GB
Q2_K Niedrig 43.39 GB
Q2_K_L Niedrig 43.74 GB
Q2_K_XL Niedrig 44.65 GB
Zuletzt aktualisiert: 5. März 2026