Mistral Small 4 119B 2603
Mistral AI
Code Multilingual Thinking Tool Calls Vision
Mistral Small 4 119B 2603 ist ein Mixture-of-Experts-Modell mit 119,4 Milliarden Parametern von Mistral AI, das 6,5 Milliarden Parameter pro Token über 4 von 128 gerouteten Experten plus 1 geteiltem Experten aktiviert. Es unterstützt Bildeingabe, Tool Calling, Codegenerierung und umschaltbare Reasoning-Intensität in 24 Sprachen. Ein 256K-Kontextfenster, 40 % geringere Latenz und 3-facher Durchsatz gegenüber Mistral Small 3 machen es ideal für agentische und multimodale Workflows mit hohem Aufkommen. Die MoE-Architektur lässt sich effizient im GGUF-Format für Self-Hosting auf Multi-GPU-Konfigurationen quantisieren.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 117.78 GB | — |
| Q6_K | Hoch | 90.96 GB | — |
| Q4_K_M | Mittel | 67.21 GB | — |
Zuletzt aktualisiert: 17. März 2026