Zum Inhalt springen

Mistral Small 4 119B 2603

Mistral AI
Code Multilingual Thinking Tool Calls Vision

Mistral Small 4 119B 2603 ist ein Mixture-of-Experts-Modell mit 119,4 Milliarden Parametern von Mistral AI, das 6,5 Milliarden Parameter pro Token über 4 von 128 gerouteten Experten plus 1 geteiltem Experten aktiviert. Es unterstützt Bildeingabe, Tool Calling, Codegenerierung und umschaltbare Reasoning-Intensität in 24 Sprachen. Ein 256K-Kontextfenster, 40 % geringere Latenz und 3-facher Durchsatz gegenüber Mistral Small 3 machen es ideal für agentische und multimodale Workflows mit hohem Aufkommen. Die MoE-Architektur lässt sich effizient im GGUF-Format für Self-Hosting auf Multi-GPU-Konfigurationen quantisieren.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 117.78 GB
Q6_K Hoch 90.96 GB
Q4_K_M Mittel 67.21 GB
Zuletzt aktualisiert: 17. März 2026