Mistral Large 3 675B Instruct 2512
Mistral AI
Code Multilingual Tool Calls
Mistral Large 3 675B Instruct 2512 ist ein granuläres Mixture-of-Experts-Modell mit 675 Milliarden Parametern von Mistral AI, das 4 von 128 Experten plus 1 geteilten Experten pro Token aktiviert für effiziente Inferenz im großen Maßstab. Es ist Mistral AIs führendes offenes Modell, konzipiert für allgemeines Reasoning, agentenbasierte Workflows und Unternehmensanwendungen. Das Modell unterstützt Tool Calling, Codegenerierung und 11 Sprachen, darunter Englisch, Französisch, Spanisch und Arabisch. Mit einem 288K-Kontextfenster und Flash Attention bewerkstelligt es Langdokumentanalyse, während die MoE-Architektur den Rechenaufwand pro Token für GGUF-quantisiertes Self-Hosting handhabbar hält.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 666.55 GB | — |
| Q8_K_XL | Hoch | 720.39 GB | — |
| Q6_K | Hoch | 515.3 GB | — |
| Q6_K_XL | Hoch | 536.9 GB | — |
| Q5_K_M | Mittel | 445.15 GB | — |
| Q5_K_S | Mittel | 432.56 GB | — |
| Q5_K_XL | Mittel | 446.87 GB | — |
| Q4_K_M | Mittel | 379.04 GB | — |
| Q4_K_S | Mittel | 356.38 GB | — |
| Q4_K_XL | Mittel | 361.26 GB | — |
| Q4_0 | Mittel | 355.48 GB | — |
| Q4_1 | Mittel | 393.34 GB | — |
| Q3_K_M | Niedrig | 299.72 GB | — |
| Q3_K_S | Niedrig | 271.83 GB | — |
| Q3_K_XL | Niedrig | 280.14 GB | — |
| Q2_K | Niedrig | 230.13 GB | — |
| Q2_K_L | Niedrig | 230.33 GB | — |
| Q2_K_XL | Niedrig | 238.76 GB | — |
Zuletzt aktualisiert: 5. März 2026