Zum Inhalt springen

Mistral Large 3 675B Instruct 2512

Mistral AI
Code Multilingual Tool Calls

Mistral Large 3 675B Instruct 2512 ist ein granuläres Mixture-of-Experts-Modell mit 675 Milliarden Parametern von Mistral AI, das 4 von 128 Experten plus 1 geteilten Experten pro Token aktiviert für effiziente Inferenz im großen Maßstab. Es ist Mistral AIs führendes offenes Modell, konzipiert für allgemeines Reasoning, agentenbasierte Workflows und Unternehmensanwendungen. Das Modell unterstützt Tool Calling, Codegenerierung und 11 Sprachen, darunter Englisch, Französisch, Spanisch und Arabisch. Mit einem 288K-Kontextfenster und Flash Attention bewerkstelligt es Langdokumentanalyse, während die MoE-Architektur den Rechenaufwand pro Token für GGUF-quantisiertes Self-Hosting handhabbar hält.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 666.55 GB
Q8_K_XL Hoch 720.39 GB
Q6_K Hoch 515.3 GB
Q6_K_XL Hoch 536.9 GB
Q5_K_M Mittel 445.15 GB
Q5_K_S Mittel 432.56 GB
Q5_K_XL Mittel 446.87 GB
Q4_K_M Mittel 379.04 GB
Q4_K_S Mittel 356.38 GB
Q4_K_XL Mittel 361.26 GB
Q4_0 Mittel 355.48 GB
Q4_1 Mittel 393.34 GB
Q3_K_M Niedrig 299.72 GB
Q3_K_S Niedrig 271.83 GB
Q3_K_XL Niedrig 280.14 GB
Q2_K Niedrig 230.13 GB
Q2_K_L Niedrig 230.33 GB
Q2_K_XL Niedrig 238.76 GB
Zuletzt aktualisiert: 5. März 2026