Mistral Large 3 675B Instruct 2512
Mistral AI
Code Multilingual Tool Calls
Mistral Large 3 675B Instruct 2512 è un modello granulare "Mixture-of-Experts" da 675 miliardi di parametri di Mistral AI, che attiva 4 esperti su 128 più 1 esperto condiviso per token per un'inferenza efficiente su larga scala. Rappresenta il modello aperto di punta di Mistral AI, progettato per il ragionamento generale, i flussi di lavoro agentici e le applicazioni aziendali. Il modello supporta il "tool calling", la generazione di codice e 11 lingue tra cui inglese, francese, spagnolo e arabo. Con una finestra di contesto da 288K e "flash attention", gestisce l'analisi di documenti lunghi mentre la sua architettura MoE mantiene il calcolo per token gestibile per il deployment self-hosted quantizzato in formato GGUF.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 666.55 GB | — |
| Q8_K_XL | Alta | 720.39 GB | — |
| Q6_K | Alta | 515.3 GB | — |
| Q6_K_XL | Alta | 536.9 GB | — |
| Q5_K_M | Media | 445.15 GB | — |
| Q5_K_S | Media | 432.56 GB | — |
| Q5_K_XL | Media | 446.87 GB | — |
| Q4_K_M | Media | 379.04 GB | — |
| Q4_K_S | Media | 356.38 GB | — |
| Q4_K_XL | Media | 361.26 GB | — |
| Q4_0 | Media | 355.48 GB | — |
| Q4_1 | Media | 393.34 GB | — |
| Q3_K_M | Bassa | 299.72 GB | — |
| Q3_K_S | Bassa | 271.83 GB | — |
| Q3_K_XL | Bassa | 280.14 GB | — |
| Q2_K | Bassa | 230.13 GB | — |
| Q2_K_L | Bassa | 230.33 GB | — |
| Q2_K_XL | Bassa | 238.76 GB | — |
Ultimo aggiornamento: 5 marzo 2026