Salta ai contenuti

Mistral Large 3 675B Instruct 2512

Mistral AI
Code Multilingual Tool Calls

Mistral Large 3 675B Instruct 2512 è un modello granulare "Mixture-of-Experts" da 675 miliardi di parametri di Mistral AI, che attiva 4 esperti su 128 più 1 esperto condiviso per token per un'inferenza efficiente su larga scala. Rappresenta il modello aperto di punta di Mistral AI, progettato per il ragionamento generale, i flussi di lavoro agentici e le applicazioni aziendali. Il modello supporta il "tool calling", la generazione di codice e 11 lingue tra cui inglese, francese, spagnolo e arabo. Con una finestra di contesto da 288K e "flash attention", gestisce l'analisi di documenti lunghi mentre la sua architettura MoE mantiene il calcolo per token gestibile per il deployment self-hosted quantizzato in formato GGUF.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 666.55 GB
Q8_K_XL Alta 720.39 GB
Q6_K Alta 515.3 GB
Q6_K_XL Alta 536.9 GB
Q5_K_M Media 445.15 GB
Q5_K_S Media 432.56 GB
Q5_K_XL Media 446.87 GB
Q4_K_M Media 379.04 GB
Q4_K_S Media 356.38 GB
Q4_K_XL Media 361.26 GB
Q4_0 Media 355.48 GB
Q4_1 Media 393.34 GB
Q3_K_M Bassa 299.72 GB
Q3_K_S Bassa 271.83 GB
Q3_K_XL Bassa 280.14 GB
Q2_K Bassa 230.13 GB
Q2_K_L Bassa 230.33 GB
Q2_K_XL Bassa 238.76 GB
Ultimo aggiornamento: 5 marzo 2026