Mistral Large 3 675B Instruct 2512
Mistral AI
Code Multilingual Tool Calls
Mistral Large 3 675B Instruct 2512 est un modèle granulaire "Mixture-of-Experts" de 675 milliards de paramètres de Mistral AI, activant 4 experts sur 128 plus 1 expert partagé par jeton pour une inférence efficace à grande échelle. Il représente le modèle ouvert phare de Mistral AI, conçu pour le raisonnement général, les flux de travail agentiques et les applications d'entreprise. Le modèle prend en charge le "tool calling", la génération de code et 11 langues dont l'anglais, le français, l'espagnol et l'arabe. Avec une fenêtre de contexte de 288K et le "flash attention", il gère l'analyse de longs documents tandis que son architecture MoE maintient le calcul par jeton gérable pour un déploiement auto-hébergé quantifié au format GGUF.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 666.55 GB | — |
| Q8_K_XL | Élevée | 720.39 GB | — |
| Q6_K | Élevée | 515.3 GB | — |
| Q6_K_XL | Élevée | 536.9 GB | — |
| Q5_K_M | Moyenne | 445.15 GB | — |
| Q5_K_S | Moyenne | 432.56 GB | — |
| Q5_K_XL | Moyenne | 446.87 GB | — |
| Q4_K_M | Moyenne | 379.04 GB | — |
| Q4_K_S | Moyenne | 356.38 GB | — |
| Q4_K_XL | Moyenne | 361.26 GB | — |
| Q4_0 | Moyenne | 355.48 GB | — |
| Q4_1 | Moyenne | 393.34 GB | — |
| Q3_K_M | Basse | 299.72 GB | — |
| Q3_K_S | Basse | 271.83 GB | — |
| Q3_K_XL | Basse | 280.14 GB | — |
| Q2_K | Basse | 230.13 GB | — |
| Q2_K_L | Basse | 230.33 GB | — |
| Q2_K_XL | Basse | 238.76 GB | — |
Dernière mise à jour : 5 mars 2026