Aller au contenu

Mistral Large 3 675B Instruct 2512

Mistral AI
Code Multilingual Tool Calls

Mistral Large 3 675B Instruct 2512 est un modèle granulaire "Mixture-of-Experts" de 675 milliards de paramètres de Mistral AI, activant 4 experts sur 128 plus 1 expert partagé par jeton pour une inférence efficace à grande échelle. Il représente le modèle ouvert phare de Mistral AI, conçu pour le raisonnement général, les flux de travail agentiques et les applications d'entreprise. Le modèle prend en charge le "tool calling", la génération de code et 11 langues dont l'anglais, le français, l'espagnol et l'arabe. Avec une fenêtre de contexte de 288K et le "flash attention", il gère l'analyse de longs documents tandis que son architecture MoE maintient le calcul par jeton gérable pour un déploiement auto-hébergé quantifié au format GGUF.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 666.55 GB
Q8_K_XL Élevée 720.39 GB
Q6_K Élevée 515.3 GB
Q6_K_XL Élevée 536.9 GB
Q5_K_M Moyenne 445.15 GB
Q5_K_S Moyenne 432.56 GB
Q5_K_XL Moyenne 446.87 GB
Q4_K_M Moyenne 379.04 GB
Q4_K_S Moyenne 356.38 GB
Q4_K_XL Moyenne 361.26 GB
Q4_0 Moyenne 355.48 GB
Q4_1 Moyenne 393.34 GB
Q3_K_M Basse 299.72 GB
Q3_K_S Basse 271.83 GB
Q3_K_XL Basse 280.14 GB
Q2_K Basse 230.13 GB
Q2_K_L Basse 230.33 GB
Q2_K_XL Basse 238.76 GB
Dernière mise à jour : 5 mars 2026