Mistral Small 4 119B 2603
Mistral AI
Code Multilingual Thinking Tool Calls Vision
Mistral Small 4 119B 2603 è un modello Mixture-of-Experts da 119,4 miliardi di parametri di Mistral AI, che attiva 6,5 miliardi di parametri per token tramite 4 dei 128 esperti instradati più 1 esperto condiviso. Supporta input visivo, chiamata di strumenti, generazione di codice e intensità di ragionamento regolabile in 24 lingue. Una finestra di contesto da 256K, il 40 % di latenza in meno e un throughput 3 volte superiore rispetto a Mistral Small 3 lo rendono adatto a flussi di lavoro agentici e multimodali ad alto volume. La sua architettura MoE si quantizza in modo efficiente in formato GGUF per il deployment self-hosted su configurazioni multi-GPU.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 117.78 GB | — |
| Q6_K | Alta | 90.96 GB | — |
| Q4_K_M | Media | 67.21 GB | — |
Ultimo aggiornamento: 17 marzo 2026