Salta ai contenuti

Mistral Small 4 119B 2603

Mistral AI
Code Multilingual Thinking Tool Calls Vision

Mistral Small 4 119B 2603 è un modello Mixture-of-Experts da 119,4 miliardi di parametri di Mistral AI, che attiva 6,5 miliardi di parametri per token tramite 4 dei 128 esperti instradati più 1 esperto condiviso. Supporta input visivo, chiamata di strumenti, generazione di codice e intensità di ragionamento regolabile in 24 lingue. Una finestra di contesto da 256K, il 40 % di latenza in meno e un throughput 3 volte superiore rispetto a Mistral Small 3 lo rendono adatto a flussi di lavoro agentici e multimodali ad alto volume. La sua architettura MoE si quantizza in modo efficiente in formato GGUF per il deployment self-hosted su configurazioni multi-GPU.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 117.78 GB
Q6_K Alta 90.96 GB
Q4_K_M Media 67.21 GB
Ultimo aggiornamento: 17 marzo 2026