Zum Inhalt springen

DeepSeek V3.1

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.1 ist ein Mixture-of-Experts-Modell mit 685 Milliarden Parametern von DeepSeek, das 8 von 256 Experten pro Token plus einen geteilten Experten aktiviert. Es liefert Spitzenleistungen bei Codegenerierung, Schlussfolgern und mehrsprachigen Aufgaben und nutzt dabei weit weniger aktive Parameter pro Inferenzschritt als vergleichbar grosse dichte Modelle. Das Modell unterstuetzt Denkmodus, Tool Calling und neun Sprachen. Mit einem 160K-Kontextfenster erfordert es Multi-GPU- oder verteilte Setups, laesst sich aber bis auf Q2-Stufen quantisieren fuer einen reduzierten VRAM-Bedarf.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 664.33 GB
Q8_K_XL Hoch 726.99 GB
Q6_K Hoch 513.41 GB
Q6_K_XL Hoch 535.03 GB
Q5_K_M Mittel 443.48 GB
Q5_K_S Mittel 430.87 GB
Q5_K_XL Mittel 451.3 GB
Q4_K_M Mittel 377.56 GB
Q4_K_S Mittel 354.9 GB
Q4_K_XL Mittel 360.33 GB
Q4_0 Mittel 354 GB
Q4_1 Mittel 391.86 GB
Q3_K_M Niedrig 298.46 GB
Q3_K_S Niedrig 270.49 GB
Q3_K_XL Niedrig 279.43 GB
Q2_K Niedrig 228.82 GB
Q2_K_L Niedrig 229.02 GB
Q2_K_XL Niedrig 238.17 GB
Zuletzt aktualisiert: 5. März 2026