Zum Inhalt springen

DeepSeek V3.2

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek V3.2 ist ein Mixture-of-Experts-Modell mit 685 Milliarden Parametern von DeepSeek, das 8 von 256 Experten pro Token plus einen geteilten Experten aktiviert. Es liefert Spitzenleistungen bei Codegenerierung, Schlussfolgern und mehrsprachigen Aufgaben und nutzt dabei weit weniger aktive Parameter pro Inferenzschritt als vergleichbar große dichte Modelle. Das Modell unterstützt Denkmodus, Tool Calling und umfangreiche Mehrsprachigkeit. Mit einem 163K-Kontextfenster erfordert es Multi-GPU- oder verteilte Setups, lässt sich aber bis auf Q2-Stufen quantisieren für einen reduzierten VRAM-Bedarf.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 664.33 GB
Q8_K_XL Hoch 726.67 GB
Q6_K Hoch 513.41 GB
Q6_K_XL Hoch 534.55 GB
Q5_K_M Mittel 443.48 GB
Q5_K_S Mittel 430.87 GB
Q5_K_XL Mittel 448.8 GB
Q4_K_M Mittel 377.56 GB
Q4_K_S Mittel 354.89 GB
Q4_K_XL Mittel 379.8 GB
Q4_0 Mittel 353.99 GB
Q4_1 Mittel 391.86 GB
Q3_K_M Niedrig 298.21 GB
Q3_K_S Niedrig 270.49 GB
Q3_K_XL Niedrig 298.99 GB
Q2_K Niedrig 228.52 GB
Q2_K_L Niedrig 228.73 GB
Q2_K_XL Niedrig 229.68 GB
Zuletzt aktualisiert: 19. März 2026