DeepSeek V3.2
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.2 ist ein Mixture-of-Experts-Modell mit 685 Milliarden Parametern von DeepSeek, das 8 von 256 Experten pro Token plus einen geteilten Experten aktiviert. Es liefert Spitzenleistungen bei Codegenerierung, Schlussfolgern und mehrsprachigen Aufgaben und nutzt dabei weit weniger aktive Parameter pro Inferenzschritt als vergleichbar große dichte Modelle. Das Modell unterstützt Denkmodus, Tool Calling und umfangreiche Mehrsprachigkeit. Mit einem 163K-Kontextfenster erfordert es Multi-GPU- oder verteilte Setups, lässt sich aber bis auf Q2-Stufen quantisieren für einen reduzierten VRAM-Bedarf.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 664.33 GB | — |
| Q8_K_XL | Hoch | 726.67 GB | — |
| Q6_K | Hoch | 513.41 GB | — |
| Q6_K_XL | Hoch | 534.55 GB | — |
| Q5_K_M | Mittel | 443.48 GB | — |
| Q5_K_S | Mittel | 430.87 GB | — |
| Q5_K_XL | Mittel | 448.8 GB | — |
| Q4_K_M | Mittel | 377.56 GB | — |
| Q4_K_S | Mittel | 354.89 GB | — |
| Q4_K_XL | Mittel | 379.8 GB | — |
| Q4_0 | Mittel | 353.99 GB | — |
| Q4_1 | Mittel | 391.86 GB | — |
| Q3_K_M | Niedrig | 298.21 GB | — |
| Q3_K_S | Niedrig | 270.49 GB | — |
| Q3_K_XL | Niedrig | 298.99 GB | — |
| Q2_K | Niedrig | 228.52 GB | — |
| Q2_K_L | Niedrig | 228.73 GB | — |
| Q2_K_XL | Niedrig | 229.68 GB | — |
Zuletzt aktualisiert: 19. März 2026