DeepSeek V3.1
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek V3.1 ist ein Mixture-of-Experts-Modell mit 685 Milliarden Parametern von DeepSeek, das 8 von 256 Experten pro Token plus einen geteilten Experten aktiviert. Es liefert Spitzenleistungen bei Codegenerierung, Schlussfolgern und mehrsprachigen Aufgaben und nutzt dabei weit weniger aktive Parameter pro Inferenzschritt als vergleichbar grosse dichte Modelle. Das Modell unterstuetzt Denkmodus, Tool Calling und neun Sprachen. Mit einem 160K-Kontextfenster erfordert es Multi-GPU- oder verteilte Setups, laesst sich aber bis auf Q2-Stufen quantisieren fuer einen reduzierten VRAM-Bedarf.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 664.33 GB | — |
| Q8_K_XL | Hoch | 726.99 GB | — |
| Q6_K | Hoch | 513.41 GB | — |
| Q6_K_XL | Hoch | 535.03 GB | — |
| Q5_K_M | Mittel | 443.48 GB | — |
| Q5_K_S | Mittel | 430.87 GB | — |
| Q5_K_XL | Mittel | 451.3 GB | — |
| Q4_K_M | Mittel | 377.56 GB | — |
| Q4_K_S | Mittel | 354.9 GB | — |
| Q4_K_XL | Mittel | 360.33 GB | — |
| Q4_0 | Mittel | 354 GB | — |
| Q4_1 | Mittel | 391.86 GB | — |
| Q3_K_M | Niedrig | 298.46 GB | — |
| Q3_K_S | Niedrig | 270.49 GB | — |
| Q3_K_XL | Niedrig | 279.43 GB | — |
| Q2_K | Niedrig | 228.82 GB | — |
| Q2_K_L | Niedrig | 229.02 GB | — |
| Q2_K_XL | Niedrig | 238.17 GB | — |
Zuletzt aktualisiert: 5. März 2026