DeepSeek Coder V2 Lite Instruct
DeepSeek
Code Multilingual
DeepSeek Coder V2 Lite Instruct ist ein Mixture-of-Experts-Modell mit 15,71 Milliarden Parametern von DeepSeek, optimiert für Codegenerierung und mathematisches Schlussfolgern. Es aktiviert 6 von 64 Experten plus 2 geteilte Experten pro Token und liefert starke Coding-Leistung bei geringem Rechenaufwand. Es unterstützt 338 Programmiersprachen und neun natürliche Sprachen und ist damit eines der vielseitigsten mehrsprachigen Code-Modelle. Mit einem 160K-Kontextfenster und Flash Attention verarbeitet es große Codebasen effizient und quantisiert gut ins GGUF-Format für selbstgehostetes Deployment.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 15.56 GB | — |
| Q6_K | Hoch | 13.1 GB | — |
| Q5_K_M | Mittel | 11.04 GB | — |
| Q4_K_M | Mittel | 9.65 GB | — |
| Q3_K_L | Niedrig | 7.88 GB | — |
Zuletzt aktualisiert: 5. März 2026