Zum Inhalt springen

DeepSeek Coder V2 Lite Instruct

DeepSeek
Code Multilingual

DeepSeek Coder V2 Lite Instruct ist ein Mixture-of-Experts-Modell mit 15,71 Milliarden Parametern von DeepSeek, optimiert für Codegenerierung und mathematisches Schlussfolgern. Es aktiviert 6 von 64 Experten plus 2 geteilte Experten pro Token und liefert starke Coding-Leistung bei geringem Rechenaufwand. Es unterstützt 338 Programmiersprachen und neun natürliche Sprachen und ist damit eines der vielseitigsten mehrsprachigen Code-Modelle. Mit einem 160K-Kontextfenster und Flash Attention verarbeitet es große Codebasen effizient und quantisiert gut ins GGUF-Format für selbstgehostetes Deployment.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 15.56 GB
Q6_K Hoch 13.1 GB
Q5_K_M Mittel 11.04 GB
Q4_K_M Mittel 9.65 GB
Q3_K_L Niedrig 7.88 GB
Zuletzt aktualisiert: 5. März 2026