DeepSeek R1 Distill Qwen 14B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 14B ist ein dichter Transformer mit 14,77 Milliarden Parametern von DeepSeek, destilliert aus dem R1-Reasoning-Modell in eine Qwen2.5-basierte Architektur. Er bringt Chain-of-Thought-Reasoning in die 14B-Klasse und übertrifft vergleichbare Instruct-Modelle bei Mathematik- und Coding-Benchmarks durch Reasoning-Destillation. Er unterstützt Codegenerierung, Tool-Calls und neun Sprachen einschließlich Englisch, Chinesisch und der wichtigsten europäischen Sprachen. Mit einem 128K-Kontextfenster und Flash Attention passt er auf eine einzelne Mittelklasse-GPU und quantisiert effizient ins GGUF-Format für selbstgehostetes Deployment.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| FP16 | Volle Präzision | 27.52 GB | — |
| Q8_0 | Hoch | 14.62 GB | — |
| Q6_K | Hoch | 11.29 GB | — |
| Q5_K_M | Mittel | 9.79 GB | — |
| Q4_K_M | Mittel | 8.37 GB | — |
| Q3_K_M | Niedrig | 6.84 GB | — |
| Q2_K | Niedrig | 5.37 GB | — |
| Q2_K_L | Niedrig | 5.54 GB | — |
Zuletzt aktualisiert: 5. März 2026