Zum Inhalt springen

DeepSeek R1 Distill Qwen 14B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 14B ist ein dichter Transformer mit 14,77 Milliarden Parametern von DeepSeek, destilliert aus dem R1-Reasoning-Modell in eine Qwen2.5-basierte Architektur. Er bringt Chain-of-Thought-Reasoning in die 14B-Klasse und übertrifft vergleichbare Instruct-Modelle bei Mathematik- und Coding-Benchmarks durch Reasoning-Destillation. Er unterstützt Codegenerierung, Tool-Calls und neun Sprachen einschließlich Englisch, Chinesisch und der wichtigsten europäischen Sprachen. Mit einem 128K-Kontextfenster und Flash Attention passt er auf eine einzelne Mittelklasse-GPU und quantisiert effizient ins GGUF-Format für selbstgehostetes Deployment.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
FP16 Volle Präzision 27.52 GB
Q8_0 Hoch 14.62 GB
Q6_K Hoch 11.29 GB
Q5_K_M Mittel 9.79 GB
Q4_K_M Mittel 8.37 GB
Q3_K_M Niedrig 6.84 GB
Q2_K Niedrig 5.37 GB
Q2_K_L Niedrig 5.54 GB
Zuletzt aktualisiert: 5. März 2026