Zum Inhalt springen

DeepSeek R1 Distill Qwen 7B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 7B ist ein dichter Transformer mit 7,62 Milliarden Parametern von DeepSeek, destilliert aus dem R1-Reasoning-Modell in eine kompakte Qwen-basierte Architektur. Er bringt Chain-of-Thought-Reasoning und Denkfaehigkeiten in die 7B-Parameterklasse und uebertrifft seine Gewichtsklasse bei Mathematik- und Logikaufgaben. Im Vergleich zu Standard-7B-Instruct-Modellen bietet er deutlich staerkeres strukturiertes Schlussfolgern. Mit einem 128K-Kontextfenster und neun unterstuetzten Sprachen passt er auf eine einzelne Consumer-GPU und quantisiert gut fuer effizientes selbstgehostetes Deployment.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
FP16 Volle Präzision 14.19 GB
Q8_0 Hoch 7.54 GB
Q6_K Hoch 5.82 GB
Q5_K_M Mittel 5.07 GB
Q4_K_M Mittel 4.36 GB
Q3_K_M Niedrig 3.55 GB
Q2_K Niedrig 2.81 GB
Q2_K_L Niedrig 2.93 GB
Zuletzt aktualisiert: 5. März 2026