DeepSeek R1 Distill Qwen 7B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 7B ist ein dichter Transformer mit 7,62 Milliarden Parametern von DeepSeek, destilliert aus dem R1-Reasoning-Modell in eine kompakte Qwen-basierte Architektur. Er bringt Chain-of-Thought-Reasoning und Denkfaehigkeiten in die 7B-Parameterklasse und uebertrifft seine Gewichtsklasse bei Mathematik- und Logikaufgaben. Im Vergleich zu Standard-7B-Instruct-Modellen bietet er deutlich staerkeres strukturiertes Schlussfolgern. Mit einem 128K-Kontextfenster und neun unterstuetzten Sprachen passt er auf eine einzelne Consumer-GPU und quantisiert gut fuer effizientes selbstgehostetes Deployment.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| FP16 | Volle Präzision | 14.19 GB | — |
| Q8_0 | Hoch | 7.54 GB | — |
| Q6_K | Hoch | 5.82 GB | — |
| Q5_K_M | Mittel | 5.07 GB | — |
| Q4_K_M | Mittel | 4.36 GB | — |
| Q3_K_M | Niedrig | 3.55 GB | — |
| Q2_K | Niedrig | 2.81 GB | — |
| Q2_K_L | Niedrig | 2.93 GB | — |
Zuletzt aktualisiert: 5. März 2026