DeepSeek R1 Distill Qwen 32B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 32B ist ein dichter Transformer mit 32,76 Milliarden Parametern von DeepSeek, destilliert aus dem groesseren R1-Reasoning-Modell in eine Qwen-basierte Architektur. Er zeichnet sich durch Chain-of-Thought-Reasoning, Codegenerierung und mehrsprachige Aufgaben mit integrierten Denkfaehigkeiten aus. Im Vergleich zu Standard-Instruct-Modellen der 30B-Klasse bietet er staerkeres logisches und mathematisches Schlussfolgern. Das Modell unterstuetzt neun Sprachen und ein 128K-Kontextfenster und eignet sich fuer Entwickler und Forscher, die reasoning-fokussierte Inferenz auf mittelklassigen GPU-Setups benoetigen.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| FP16 | Volle Präzision | 61.03 GB | — |
| Q8_0 | Hoch | 32.43 GB | — |
| Q6_K | Hoch | 25.04 GB | — |
| Q5_K_M | Mittel | 21.66 GB | — |
| Q4_K_M | Mittel | 18.49 GB | — |
| Q3_K_M | Niedrig | 14.84 GB | — |
| Q2_K | Niedrig | 11.47 GB | — |
| Q2_K_L | Niedrig | 11.64 GB | — |
Zuletzt aktualisiert: 5. März 2026