Zum Inhalt springen

DeepSeek R1 Distill Qwen 32B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 32B ist ein dichter Transformer mit 32,76 Milliarden Parametern von DeepSeek, destilliert aus dem groesseren R1-Reasoning-Modell in eine Qwen-basierte Architektur. Er zeichnet sich durch Chain-of-Thought-Reasoning, Codegenerierung und mehrsprachige Aufgaben mit integrierten Denkfaehigkeiten aus. Im Vergleich zu Standard-Instruct-Modellen der 30B-Klasse bietet er staerkeres logisches und mathematisches Schlussfolgern. Das Modell unterstuetzt neun Sprachen und ein 128K-Kontextfenster und eignet sich fuer Entwickler und Forscher, die reasoning-fokussierte Inferenz auf mittelklassigen GPU-Setups benoetigen.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
FP16 Volle Präzision 61.03 GB
Q8_0 Hoch 32.43 GB
Q6_K Hoch 25.04 GB
Q5_K_M Mittel 21.66 GB
Q4_K_M Mittel 18.49 GB
Q3_K_M Niedrig 14.84 GB
Q2_K Niedrig 11.47 GB
Q2_K_L Niedrig 11.64 GB
Zuletzt aktualisiert: 5. März 2026