Zum Inhalt springen

DeepSeek R1 0528 Qwen3 8B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 0528 Qwen3 8B ist ein dichter Transformer mit 8,19 Milliarden Parametern von DeepSeek, destilliert aus dem R1-0528-Reasoning-Modell in eine Qwen3-basierte Architektur. Er bringt Chain-of-Thought-Reasoning in die 8B-Klasse und erreicht bei Mathematik-Benchmarks das Niveau deutlich größerer Modelle, läuft dabei aber auf einer einzelnen Consumer-GPU. Er unterstützt Codegenerierung, Tool-Calls und neun Sprachen einschließlich Englisch, Chinesisch und den wichtigsten europäischen Sprachen. Mit einem 128K-Kontextfenster und Flash Attention quantisiert er effizient ins GGUF-Format für ressourcenschonendes selbstgehostetes Deployment.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 8.11 GB
Q8_K_XL Hoch 10.08 GB
Q6_K Hoch 6.26 GB
Q6_K_XL Hoch 6.98 GB
Q5_K_M Mittel 5.45 GB
Q5_K_S Mittel 5.33 GB
Q5_K_XL Mittel 5.48 GB
Q4_K_M Mittel 4.68 GB
Q4_K_S Mittel 4.47 GB
Q4_K_XL Mittel 4.77 GB
Q4_0 Mittel 4.46 GB
Q4_1 Mittel 4.89 GB
Q3_K_M Niedrig 3.84 GB
Q3_K_S Niedrig 3.51 GB
Q3_K_XL Niedrig 4.02 GB
Q2_K Niedrig 3.06 GB
Q2_K_L Niedrig 3.19 GB
Q2_K_XL Niedrig 3.26 GB
Zuletzt aktualisiert: 5. März 2026