DeepSeek R1 0528 Qwen3 8B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 0528 Qwen3 8B ist ein dichter Transformer mit 8,19 Milliarden Parametern von DeepSeek, destilliert aus dem R1-0528-Reasoning-Modell in eine Qwen3-basierte Architektur. Er bringt Chain-of-Thought-Reasoning in die 8B-Klasse und erreicht bei Mathematik-Benchmarks das Niveau deutlich größerer Modelle, läuft dabei aber auf einer einzelnen Consumer-GPU. Er unterstützt Codegenerierung, Tool-Calls und neun Sprachen einschließlich Englisch, Chinesisch und den wichtigsten europäischen Sprachen. Mit einem 128K-Kontextfenster und Flash Attention quantisiert er effizient ins GGUF-Format für ressourcenschonendes selbstgehostetes Deployment.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 8.11 GB | — |
| Q8_K_XL | Hoch | 10.08 GB | — |
| Q6_K | Hoch | 6.26 GB | — |
| Q6_K_XL | Hoch | 6.98 GB | — |
| Q5_K_M | Mittel | 5.45 GB | — |
| Q5_K_S | Mittel | 5.33 GB | — |
| Q5_K_XL | Mittel | 5.48 GB | — |
| Q4_K_M | Mittel | 4.68 GB | — |
| Q4_K_S | Mittel | 4.47 GB | — |
| Q4_K_XL | Mittel | 4.77 GB | — |
| Q4_0 | Mittel | 4.46 GB | — |
| Q4_1 | Mittel | 4.89 GB | — |
| Q3_K_M | Niedrig | 3.84 GB | — |
| Q3_K_S | Niedrig | 3.51 GB | — |
| Q3_K_XL | Niedrig | 4.02 GB | — |
| Q2_K | Niedrig | 3.06 GB | — |
| Q2_K_L | Niedrig | 3.19 GB | — |
| Q2_K_XL | Niedrig | 3.26 GB | — |
Zuletzt aktualisiert: 5. März 2026