DeepSeek R1 0528 Qwen3 8B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 0528 Qwen3 8B è un trasformatore denso da 8,19 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1-0528 in un'architettura basata su Qwen3. Porta il ragionamento "chain-of-thought" nella classe 8B, eguagliando modelli molto più grandi sui benchmark matematici pur restando eseguibile su una singola GPU consumer. Supporta generazione di codice, chiamate a strumenti e nove lingue tra cui inglese, cinese e le principali lingue europee. Con una finestra di contesto da 128K e "flash attention", si quantizza in modo efficiente in GGUF per un'inferenza self-hosted attenta alle risorse.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 8.11 GB | — |
| Q8_K_XL | Alta | 10.08 GB | — |
| Q6_K | Alta | 6.26 GB | — |
| Q6_K_XL | Alta | 6.98 GB | — |
| Q5_K_M | Media | 5.45 GB | — |
| Q5_K_S | Media | 5.33 GB | — |
| Q5_K_XL | Media | 5.48 GB | — |
| Q4_K_M | Media | 4.68 GB | — |
| Q4_K_S | Media | 4.47 GB | — |
| Q4_K_XL | Media | 4.77 GB | — |
| Q4_0 | Media | 4.46 GB | — |
| Q4_1 | Media | 4.89 GB | — |
| Q3_K_M | Bassa | 3.84 GB | — |
| Q3_K_S | Bassa | 3.51 GB | — |
| Q3_K_XL | Bassa | 4.02 GB | — |
| Q2_K | Bassa | 3.06 GB | — |
| Q2_K_L | Bassa | 3.19 GB | — |
| Q2_K_XL | Bassa | 3.26 GB | — |
Ultimo aggiornamento: 5 marzo 2026