Salta ai contenuti

DeepSeek R1 0528 Qwen3 8B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 0528 Qwen3 8B è un trasformatore denso da 8,19 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1-0528 in un'architettura basata su Qwen3. Porta il ragionamento "chain-of-thought" nella classe 8B, eguagliando modelli molto più grandi sui benchmark matematici pur restando eseguibile su una singola GPU consumer. Supporta generazione di codice, chiamate a strumenti e nove lingue tra cui inglese, cinese e le principali lingue europee. Con una finestra di contesto da 128K e "flash attention", si quantizza in modo efficiente in GGUF per un'inferenza self-hosted attenta alle risorse.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
Q8_0 Alta 8.11 GB
Q8_K_XL Alta 10.08 GB
Q6_K Alta 6.26 GB
Q6_K_XL Alta 6.98 GB
Q5_K_M Media 5.45 GB
Q5_K_S Media 5.33 GB
Q5_K_XL Media 5.48 GB
Q4_K_M Media 4.68 GB
Q4_K_S Media 4.47 GB
Q4_K_XL Media 4.77 GB
Q4_0 Media 4.46 GB
Q4_1 Media 4.89 GB
Q3_K_M Bassa 3.84 GB
Q3_K_S Bassa 3.51 GB
Q3_K_XL Bassa 4.02 GB
Q2_K Bassa 3.06 GB
Q2_K_L Bassa 3.19 GB
Q2_K_XL Bassa 3.26 GB
Ultimo aggiornamento: 5 marzo 2026