DeepSeek R1 Distill Qwen 7B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 7B e un trasformatore denso da 7,62 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1 in un'architettura compatta basata su Qwen. Porta il ragionamento "chain-of-thought" e le capacita di pensiero nella classe dei 7B parametri, ottenendo risultati superiori alla sua categoria in compiti di matematica e logica. Rispetto ai modelli instruct 7B standard, offre un ragionamento strutturato notevolmente piu forte. Con una finestra di contesto da 128K e nove lingue supportate, funziona su una singola GPU consumer e si quantizza bene per un deployment self-hosted efficiente.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 14.19 GB | — |
| Q8_0 | Alta | 7.54 GB | — |
| Q6_K | Alta | 5.82 GB | — |
| Q5_K_M | Media | 5.07 GB | — |
| Q4_K_M | Media | 4.36 GB | — |
| Q3_K_M | Bassa | 3.55 GB | — |
| Q2_K | Bassa | 2.81 GB | — |
| Q2_K_L | Bassa | 2.93 GB | — |
Ultimo aggiornamento: 5 marzo 2026