DeepSeek R1 Distill Qwen 14B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 Distill Qwen 14B è un trasformatore denso da 14,77 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1 in un'architettura basata su Qwen2.5. Porta il ragionamento "chain-of-thought" nella classe 14B, superando modelli instruct comparabili nei benchmark di matematica e codice grazie alla distillazione del ragionamento. Supporta generazione di codice, chiamate a strumenti e nove lingue tra cui inglese, cinese e le principali lingue europee. Con una finestra di contesto da 128K e "flash attention", funziona su una singola GPU di fascia media e si quantizza in modo efficiente in GGUF per il deployment self-hosted.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 27.52 GB | — |
| Q8_0 | Alta | 14.62 GB | — |
| Q6_K | Alta | 11.29 GB | — |
| Q5_K_M | Media | 9.79 GB | — |
| Q4_K_M | Media | 8.37 GB | — |
| Q3_K_M | Bassa | 6.84 GB | — |
| Q2_K | Bassa | 5.37 GB | — |
| Q2_K_L | Bassa | 5.54 GB | — |
Ultimo aggiornamento: 5 marzo 2026