Salta ai contenuti

DeepSeek R1 Distill Qwen 14B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 14B è un trasformatore denso da 14,77 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1 in un'architettura basata su Qwen2.5. Porta il ragionamento "chain-of-thought" nella classe 14B, superando modelli instruct comparabili nei benchmark di matematica e codice grazie alla distillazione del ragionamento. Supporta generazione di codice, chiamate a strumenti e nove lingue tra cui inglese, cinese e le principali lingue europee. Con una finestra di contesto da 128K e "flash attention", funziona su una singola GPU di fascia media e si quantizza in modo efficiente in GGUF per il deployment self-hosted.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 27.52 GB
Q8_0 Alta 14.62 GB
Q6_K Alta 11.29 GB
Q5_K_M Media 9.79 GB
Q4_K_M Media 8.37 GB
Q3_K_M Bassa 6.84 GB
Q2_K Bassa 5.37 GB
Q2_K_L Bassa 5.54 GB
Ultimo aggiornamento: 5 marzo 2026