Salta ai contenuti

DeepSeek R1 Distill Qwen 7B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 7B e un trasformatore denso da 7,62 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1 in un'architettura compatta basata su Qwen. Porta il ragionamento "chain-of-thought" e le capacita di pensiero nella classe dei 7B parametri, ottenendo risultati superiori alla sua categoria in compiti di matematica e logica. Rispetto ai modelli instruct 7B standard, offre un ragionamento strutturato notevolmente piu forte. Con una finestra di contesto da 128K e nove lingue supportate, funziona su una singola GPU consumer e si quantizza bene per un deployment self-hosted efficiente.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 14.19 GB
Q8_0 Alta 7.54 GB
Q6_K Alta 5.82 GB
Q5_K_M Media 5.07 GB
Q4_K_M Media 4.36 GB
Q3_K_M Bassa 3.55 GB
Q2_K Bassa 2.81 GB
Q2_K_L Bassa 2.93 GB
Ultimo aggiornamento: 5 marzo 2026