Salta ai contenuti

DeepSeek R1 Distill Qwen 32B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 Distill Qwen 32B e un trasformatore denso da 32,76 miliardi di parametri di DeepSeek, distillato dal modello di ragionamento R1 piu grande in un'architettura basata su Qwen. Eccelle nel ragionamento "chain-of-thought", nella generazione di codice e nei compiti multilingue con capacita di pensiero integrate. Rispetto ai modelli instruct standard di classe 30B, offre un ragionamento logico e matematico piu forte. Il modello supporta nove lingue e una finestra di contesto da 128K, rendendolo adatto a sviluppatori e ricercatori che necessitano di inferenza focalizzata sul ragionamento su configurazioni GPU di fascia media.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 61.03 GB
Q8_0 Alta 32.43 GB
Q6_K Alta 25.04 GB
Q5_K_M Media 21.66 GB
Q4_K_M Media 18.49 GB
Q3_K_M Bassa 14.84 GB
Q2_K Bassa 11.47 GB
Q2_K_L Bassa 11.64 GB
Ultimo aggiornamento: 5 marzo 2026