Aller au contenu

DeepSeek R1 0528 Qwen3 8B

DeepSeek
Code Multilingual Thinking Tool Calls

DeepSeek R1 0528 Qwen3 8B est un transformeur dense de 8,19 milliards de paramètres de DeepSeek, distillé à partir du modèle de raisonnement R1-0528 dans une architecture basée sur Qwen3. Il apporte le raisonnement "chain-of-thought" à la classe des 8B, égalant des modèles bien plus grands sur les benchmarks mathématiques tout en restant déployable sur un seul GPU grand public. Il prend en charge la génération de code, les appels d'outils et neuf langues dont l'anglais, le chinois et les principales langues européennes. Avec une fenêtre de contexte de 128K et le "flash attention", il se quantifie efficacement en GGUF pour une inférence auto-hébergée économe en ressources.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
Q8_0 Élevée 8.11 GB
Q8_K_XL Élevée 10.08 GB
Q6_K Élevée 6.26 GB
Q6_K_XL Élevée 6.98 GB
Q5_K_M Moyenne 5.45 GB
Q5_K_S Moyenne 5.33 GB
Q5_K_XL Moyenne 5.48 GB
Q4_K_M Moyenne 4.68 GB
Q4_K_S Moyenne 4.47 GB
Q4_K_XL Moyenne 4.77 GB
Q4_0 Moyenne 4.46 GB
Q4_1 Moyenne 4.89 GB
Q3_K_M Basse 3.84 GB
Q3_K_S Basse 3.51 GB
Q3_K_XL Basse 4.02 GB
Q2_K Basse 3.06 GB
Q2_K_L Basse 3.19 GB
Q2_K_XL Basse 3.26 GB
Dernière mise à jour : 5 mars 2026