DeepSeek R1 0528 Qwen3 8B
DeepSeek
Code Multilingual Thinking Tool Calls
DeepSeek R1 0528 Qwen3 8B est un transformeur dense de 8,19 milliards de paramètres de DeepSeek, distillé à partir du modèle de raisonnement R1-0528 dans une architecture basée sur Qwen3. Il apporte le raisonnement "chain-of-thought" à la classe des 8B, égalant des modèles bien plus grands sur les benchmarks mathématiques tout en restant déployable sur un seul GPU grand public. Il prend en charge la génération de code, les appels d'outils et neuf langues dont l'anglais, le chinois et les principales langues européennes. Avec une fenêtre de contexte de 128K et le "flash attention", il se quantifie efficacement en GGUF pour une inférence auto-hébergée économe en ressources.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| Q8_0 | Élevée | 8.11 GB | — |
| Q8_K_XL | Élevée | 10.08 GB | — |
| Q6_K | Élevée | 6.26 GB | — |
| Q6_K_XL | Élevée | 6.98 GB | — |
| Q5_K_M | Moyenne | 5.45 GB | — |
| Q5_K_S | Moyenne | 5.33 GB | — |
| Q5_K_XL | Moyenne | 5.48 GB | — |
| Q4_K_M | Moyenne | 4.68 GB | — |
| Q4_K_S | Moyenne | 4.47 GB | — |
| Q4_K_XL | Moyenne | 4.77 GB | — |
| Q4_0 | Moyenne | 4.46 GB | — |
| Q4_1 | Moyenne | 4.89 GB | — |
| Q3_K_M | Basse | 3.84 GB | — |
| Q3_K_S | Basse | 3.51 GB | — |
| Q3_K_XL | Basse | 4.02 GB | — |
| Q2_K | Basse | 3.06 GB | — |
| Q2_K_L | Basse | 3.19 GB | — |
| Q2_K_XL | Basse | 3.26 GB | — |
Dernière mise à jour : 5 mars 2026