Qwen3.5 27B
Qwen
Code Multilingual Thinking Tool Calls Vision
Qwen3.5 27B ist das größte dichte Modell in Alibabas Qwen-3.5-Medium-Serie mit Gated-Delta-Networks-Hybridarchitektur und 27,78 Milliarden Parametern. Es erreicht 86,1 auf MMLU-Pro, 85,5 auf GPQA Diamond und 72,4 auf SWE-bench Verified und liegt damit bei Programmieraufgaben auf dem Niveau von GPT-5 mini. Es ist nativ multimodal und verarbeitet Text, Bilder und Video, mit integrierten Denkfähigkeiten für Chain-of-Thought-Schlussfolgern. Das Modell unterstützt ein 262K-Kontextfenster, erweiterbar auf über eine Million Token, und deckt über 201 Sprachen ab. Unter der Apache-2.0-Lizenz veröffentlicht, läuft es mit etwa 15 GB VRAM bei Q4 und ist eine ausgezeichnete Wahl für selbstgehostetes Deployment auf Mittelklasse-Consumer-GPUs.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 26.63 GB | — |
| Q8_K_XL | Hoch | 33.09 GB | — |
| Q6_K | Hoch | 20.91 GB | — |
| Q6_K_XL | Hoch | 23.91 GB | — |
| Q5_K_M | Mittel | 18.26 GB | — |
| Q5_K_S | Mittel | 17.59 GB | — |
| Q5_K_XL | Mittel | 18.79 GB | — |
| Q4_K_M | Mittel | 15.59 GB | — |
| Q4_K_S | Mittel | 14.69 GB | — |
| Q4_K_XL | Mittel | 16.41 GB | — |
| Q4_0 | Mittel | 14.64 GB | — |
| Q4_1 | Mittel | 16 GB | — |
| Q3_K_M | Niedrig | 12.58 GB | — |
| Q3_K_S | Niedrig | 11.45 GB | — |
| Q3_K_XL | Niedrig | 13.45 GB | — |
| Q2_K_XL | Niedrig | 10.44 GB | — |
Zuletzt aktualisiert: 13. März 2026