Zum Inhalt springen

Qwen3.6 27B

Qwen
Code Multilingual Thinking Tool Calls Vision

Qwen3.6 27B ist ein dichtes großes Sprachmodell vom Qwen-Team bei Alibaba mit 27 Milliarden Parametern und 64 Schichten, basierend auf einer neuartigen hybriden Architektur aus Gated DeltaNet und Gated Attention, die es mit seinen größeren Mixture-of-Experts-Geschwistern teilt. Es ist nativ multimodal, verarbeitet Text, Bilder und Video und verfügt über integrierte Denk- und Tool-Calling-Fähigkeiten in einem 262K-Kontextfenster, das sich per YaRN auf rund eine Million Tokens erweitern lässt. Das Modell steht unter der Apache-2.0-Lizenz. Bei Q4-Quantisierung benötigt es etwa 16 GB VRAM und eignet sich damit hervorragend für selbstgehostete Bereitstellung auf einer einzelnen High-End-Consumer-GPU.

Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
BF16 Volle Präzision 50.11 GB
Q8_0 Hoch 26.63 GB
Q8_K_XL Hoch 32.9 GB
Q6_K Hoch 20.98 GB
Q6_K_XL Hoch 23.88 GB
Q5_K_M Mittel 18.17 GB
Q5_K_S Mittel 17.66 GB
Q5_K_XL Mittel 18.66 GB
Q4_K_M Mittel 15.66 GB
Q4_K_S Mittel 14.77 GB
Q4_K_XL Mittel 16.4 GB
IQ4_NL Mittel 14.97 GB
IQ4_XS Mittel 14.38 GB
Q4_0 Mittel 14.71 GB
Q4_1 Mittel 16.07 GB
Q3_K_M Niedrig 12.65 GB
Q3_K_S Niedrig 11.51 GB
Q3_K_XL Niedrig 13.48 GB
IQ3_XXS Niedrig 11.17 GB
Q2_K_XL Niedrig 11.04 GB
IQ2_M Niedrig 10.1 GB
IQ2_XXS Niedrig 8.74 GB
Zuletzt aktualisiert: 29. April 2026