Zum Inhalt springen

Qwen3 235B A22B

Qwen
Code Multilingual Thinking Tool Calls

Qwen3 235B A22B ist ein Mixture-of-Experts-Modell mit 235,09 Milliarden Parametern vom Qwen-Team bei Alibaba, optimiert für Denk- und Nicht-Denk-Inferenzmodi. Es aktiviert 8 von 128 Experten pro Token und liefert Spitzenleistung beim Schlussfolgern bei einem Bruchteil der Rechenkosten vergleichbarer dichter Modelle. Das Modell unterstützt Codegenerierung, Tool Calling und 14 Sprachen, darunter Englisch, Chinesisch, Japanisch und Arabisch. Mit einem 40K-Kontextfenster und Flash Attention zielt es auf Multi-GPU-Server-Deployments und lässt sich gut ins GGUF-Format quantisieren für selbstgehostete Inferenz auf High-End-Hardware.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 232.76 GB
Q8_K_XL Hoch 246.89 GB
Q6_K Hoch 179.76 GB
Q6_K_XL Hoch 185.2 GB
Q5_K_M Mittel 155.36 GB
Q5_K_S Mittel 150.76 GB
Q5_K_XL Mittel 155.43 GB
Q4_K_M Mittel 132.39 GB
Q4_K_S Mittel 124.51 GB
Q4_K_XL Mittel 124.91 GB
Q4_1 Mittel 137.12 GB
Q3_K_M Niedrig 104.73 GB
Q3_K_S Niedrig 94.47 GB
Q3_K_XL Niedrig 96.61 GB
Q2_K Niedrig 79.81 GB
Q2_K_L Niedrig 79.94 GB
Q2_K_XL Niedrig 81.97 GB
Zuletzt aktualisiert: 5. März 2026