Qwen3 235B A22B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 235B A22B ist ein Mixture-of-Experts-Modell mit 235,09 Milliarden Parametern vom Qwen-Team bei Alibaba, optimiert für Denk- und Nicht-Denk-Inferenzmodi. Es aktiviert 8 von 128 Experten pro Token und liefert Spitzenleistung beim Schlussfolgern bei einem Bruchteil der Rechenkosten vergleichbarer dichter Modelle. Das Modell unterstützt Codegenerierung, Tool Calling und 14 Sprachen, darunter Englisch, Chinesisch, Japanisch und Arabisch. Mit einem 40K-Kontextfenster und Flash Attention zielt es auf Multi-GPU-Server-Deployments und lässt sich gut ins GGUF-Format quantisieren für selbstgehostete Inferenz auf High-End-Hardware.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 232.76 GB | — |
| Q8_K_XL | Hoch | 246.89 GB | — |
| Q6_K | Hoch | 179.76 GB | — |
| Q6_K_XL | Hoch | 185.2 GB | — |
| Q5_K_M | Mittel | 155.36 GB | — |
| Q5_K_S | Mittel | 150.76 GB | — |
| Q5_K_XL | Mittel | 155.43 GB | — |
| Q4_K_M | Mittel | 132.39 GB | — |
| Q4_K_S | Mittel | 124.51 GB | — |
| Q4_K_XL | Mittel | 124.91 GB | — |
| Q4_1 | Mittel | 137.12 GB | — |
| Q3_K_M | Niedrig | 104.73 GB | — |
| Q3_K_S | Niedrig | 94.47 GB | — |
| Q3_K_XL | Niedrig | 96.61 GB | — |
| Q2_K | Niedrig | 79.81 GB | — |
| Q2_K_L | Niedrig | 79.94 GB | — |
| Q2_K_XL | Niedrig | 81.97 GB | — |
Zuletzt aktualisiert: 5. März 2026