Qwen3 Next 80B A3B Thinking
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 Next 80B A3B Thinking ist ein auf Schlussfolgern spezialisiertes Mixture-of-Experts-Modell vom Qwen-Team bei Alibaba mit 81,32 Milliarden Gesamtparametern, optimiert für Chain-of-Thought-Inferenz bei komplexen Mathematik-, Logik- und Programmieraufgaben. Nur etwa 3 Milliarden Parameter werden pro Token aktiviert, wobei 10 von 512 Experten zum Einsatz kommen, was starke Reasoning-Leistung bei einem Bruchteil der Rechenkosten dichter Alternativen erzielt. Das Modell unterstützt Codegenerierung, Tool Calling und 13 Sprachen, darunter Englisch und Chinesisch. Mit einem 262K-Kontextfenster und Flash Attention verarbeitet es lange Denkspuren nativ und lässt sich gut ins GGUF-Format quantisieren für selbstgehostete Deployments.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 78.99 GB | — |
| Q8_K_XL | Hoch | 86.69 GB | — |
| Q6_K | Hoch | 61.04 GB | — |
| Q6_K_XL | Hoch | 63.81 GB | — |
| Q5_K_M | Mittel | 52.91 GB | — |
| Q5_K_S | Mittel | 51.24 GB | — |
| Q5_K_XL | Mittel | 52.77 GB | — |
| Q4_K_M | Mittel | 45.17 GB | — |
| Q4_K_S | Mittel | 42.38 GB | — |
| Q4_K_XL | Mittel | 42.78 GB | — |
| Q4_0 | Mittel | 42.2 GB | — |
| Q4_1 | Mittel | 46.61 GB | — |
| Q3_K_M | Niedrig | 35.67 GB | — |
| Q3_K_S | Niedrig | 32.21 GB | — |
| Q3_K_XL | Niedrig | 33.06 GB | — |
| Q2_K | Niedrig | 27.17 GB | — |
| Q2_K_L | Niedrig | 27.24 GB | — |
| Q2_K_XL | Niedrig | 28.06 GB | — |
Zuletzt aktualisiert: 5. März 2026