Qwen3 235B A22B
Qwen
Code Multilingual Thinking Tool Calls
Qwen3 235B A22B es un modelo "Mixture-of-Experts" de 235.090 millones de parámetros del equipo Qwen de Alibaba, optimizado para modos de inferencia con y sin razonamiento. Activa 8 de 128 expertos por token, ofreciendo razonamiento de vanguardia a una fracción del coste computacional de modelos densos comparables. El modelo soporta generación de código, "tool calling" y 14 idiomas, incluidos inglés, chino, japonés y árabe. Con una ventana de contexto de 40K y "flash attention", está orientado a despliegues multi-GPU y se cuantiza bien a GGUF para inferencia autoalojada en hardware de gama alta.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 232.76 GB | — |
| Q8_K_XL | Alta | 246.89 GB | — |
| Q6_K | Alta | 179.76 GB | — |
| Q6_K_XL | Alta | 185.2 GB | — |
| Q5_K_M | Media | 155.36 GB | — |
| Q5_K_S | Media | 150.76 GB | — |
| Q5_K_XL | Media | 155.43 GB | — |
| Q4_K_M | Media | 132.39 GB | — |
| Q4_K_S | Media | 124.51 GB | — |
| Q4_K_XL | Media | 124.91 GB | — |
| Q4_1 | Media | 137.12 GB | — |
| Q3_K_M | Baja | 104.73 GB | — |
| Q3_K_S | Baja | 94.47 GB | — |
| Q3_K_XL | Baja | 96.61 GB | — |
| Q2_K | Baja | 79.81 GB | — |
| Q2_K_L | Baja | 79.94 GB | — |
| Q2_K_XL | Baja | 81.97 GB | — |
Última actualización: 5 de marzo de 2026