Qwen3.6 27B
Qwen
Code Multilingual Thinking Tool Calls Vision
Qwen3.6 27B es un gran modelo de lenguaje denso del equipo Qwen de Alibaba, con 27.000 millones de parámetros y 64 capas, construido sobre una novedosa arquitectura híbrida que combina Gated DeltaNet y Gated Attention, compartida con sus variantes Mixture-of-Experts más grandes. Es nativamente multimodal, procesando texto, imágenes y vídeo, e incluye capacidades integradas de razonamiento y llamada a herramientas en una ventana de contexto de 262K tokens, ampliable a alrededor de un millón de tokens mediante YaRN. El modelo se publica bajo licencia Apache 2.0. Con cuantización Q4 requiere aproximadamente 16 GB de VRAM, lo que lo hace muy adecuado para el despliegue autoalojado en una sola GPU de consumo de gama alta.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| BF16 | Precisión completa | 50.11 GB | — |
| Q8_0 | Alta | 26.63 GB | — |
| Q8_K_XL | Alta | 32.9 GB | — |
| Q6_K | Alta | 20.98 GB | — |
| Q6_K_XL | Alta | 23.88 GB | — |
| Q5_K_M | Media | 18.17 GB | — |
| Q5_K_S | Media | 17.66 GB | — |
| Q5_K_XL | Media | 18.66 GB | — |
| Q4_K_M | Media | 15.66 GB | — |
| Q4_K_S | Media | 14.77 GB | — |
| Q4_K_XL | Media | 16.4 GB | — |
| IQ4_NL | Media | 14.97 GB | — |
| IQ4_XS | Media | 14.38 GB | — |
| Q4_0 | Media | 14.71 GB | — |
| Q4_1 | Media | 16.07 GB | — |
| Q3_K_M | Baja | 12.65 GB | — |
| Q3_K_S | Baja | 11.51 GB | — |
| Q3_K_XL | Baja | 13.48 GB | — |
| IQ3_XXS | Baja | 11.17 GB | — |
| Q2_K_XL | Baja | 11.04 GB | — |
| IQ2_M | Baja | 10.1 GB | — |
| IQ2_XXS | Baja | 8.74 GB | — |
Última actualización: 29 de abril de 2026