Ir al contenido

Qwen3.6 27B

Qwen
Code Multilingual Thinking Tool Calls Vision

Qwen3.6 27B es un gran modelo de lenguaje denso del equipo Qwen de Alibaba, con 27.000 millones de parámetros y 64 capas, construido sobre una novedosa arquitectura híbrida que combina Gated DeltaNet y Gated Attention, compartida con sus variantes Mixture-of-Experts más grandes. Es nativamente multimodal, procesando texto, imágenes y vídeo, e incluye capacidades integradas de razonamiento y llamada a herramientas en una ventana de contexto de 262K tokens, ampliable a alrededor de un millón de tokens mediante YaRN. El modelo se publica bajo licencia Apache 2.0. Con cuantización Q4 requiere aproximadamente 16 GB de VRAM, lo que lo hace muy adecuado para el despliegue autoalojado en una sola GPU de consumo de gama alta.

Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
BF16 Precisión completa 50.11 GB
Q8_0 Alta 26.63 GB
Q8_K_XL Alta 32.9 GB
Q6_K Alta 20.98 GB
Q6_K_XL Alta 23.88 GB
Q5_K_M Media 18.17 GB
Q5_K_S Media 17.66 GB
Q5_K_XL Media 18.66 GB
Q4_K_M Media 15.66 GB
Q4_K_S Media 14.77 GB
Q4_K_XL Media 16.4 GB
IQ4_NL Media 14.97 GB
IQ4_XS Media 14.38 GB
Q4_0 Media 14.71 GB
Q4_1 Media 16.07 GB
Q3_K_M Baja 12.65 GB
Q3_K_S Baja 11.51 GB
Q3_K_XL Baja 13.48 GB
IQ3_XXS Baja 11.17 GB
Q2_K_XL Baja 11.04 GB
IQ2_M Baja 10.1 GB
IQ2_XXS Baja 8.74 GB
Última actualización: 29 de abril de 2026