Qwen3.5 27B
Qwen
Code Multilingual Thinking Tool Calls Vision
Qwen3.5 27B es el modelo denso más grande de la serie media Qwen 3.5 de Alibaba, con arquitectura híbrida Gated Delta Networks y 27.780 millones de parámetros. Alcanza 86,1 en MMLU-Pro, 85,5 en GPQA Diamond y 72,4 en SWE-bench Verified, igualando a GPT-5 mini en tareas de programación. Es nativamente multimodal, procesando texto, imágenes y vídeo, con capacidades de razonamiento integradas para inferencia « chain-of-thought ». El modelo soporta una ventana de contexto de 262K, ampliable a más de un millón de tokens, y cubre más de 201 idiomas. Publicado bajo licencia Apache 2.0, funciona con aproximadamente 15 GB de VRAM en Q4, siendo una excelente opción para despliegue autoalojado en GPU de consumo de gama media.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| Q8_0 | Alta | 26.63 GB | — |
| Q8_K_XL | Alta | 33.09 GB | — |
| Q6_K | Alta | 20.91 GB | — |
| Q6_K_XL | Alta | 23.91 GB | — |
| Q5_K_M | Media | 18.26 GB | — |
| Q5_K_S | Media | 17.59 GB | — |
| Q5_K_XL | Media | 18.79 GB | — |
| Q4_K_M | Media | 15.59 GB | — |
| Q4_K_S | Media | 14.69 GB | — |
| Q4_K_XL | Media | 16.41 GB | — |
| Q4_0 | Media | 14.64 GB | — |
| Q4_1 | Media | 16 GB | — |
| Q3_K_M | Baja | 12.58 GB | — |
| Q3_K_S | Baja | 11.45 GB | — |
| Q3_K_XL | Baja | 13.45 GB | — |
| Q2_K_XL | Baja | 10.44 GB | — |
Última actualización: 13 de marzo de 2026