Qwen3.6-27B: el modelo denso de 27B que supera al MoE de 397B en codificación

Qwen3.6-27B es un modelo de lenguaje multimodal denso de 27.000 millones de parámetros, de código abierto, que logra un rendimiento de nivel flagship en codificación agentiva — superando al modelo MoE Qwen3.5-397B-A17B (397B totales / 17B activos) en todos los principales benchmarks de programación.

¿Qué es Qwen3.6-27B?

Después del lanzamiento de Qwen3.6-Plus y Qwen3.6-35B-A3B, Alibaba abre código con Qwen3.6-27B — un modelo multimodal denso de 27B parámetros, en la escala que la comunidad más demandaba. Soporta tanto el modo de razonamiento con thinking como el modo directo sin thinking, y se puede desplegar fácilmente sin la complejidad de routing de modelos MoE.

Qwen3.6-27B destaca por:

  • Rendimiento flagship en codificación agentiva, superando a Qwen3.5-397B-A17B
  • Modelo denso de código abierto completo (27B parámetros)
  • Razonamiento de texto y multimodal de primer nivel
  • Integración nativa con coding agents: OpenClaw, Claude Code y Qwen Code

Rendimiento en benchmarks de codificación

Qwen3.6-27B logra un hito en codificación agentiva para modelos densos. Con solo 27B de parámetros, supera al Qwen3.5-397B-A17B en todos los benchmarks de programación principales:

  • SWE-bench Verified: 77.2 vs 76.2
  • SWE-bench Pro: 53.5 vs 50.9
  • Terminal-Bench 2.0: 59.3 vs 52.5
  • SkillsBench Avg5: 48.2 vs 30.0

En razonamiento puro, alcanza 87.8 en GPQA Diamond, competitivo con modelos de tamaño muy superior. En maths, destaca con 93.8 en HMMT Feb 25 y 94.1 en AIME26.

Rendimiento multimodal y de visión

Como modelo multimodal nativo, Qwen3.6-27B procesa imagen, vídeo y texto en un mismo checkpoint unificado. Soporta tanto el modo thinking como el no-thinking multimodal, idéntico a Qwen3.6-35B-A3B. En benchmarks visuales:

  • MMMU: 82.9
  • MathVista mini: 87.4
  • VlmsAreBlind: 97.0
  • AndroidWorld (agente visual): 70.3
  • V* (visual agent): 94.7

¿Cómo usarlo?

Qwen Studio

Chat interactivo directo en qwen.ai.

API — Alibaba Cloud Model Studio

API compatible con el protocolo de chat completions de OpenAI y con el protocolo de Anthropic. Soporta el parámetro preserve_thinking para mantener el contenido de razonamiento entre turnos.

OpenClaw

Compatible con OpenClaw, un coding agent open-source self-hosted. Conectar con Model Studio para una experiencia completa en terminal.

Claude Code

Gracias a la compatibilidad con el protocolo de Anthropic, Qwen3.6-27B funciona directamente con Claude Code y herramientas similares.

Qwen Code

Qwen Code es un agente de codificación open-source optimizado para la serie Qwen, disponible en terminal.

Pesos abiertos

Disponible en Hugging Face y ModelScope para self-hosting.

Conclusión

Qwen3.6-27B demuestra que un modelo denso bien entrenado puede superar a predecesores mucho mayores en las tareas que más importan a los desarrolladores. Con 27B de parámetros — la escala más ampliamente desplegada en open-source — supera al Qwen3.5-397B-A17B en cada benchmark agentivo de codificación, manteniendo la simplicidad de despliegue de un modelo denso.

Scroll al inicio