阿里千问开源Qwen3.6-27B:270亿参数稠密模型,编程能力超越15倍大小MoE模型
4月23日,阿里云通义千问团队宣布开源模型家族新成员——Qwen3.6-27B。这是一款拥有270亿参数的稠密多模态模型,也是社区呼声最高的模型规格。此前,通义千问已陆续发布了Qwen3.6-Plus和Qwen3.6-35B-A3B,而此次开源的27B版本在保持稠密架构优势的同时,全面提升了智能体编程与多模态推理能力。
Qwen3.6-27B支持多模态思考与非思考模式,在智能体编程方面达到了旗舰级表现,全面超越了前代开源旗舰Qwen3.5-397B-A17B——后者是一款总参数397亿、激活参数170亿的混合专家模型。作为稠密架构,Qwen3.6-27B无需MoE路由即可部署,是开发者在实用、可广泛部署规模上获取顶尖编程能力的理想选择。
在自然语言与编程基准测试中,Qwen3.6-27B仅凭270亿参数,就在所有主要编程基准上全面超越了参数量高达其15倍的Qwen3.5-397B-A17B。具体来看:SWE-bench Verified得分77.2(前代76.2),SWE-bench Pro得分53.5(前代50.9),Terminal-Bench 2.0得分59.3(前代52.5),SkillsBench得分48.2(前代30.0)。在推理任务上,该模型在GPQA Diamond上取得了87.8的成绩,可与数倍于其规模的模型相媲美。
视觉语言方面,Qwen3.6-27B原生支持多模态,能够处理图像、视频与文本的混合输入,支持视觉推理、文档理解和视觉问答等任务,其能力与Qwen3.6-35B-A3B保持一致。
Qwen3.6-27B的开源权重已在Hugging Face和ModelScope平台上提供,开发者可下载进行本地部署。同时,用户也可以在Qwen Studio上直接进行交互对话。阿里云百炼平台即将支持通过API调用该模型,并保留“preserve_thinking”功能,可在消息中保留所有前序轮次的思维内容,官方推荐用于智能体任务。
该模型还可以无缝集成到流行的第三方编程助手中,包括OpenClaw、Claude Code和Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。从270亿参数超越397亿MoE,到稠密架构的部署便利性,Qwen3.6-27B正在为开发者提供一个“小而强”的开源选择。对于需要在有限硬件条件下获得顶尖编程能力的团队而言,这无疑是一个值得关注的新选项。