阿里通义千问再次“掀桌子”:Qwen3.6-27B正式开源,编程实力上演“以小博大”
4月22日,阿里云通义千问团队宣布其开源家族迎来重磅更新,正式发布270亿参数的稠密多模态模型——Qwen3.6-27B。作为开发者群体呼声最高的模型规格,该版本的出现不仅完善了Qwen系列的产品矩阵,更在保持稠密架构优势的基础上,针对智能体编程与多模态推理进行了深度进化。
性能飞跃:编程能力超越15倍规模的MoE模型
在本次发布中,最令业界关注的是其“以小博大”的惊人表现。尽管只有270亿参数,Qwen3.6-27B在多项编程基准测试中,全面超越了前代总参数量高达3970亿的Qwen3.5-397B-A17B。数据显示,在衡量代码修复能力的SWE-bench Verified测试中,该模型取得了77.2的高分;而在SkillsBench等推理任务上,其进步幅度更是显著。这种性能表现意味着,开发者无需复杂的MoE(混合专家模型)路由即可获得旗舰级的编程辅助体验,大幅降低了部署门槛。
全能多模态:支持图像视频混合输入
除了逻辑推理的强项,Qwen3.6-27B在视觉语言领域同样表现稳健。它原生支持多模态处理,能够流畅解析图像、视频与文本的混合输入,涵盖了视觉推理、文档深度理解以及交互式视觉问答等应用场景。官方表示,其多模态处理能力已与更高参数级别的Qwen3.6-35B-A3B保持一致,确保了多模态任务下的高精度产出。
生态对接:深度适配开发者主流工作流
为了让技术迅速转化为生产力,该模型的开源权重已同步上线Hugging Face和ModelScope(魔搭)社区,支持本地化部署。此外,阿里云百炼平台也将紧随其后提供API调用服务,并特别保留了“preserve_thinking”功能,以便在智能体任务中完整回溯思维链。目前,Qwen3.6-27B已实现对Claude Code、Qwen Code等主流编程助手的无缝集成,旨在为全球开发者提供更加精准、具备上下文感知能力的编码辅助环境。
via AI新闻资讯 (author: AI Base)
4月22日,阿里云通义千问团队宣布其开源家族迎来重磅更新,正式发布270亿参数的稠密多模态模型——Qwen3.6-27B。作为开发者群体呼声最高的模型规格,该版本的出现不仅完善了Qwen系列的产品矩阵,更在保持稠密架构优势的基础上,针对智能体编程与多模态推理进行了深度进化。
性能飞跃:编程能力超越15倍规模的MoE模型
在本次发布中,最令业界关注的是其“以小博大”的惊人表现。尽管只有270亿参数,Qwen3.6-27B在多项编程基准测试中,全面超越了前代总参数量高达3970亿的Qwen3.5-397B-A17B。数据显示,在衡量代码修复能力的SWE-bench Verified测试中,该模型取得了77.2的高分;而在SkillsBench等推理任务上,其进步幅度更是显著。这种性能表现意味着,开发者无需复杂的MoE(混合专家模型)路由即可获得旗舰级的编程辅助体验,大幅降低了部署门槛。
全能多模态:支持图像视频混合输入
除了逻辑推理的强项,Qwen3.6-27B在视觉语言领域同样表现稳健。它原生支持多模态处理,能够流畅解析图像、视频与文本的混合输入,涵盖了视觉推理、文档深度理解以及交互式视觉问答等应用场景。官方表示,其多模态处理能力已与更高参数级别的Qwen3.6-35B-A3B保持一致,确保了多模态任务下的高精度产出。
生态对接:深度适配开发者主流工作流
为了让技术迅速转化为生产力,该模型的开源权重已同步上线Hugging Face和ModelScope(魔搭)社区,支持本地化部署。此外,阿里云百炼平台也将紧随其后提供API调用服务,并特别保留了“preserve_thinking”功能,以便在智能体任务中完整回溯思维链。目前,Qwen3.6-27B已实现对Claude Code、Qwen Code等主流编程助手的无缝集成,旨在为全球开发者提供更加精准、具备上下文感知能力的编码辅助环境。
via AI新闻资讯 (author: AI Base)