阿里开源Qwen3.6-35B-A3B:30亿参数真能打过270亿稠密模型?编程能力实测

AI资讯2026-04-1714313 分钟

阿里新开源的Qwen3.6-35B-A3B用MoE架构实现「总参350亿、只激活30亿就能跑」的低成本方案,编程基准测试超过270亿参数的Qwen3.5-27B,还支持多模态视觉理解。适合需要AI编程能力但算力有限的个人开发者或一人公司关注。

阿里巴巴千问大模型团队于2026年4月16日正式开源Qwen3.6-35B-A3B,这是一款稀疏混合专家(MoE)架构的轻量级模型。它的核心卖点是:用极低的计算资源跑出接近大参数模型的编程能力。

这个模型强在哪

Qwen3.6-35B-A3B总参数量350亿,但因为采用了MoE架构,每次推理只需要激活30亿参数。相比之下,拥有270亿参数的稠密模型Qwen3.5-27B每次运行都要激活全部270亿参数。

在实际编程基准测试中,Qwen3.6-35B-A3B超越了Qwen3.5-27B,也明显优于前代Qwen3.5-35B-A3B。团队还拿它和Gemma4-31B做了对比测试,结果显示两者在逻辑推理和智能体协同任务上表现接近。换句话说,30亿激活参数换来的能力,和31亿稠密参数基本持平。

多模态能力怎么样

Qwen3.6-35B-A3B不只是编程模型,它是一款全模态模型。在空间智能和视觉感知测试中,RefCOCO评分达到92.0,部分多模态指标已经比肩Claude Sonnet4.5。

这对需要「视觉理解+代码生成」的开发者来说是个好消息。比如你做的是一个需要识别UI截图自动生成代码的工具,这类场景就能用上。

适合什么人和场景

从模型定位来看,以下几类用户可以关注:

  • 个人开发者:想用AI辅助编程,但显卡或云端算力预算有限
  • 一人公司:需要构建自动化代码生成或代码审查的工作流
  • 需要多模态能力:既有代码生成需求,又涉及UI识别、图表解析等视觉任务

不过需要提醒的是,实际部署效果还需要结合具体场景测试。基准测试分数高不代表在所有编程任务上都稳定。

怎么用

目前Qwen3.6-35B-A3B已集成到Qwen Studio,对外提供的API服务名为qwen3.6-flash,通过阿里云百炼平台调用。它支持preserve_thinking思维链保留功能,可以无缝适配OpenClaw、Claude Code、Qwen Code等主流AI编程助手。

对于已经在用阿里云系工具的开发者来说,接入成本相对较低。

值得关注的趋势

这波MoE架构的迭代方向很明确:用更少的激活参数达到接近大参数模型的性能。Qwen3.6-35B-A3B的开源,预示着「小参数、高智能」正在成为端侧AI和自动化智能体的新基座。

对于资源有限的个体创业者或独立开发者来说,这类模型的成熟意味着:以前需要调用付费API或者部署大模型的场景,现在有了更经济的替代方案。