
作者 | 李水青
编辑 | 心缘
智东西 4 月 17 日报道,继 Qwen3.6-Plus 发布后,阿里通义千问团队昨夜宣布开源混合专家(MoE)模型 Qwen3.6-35B-A3B。
该模型总参数量 350 亿,激活参数仅 30 亿,主打轻量高效与智能体编程能力,测评超过谷歌 4 月最新发布的 Gemma 4-26B-A4B、Gemma 4-31B 以及阿里自己的前代 Qwen3.5-35B-A3B,并具备强大的多模态感知与推理能力。


在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。其在空间智能上的优势尤为突出:RefCOCO 92.0、ODInW13 50.8。

比如当我输入 "MBTI 测试升级了,帮我生成一个 SBTI 测试的 H5 应用 ",Qwen3.6-35B-A3B 很快识别出这是一种基于荒诞、自嘲和解构的 " 梗系 " 测试,并成功生成了包括简易测试题和分析结果的 H5 应用。

API 新增 "preserve_thinking" 功能,可在消息中保留所有前序轮次的思维内容,官方推荐用于智能体任务。
此外,Qwen3.6-35B-A3B 已适配 OpenClaw、Qwen Code 和 Claude Code 等第三方编程助手,支持通过 Anthropic API 协议接入。
Qwen Studio 地址:
https://chat.qwen.ai/
ModelScope 地址:
https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B
Hugging Face 地址:
https://huggingface.co/Qwen/Qwen3.6-35B-A3B