PANews 4月16日消息,据通义实验室公众号,阿里旗下通义实验室开源稀疏 MoE 模型 Qwen3.6-35B-A3B,总参数 350 亿、推理仅激活 30 亿参数,号称在 SWE-bench、Terminal-Bench 等编程基准上显著优于前代 Qwen3.5-35B-A3B,并可对标 Qwen3.5-27B、Gemma-31B 等更大稠密模型。该模型原生支持图文、多模态与空间智能,在 RefCOCO 得分 92.0、ODInW13 得分 50.8,已在 Hugging Face 与 ModelScope 上开源,可本地部署,并计划通过阿里云百炼以兼容 OpenAI、Anthropic 协议的 API 形式提供调用,支持集成 OpenClaw、Claude Code、Qwen Code 等编程助手。
通义 Qwen3.6-35B-A3B 开源,主打低成本智能体编程与多模态推理
分享至:
作者:PA一线
本内容只为提供市场信息,不构成投资建议。
关注PANews官方账号,一起穿越牛熊

