阿里巴巴发布千问3.5-Plus大模型 参数效率创新突破推理性能跃升

问题——大模型应用加速落地,对“能力—成本—效率”提出更高要求。近年来,大模型已从文本问答扩展到编程辅助、检索增强、自动化办公等场景。企业与开发者对推理速度、长上下文处理、跨模态理解的需求快速增长。另外,算力成本、部署复杂度与能耗压力同步上升。如何不降低能力上限的前提下提升单位算力产出,正在成为行业竞争的关键。 原因——架构创新与数据体系升级,推动模型“更强也更省”。据介绍,Qwen3.5-Plus在底层架构上做了调整,引入混合专家等思路,形成“总参数3970亿、激活参数约170亿”的高效计算路径,用更低的激活规模释放更强的模型能力,并将显存占用降低约六成。在训练与推理侧,模型加入训练稳定性优化、多词元预测等技术,在常见长上下文场景提升推理吞吐;在更长上下文条件下,吞吐最高可提升至19倍。与以往偏重纯文本训练不同,本次迭代更强调“原生多模态”:基于视觉与文本混合词元进行预训练,并扩充多语言、科学工程与推理等数据,使模型在知识覆盖、推理链条与跨模态理解上深入增强。 影响——降低开发与部署门槛,推动多模态与智能体应用走向实用。发布信息显示,Qwen3.5-Plus在通用能力、知识推理、指令遵循以及智能体涉及的基准中表现领先,并在多模态推理、视觉问答、文字识别、空间理解、视频理解等评测中展现优势。更受关注的是其工程层面的“降本增效”:在性能提升的同时,部署资源占用下降、推理速度提升,让中小团队在有限算力条件下更容易推进产品化落地。价格上,接口服务按词元计费进一步下调,有助于提升高频调用场景的可行性,推动应用从“演示”走向“生产级工具”。 对策——开源与服务化并行,补齐生态供给与风险治理。当前国内大模型竞争已从单点性能转向“模型—工具链—数据—应用”的体系能力。本次开源并提供社区下载与云端接口,体现出以开放吸引开发者、加速迭代的路径。面向智能体应用扩展,团队提出可扩展的异步强化学习框架与插件式能力扩容,以提升训练效率并增强工具调用与跨应用执行能力。与此同时,模型能力提升也要求同步加强数据合规、内容安全、隐私保护与工具调用边界等机制建设,在推进应用的同时把风险控制在可管理范围内,避免“能力外溢”带来新的治理压力。 前景——原生多模态与智能体将成为下一阶段重点,产业落地更看重可用性与稳定性。业内普遍认为,大模型正在从“理解与生成”走向“感知—推理—行动”的闭环:能看懂图像、读懂文档、理解视频并完成操作的能力,将影响其在办公协同、工业质检、教育科研、客户服务等领域的渗透速度。随着长上下文、高吞吐与低成本逐步成为基础配置,未来竞争将更多集中在场景适配、工具链完善、端云协同与行业知识沉淀。对企业而言,能否把模型能力转化为稳定可控、可评估、可审计的生产力工具,将直接影响投入产出比。

千问3.5大模型的技术进展,反映出我国在人工智能领域的持续创新能力。在全球竞争加剧的背景下,这类自主成果不仅提振产业信心,也为数字经济带来新的增长空间。随着技术迭代与应用深入,我国人工智能产业有望在国际市场形成更强影响力。