千问 3.5 来了,感觉这次阿里真的要在AI市场搞个大动作了。听说这个模型只用了170亿的激活参数,就把接近4000亿的庞大参数库给调动起来了,性能直接跟GPT-5.2和Gemini-3 Pro看齐,价格却只有它们的1/18,部署成本更是下降了60%。这可不只是简单的产品升级,简直是阿里AI战略大翻身的时刻。 他们是怎么做到这么便宜又好用的呢?核心就是“以小搏大”,不跟风去堆大参数。从Qwen1.5开始就一直琢磨着如何用小模型做出顶尖表现。比如Qwen2.5那个72B的模型,参数量不到Llama3 405B的五分之一,但性能反超了它。到了千问3.5,更是厉害,只用了不到5%的激活参数,就把近4000亿参数的知识储量给激活了。 为了省钱又保证性能,阿里在技术上也是下足了功夫。他们用了混合注意力机制和极致稀疏的MoE架构这些核心技术来协同作战。这让模型的推理吞吐量一下子提高了19倍。而且这一代还打破了以前那种语言模型外加个视觉模块的拼装模式。千问3.5在训练的时候就把文本和视觉数据混在一起训练,两者在一个统一的参数空间里深度合作。 现在不光模型厉害,背后的芯片和云也一起发力了。平头哥推出了针对MoE架构优化的“真武”芯片,阿里云也提供了从训练到推理的全链路支持。通过用FP8和FP32这两种精度策略搭配使用,激活内存直接减少了50%,训练速度也加快了10%。 有了软硬件这么深度的结合,成本自然就降下来了。千问已经成了贯穿阿里技术、产品和商业的一个统一符号了。现在开源的模型有400多个,衍生出来的模型超过20万个,下载量已经超过10亿次了。在中国的企业级大模型调用市场上他们排名第一。 阿里正在用开源的策略把全球的开发者都给吸引过来了。形成了“开发者做应用→用到云与芯片→再去做模型研发”的良性循环。这就意味着顶级AI能力不再是高不可攀的东西了,个人开发者和中小企业也能轻易触达这种基础设施。阿里现在就像是AI时代的“Linux”,正在定义底层的规则。