蚂蚁数科说,Token效能是判断企业级AI值不值钱的关键指标。像OpenClaw这种能自己动手干活的智能体突然火起来,说明AI应用正从以前的聊天对话,转向现在的帮你干活。企业虽然都在抢着用,但也遇到了算力浪费、安全合规这些让人头疼的难题。大家都在想办法,怎么才能让智能体真的大规模用起来,这是个大家伙都关心的事。 3月26日,在中关村论坛上,蚂蚁数科大模型技术创新部总经理章鹏讲了一个大实话:OpenClaw的爆发其实是要把企业级AI的玩法给变了,把大模型落地从拼参数规模变成拼单位Token效能。他还解释说,OpenClaw这类智能体虽然很受欢迎,但真正干活的时候碰到了坎儿。因为不懂行业规矩和业务流程,它们执行复杂任务时会不停地调用工具,消耗的Token比产出的多太多。据说在那种高频调用的场景里,OpenClaw的Token成本能达到普通Agent的几十倍甚至上百倍。 章鹏认为,大模型落地的下半场,大家不能再光看参数多少,关键是看每块Token花得值不值。企业得根据实际情况,选那种大模型配小模型的组合方案,这样能用更低的算力成本做出更高的生意。举个例子,金融这块儿天天得处理好多又快又准的活儿,像快速查资料、排序检索这些。传统的行业推理大模型本事很大,但在这儿就有点像“杀鸡用牛刀”,又费钱又慢,资源都浪费了。 章鹏说产业真正需要的是那种既专业合规,又能保证最快速度、最低价格的AI方案。大参数模型适合搞深度分析和复杂推理,小参数模型则擅长处理高频小任务。只有把它们结合起来,才能更高效更便宜地解决实际问题。这次论坛上,蚂蚁数科也推出了一款叫Ling-DT-Fin-Mini-2.5的轻量级金融模型,这是Ling DT系列里的第一款。这个模型用的是MoE架构和混合线性注意力技术,专门给金融那种高并发低时延的任务优化过了。 它跟市面上那些差不多水平的通用模型比起来,处理速度能快一倍还多,硬件成本也大大降低了。这不光是速度快了一倍,关键是硬件费用也省了不少。最近OpenAI也推出了GPT-5.4 mini和nano这种小模型,主打低延迟和高性价比,把它们当成干活的主力。章鹏觉得技术发展最终还是得回归到让产业更高效的理性需求上。 他还表示蚂蚁数科会继续钻研企业级AGI这块儿的事儿。接下来还会给大家推出百灵企业版Ling DT大模型还有行业版,好让智能体更快地在复杂场景里大规模用上。未来衡量企业级AI值不值钱的核心指标肯定还是那个Token效能。