最近MistralAI的新家伙Mistral Small4在开源界露了脸,而且动静不小。这是他们给大家伙儿准备的惊喜,一来就把模型权重和训练代码都给了出来,工具链和开发文档也都备齐了。这个小模型可真不简单,说是首款“三合一”的家伙也不为过。它不光把逻辑推理、多模态处理和智能体编码这三种硬本领凑到了一块儿,还用了个叫MoE的架构,弄出了1190亿的大参数量。不过这动静大了没关系,Mistral Small4还有个聪明的点子,就是通过动态激活机制,每个Token只调用4个专家。这样一来,算力消耗立马就降到了原来的1/5。这效果明显不明显?不仅速度快了,效率也高了。 再看那个上下文窗口长度,直接做到了256k,这在行业里算是很顶了。对于那些需要处理超长文档或者来个多轮复杂对话的活儿,Mistral Small4能轻松拿捏。特别是法律和医疗这种对语境要求特别高的领域,这本事更显出来了。 当然,光有这些还不够。Mistral Small4还给用户留了一手:“可配置推理强度”。用户可以根据自己的情况随意切换模式。如果是急着要结果,端到端的处理时间能缩短40%;如果想同时处理更多请求,每秒的请求数(RPS)也能比以前多三倍。 在实测当中的数据也挺亮眼的:代码补全的准确率比主流模型高了12%;视觉分析的时候图像理解速度也加快了35%。其实这次开源最大的亮点还是它的多模态和推理能力深度融合了。以前开发智能应用得多麻烦?现在有了它就省事多了。分析师都在说这是开源大模型进入“全能时代”的标志,以后的AI应用开发说不定都要照着它这个路子来了。 以后还会有啥变化?大家都在盼着呢!随着技术一直往前走,Mistral Small4肯定会接着给咱们带来更多惊喜。