印度一家叫 Sarvam 的 AI 实验室,自己搞出了两个全新的 MoE 架构的 LLM,直接从零开始。这次推出的是 30B-A1B 和 105B-A9B 这两款,一个是小型号的,另一个是大型号的。小的那个 30B-A1B 支持 32K 的上下文窗口,适合那种需要低延迟、实时响应的场景;大的那个 105B-A9B 能支持 128K 的上下文窗口,面对更复杂的任务。它们两个都将开源权重放在 Hugging Face 上了,API 服务和仪表盘工具随后就来。这两款模型的预训练数据集有 16T 这么大。而且在本地化的印度语言测试里,Sarvam 的 105B-A9B 模型打败了谷歌的 Gemini 2.5 Flash。再看看更广泛的任务表现,Sarvam 的模型在大多数基准测试里比 DeepSeek R1 好,很多基准测试里也比谷歌 Gemini Flash 好。