问题——大模型“可用”与“好用”之间仍有落差 近一段时间,国产大模型能力快速迭代,但政企市场,“选模型、配算力、建环境、做适配、保安全、强运维”等环节往往相互牵制:一上,不同行业对推理、代码、多语言、多模态、高并发等能力需求差异明显,单一模型难以覆盖全部场景;另一方面,模型部署对算力资源、工程化适配和持续运维提出较高要求,导致不少单位试点阶段“跑得起来”,在规模化阶段“跑不稳、跑不省”。 原因——平台化集成成为降低门槛的现实选择 此次接入并非模型合并或技术收购,而是平台侧的工程化集成:中科曙光将GLM-5与Qwen3.5纳入SothisAI平台体系,面向用户提供统一的模型管理、算力调度、接口适配与运行维护能力。业内人士指出,这个做法直指大模型落地的关键瓶颈——把分散的能力拼接为可交付的产品形态。 从模型特点看,两款模型在能力结构上具有互补性:GLM-5更侧重复杂推理、长文本处理、代码与智能体等偏“专业化、深度化”的任务;Qwen3.5在通用应用、多语言、多模态与高吞吐等更适配面向用户的高频业务。通过平台层“一处接入、按需切换”,可减少企业重复对接和反复试错成本。 从基础条件看,算力底座与平台能力是实现规模交付的前提。中科曙光长期布局服务器、算力集群及有关管理平台,在政务、科研与工业等领域积累了较多实践。将大模型与算力、平台进行一体化适配,有助于在性能、稳定性与安全合规之间形成更可控的平衡,尤其契合对自主可控与数据安全要求较高的应用场景。 影响——从“拼模型”转向“拼交付”,产业链协同效应显现 对企业用户而言,平台化集成有望显著压缩从评估到上线的周期。以往大模型应用落地往往需要跨团队协作完成环境搭建、参数调优、兼容测试与运维体系建设;在平台统一承载后,用户可在同一控制台下完成模型调用与资源配置,将更多精力投入到数据治理、流程改造与业务验证。据介绍,在部分场景中部署周期可明显缩短、运维成本有望下降。 对行业生态而言,算力—平台—模型的“组合式供给”正在成为主流路径。过去更多是模型企业寻找算力资源、用户自行进行工程集成;如今算力与平台方主动吸纳主流模型能力,提供端到端交付方案,推动大模型从“能力展示”走向“规模生产”。这一变化也将带动标准接口、统一监控、弹性调度与安全审计等工程体系加速成熟。 对产业安全与合规而言,国产软硬件协同可在供应链可控、数据安全与适配优化上形成叠加效应,为关键行业提供更多可选择的技术路线。 对策——以场景牵引与治理先行,避免“上模型不见效” 业内建议,政企单位在引入大模型时,应坚持“业务目标—数据基础—模型能力—算力资源—安全合规”一体化评估:一是以场景为牵引,明确是提升效率、降低成本还是优化体验,避免为“上新”而上;二是同步推进数据治理与知识体系建设,强化可用数据供给与权限边界管理;三是建立持续运营机制,把模型调用、效果评估、提示词与流程优化纳入常态化运维;四是针对敏感数据与关键系统,完善安全审计、隔离部署与应急预案,确保“用得上、用得稳、用得安全”。 前景——大模型进入工程化竞争深水区 随着行业应用从试点走向规模化,竞争焦点将更多落在交付效率、综合成本、稳定性与合规能力上。平台化集成多模型、实现弹性调度与按需供给,将成为面向企业服务的重要形态。可以预期,未来将有更多模型与更多行业工具链被纳入统一平台体系,形成覆盖咨询、设计、研发、制造、运营与服务等环节的“可复用能力库”,推动人工智能真正转化为可持续的生产力。
在全球科技竞争加剧的背景下,中科曙光的实践不仅展现了人工智能产业化的中国路径,更表明了我国科技企业从单点创新到系统突破的能力提升。当技术创新真正服务于生产力提升,"数实融合"的发展蓝图才能落地实现。这提醒我们,建设现代化产业体系既需要核心技术突破,更需要打通从实验室到生产线的最后一公里。