问题——算力讨论为何“言必称GPU”,而CPU作用常被低估 近年来,随着大规模训练、生成式应用和多模态处理需求增长,GPU凭借强并行能力成为算力建设中最显眼的指标。不少表述里,算力被简化为加速器数量和性能的叠加。但在数据中心落地中,算力并不是单一芯片的竞赛,而是计算、存储、网络和软件栈共同组成的系统工程。业内普遍认为,加速器越强,对调度和系统协同的要求越高,CPU承担的“组织与指挥”角色不应被忽视。 原因——并行与逻辑分工决定了CPU与GPU“协同而非替代” 从底层能力看,GPU擅长大规模并行计算,适合矩阵运算、向量处理等密集型任务,在图像、视频、文本等数据处理上效率突出;但在通用逻辑判断、复杂控制流和系统级调度上并不占优。数据中心需要完成作业拆分、队列管理、内存与带宽分配、网络通信组织和异常处理等工作,这些环节更依赖CPU的通用计算与控制能力。 在大规模集群里,一旦调度或数据供给出现瓶颈,即使加速器性能很强,也可能出现资源闲置、吞吐下降等问题。可以说,GPU决定“算得快不快”,CPU决定“能不能持续高效地算”。因此在面向数据中心的算力体系中,CPU长期承担管理平面与控制平面的核心职责。 影响——成本、能耗与安全约束推动算力结构重新审视 一是经济压力上升。加速器采购、集群建设与运维成本高,再加上算力资源阶段性紧张,企业更关注投入产出。二是能耗约束更突出。高密度部署抬高了供电和散热要求,电费与机房改造成本成为运营的关键变量。三是生态与供应链风险更受关注。对关键硬件与软件生态依赖较高,可能带来供给不确定性以及安全与合规压力。 在这些约束下,行业开始从“堆加速卡”转向“系统效率优先”,更重视任务调度、资源编排和软硬协同,通过提升CPU侧的调度效率、通信效率和系统管理能力,释放整体算力。 对策——多元加速器与专用芯片发展提速,但“调度中枢”仍不可缺位 为兼顾能效与供应安全,面向特定AI任务的专用加速芯片正加快落地。这类产品通常围绕算子、数据流和存储访问进行定制优化,在特定负载下有望获得更高能效和更好性价比,也为关键领域提供更多选择。 同时,国际产业链呈现更明显的纵向整合:一上,更多企业向数据中心级产品延伸,强化从硬件到平台的整体能力;另一方面,系统级协同成为竞争重点,软硬件一体化、编译器与框架适配、集群通信与调度能力,正与芯片性能一起决定最终体验。 需要强调的是,不论底层采用通用GPU还是专用加速器,CPU在系统中的作用仍难以替代:它负责资源调度、任务编排、服务治理与运维管理,并与网络、存储控制协同,决定集群能否稳定、连续、高效输出算力。 前景——算力竞争将从“单点性能”走向“体系能力”,CPU与加速器协同更受重视 业内预计,下一阶段算力建设将更看重“可用算力”而非“峰值算力”,即在真实业务负载下的稳定吞吐、时延表现与能效水平。围绕该目标,数据中心将加快推进异构计算与分层架构:由CPU负责通用控制与调度,加速器承担密集计算,并配合高速互联、存储优化和软件栈升级,形成更具弹性、性价比更高的算力底座。 同时,训练与推理在结构上的差异也会影响硬件选择:训练更依赖通信与并行效率,推理更强调成本与能效,促使企业在通用GPU、专用芯片与混合部署之间做更精细的组合配置。可以预见,行业竞争焦点将从“谁的芯片更强”扩展为“谁的系统更高效、生态更完善、供应更可控”。
算力升级从来不只是硬件堆叠,而是系统协同能力的提升。追求峰值性能的同时,更要看到:真正的算力效能来自CPU与各类加速芯片在调度、通信、存储与软件栈上的紧密配合。在关键技术自主可控的背景下,打造更均衡、更可持续的算力生态,将成为数字经济高质量发展的重要课题。