全球人工智能产业正在加速,算力需求的激增正重塑数据中心的技术架构;行业研究显示,全球AI智能体市场在2025年至2030年的复合增速将达46.3%,到2030年全球算力规模预计超过16ZFlops,其中智能算力占比超过90%。此趋势直接推高硬件功耗。以英伟达AI芯片为例,TDP功耗从H100的700瓦持续上升,到2026年Vera Rubin平台已达2300瓦,增幅超过三倍。 硬件功耗飙升对数据中心散热提出更高要求。单机柜功率密度持续提升,超算和智算中心将超过30千瓦。因此,传统风冷的散热上限约为20千瓦,已难以满足高密度计算需求,液冷技术因此成为高功率密度散热的必然选择。另外,国内数据中心能耗管理趋严,2025年新建大型和超大型数据中心PUE需降至1.3以下,枢纽节点更降至1.25以下。多个地区还明确液冷机柜占比要求,政策压力推动散热技术加速升级。 问题的复杂性在于,传统数据中心散热主要聚焦CPU和GPU,但在AI算力中心的新架构下,热源分布发生根本变化。高速连接器、光模块等互连系统的发热占比提升,成为系统核心热源。光模块速率向1.6T、3.2T演进,功耗从100G的2.5瓦上升至800G的30瓦,增长十倍。在叶脊网络架构下,光模块数量激增,整体功耗占比超过整机40%。SerDes芯片功耗在交换芯片中的占比也从15%升至40%。互连系统的高密度集成还导致主板出现高温热斑,传统空冷已难以满足需求。 连接器是互连系统的核心组件,其温升来自电热力多物理场耦合。热源主要包括焦耳热、接触电阻热及邻近热源的传导热,不同应用场景对散热的要求差异明显。业界正推动散热技术系统化升级。被动散热通过结构优化和使用铜合金、银镀层等高导电材料降低产热;主动散热则从接触式冷板发展到集成式液冷技术。泰科散热桥、莫仕浮动静置式冷板等方案相继推出,可分别解决高速I/O、大电流电源和高速背板等核心场景的散热难题。 这一升级过程也为产业链企业带来新机遇。行业专家建议重点关注AI集群互连中的连接器散热市场。英维克作为温控领域龙头,液冷全链条产品已通过英特尔、英伟达等全球顶级芯片厂商验证。瑞可达在AI数据中心连接器领域布局完善,2025年前三季度净利润实现翻倍增长。中航光电自主研发多款高速连接器产品,技术与认证体系齐全。这些企业在散热技术和产品创新上的投入,为行业发展提供了支撑。 与此同时,业界也需警惕有关风险。散热技术方案竞争、液冷系统可靠性验证、成本控制与性能平衡等问题仍需关注。此外,散热系统与AI芯片、互连器件的协同设计也有待深化,以实现整体最优。
算力与能效的双重压力正在重塑数据中心散热体系,互连系统散热的崛起意味着产业链价值重心的迁移。未来,技术创新、政策引导与产业协同将共同决定AI基础设施的能效上限与发展速度。