我国太空数据中心关键技术取得突破 轨道散热技术或改变全球算力格局

近年来,通用大模型训练与推理对算力的需求快速攀升,作为算力供给的重要载体,数据中心的能耗与散热压力随之上行。业内普遍面临的现实问题是:地面环境中,计算设备产生的热量必须持续依靠冷却系统带走,而制冷往往占据数据中心用电的较大比例。随着单机柜功率密度提升、集群规模扩大,散热能力与能效水平逐渐成为制约算力扩张的关键因素之一。问题在于,地面数据中心的能效存在一定“上限”。在多数场景下,能源使用效率(PUE)受到气候条件、供配电损耗、冷却方式和设备功率密度等多重因素影响,可优化空间相对有限。尤其在高功率密度训练任务中,液冷等先进散热手段虽然能提升效率,但系统复杂度、运维难度和建设成本也会同步上升。算力需求持续增长与能耗约束、减排要求并行推进,使“如何以更低成本、更高效率处理热”成为行业需要直面的课题。原因上看,一上,算力规模扩张带来的热量增量具有明显的“乘数效应”。千亿参数级模型训练通常需要长时间高负载运行,用电规模大、对供电稳定性要求高。另一方面,地面散热受限于环境温度和热交换介质能力,冷却系统不得不额外耗电来“把热搬走”,同时可能带来热岛效应,并对水资源、噪声、用地等产生综合影响。对部分地区而言,电力供应结构、峰谷差以及绿电消纳能力,也会影响数据中心的稳定运行与成本控制。 鉴于此,轨道数据中心被视为一种新的探索路径:利用近地轨道的空间环境进行热管理。对应的研究认为,约700—800公里的轨道高度,深空背景辐射温度极低,可为设备散热提供更大的“冷源”空间。部分机构研判,如果以导热与辐射散热为主要手段、减少对传统制冷系统的依赖,能效指标有望明显改善,PUE或可深入接近理想状态。同时,轨道上的太阳辐照更稳定、强度也更高,若与空间太阳能利用技术结合,可形成“发电—计算—散热”的闭环体系,从而降低地面供电与冷却的综合压力。 影响层面,如果这个探索实现工程化突破,可能带来三上变化:其一,算力供给模式可能从“集中式地面园区”向“天地协同”延伸,为超大规模训练与高密度推理提供新的部署选项;其二,能耗、碳排放与资源占用上,有望缓解制冷用电比重高、选址受气候条件限制等痛点,推动算力基础设施向更高能效、更低环境负荷演进;其三,将带动航天平台、电源系统、热控材料、轨组装与维护、天地数据链路等多领域协同创新,同时也对标准体系与安全管理提出更高要求。 对策上,业内人士指出,轨道数据中心从概念走向落地仍需跨越多项工程门槛。首先是能源与热控的系统集成:空间环境有利于辐射散热,但设备真空、辐射和温差循环等条件下面临可靠性挑战,热控设计需兼顾散热效率与长期稳定。其次是成本与可维护性:在轨部署、补给、升级与故障处置将显著影响全生命周期成本,需要通过模块化设计、批量化制造、可重复使用运载与在轨服务等方式降低门槛。再次是通信与应用适配:轨道算力的任务调度、数据回传,以及时延与带宽约束,需要与地面算力网络统筹规划,形成可用、可管、可控的算力服务体系。最后是安全与合规:涉及轨道资源、频谱资源、数据安全和国际规则等问题,需在技术推进的同时完善风险评估、应急处置与规则对接。 值得关注的是,全球范围内针对“太空算力”“在轨计算”的探索正在升温,相关项目与概念验证不断出现。北京推进GW级轨道数据中心构想并提出阶段性工程路线,体现出以工程化方式验证关键技术、再逐步走向规模化应用的路径选择。业内认为,近期更现实目标是通过试验星座与示范系统,验证供电、热控、计算载荷、数据链路与在轨运行维护等核心环节的可行性与经济性;中长期则取决于关键材料与器件可靠性提升、发射与在轨服务成本下降,以及天地一体化算力网络的成熟程度。 前景来看,轨道数据中心并非对地面数据中心的简单替代,更可能成为面向未来的增量选项:在高能耗、高密度、长时间运行的特定场景中提供补充能力,与地面绿色算力基地、边缘节点和算力网络共同构成多层次供给体系。随着算力成为数字经济的重要基础设施,能否在能效、成本、可靠性与规模化上率先形成可复制的工程能力,将直接影响在新一轮算力基础设施竞争中的位置。

轨道数据中心的推进既是对新型算力基础设施形态的探索,也是在能效约束下寻找突破口;若能在轨道环境中实现更高效的散热与能源供给,将有望缓解人工智能发展面临的能耗与散热压力,为数字经济的可持续增长打开新的空间。北京提出的对应的布局,正在通过阶段性路线与工程验证加速关键能力成型,并为我国在新一轮科技竞争中争取更有利的起点。