问题——算力需求攀升,“内存瓶颈”日益突出。 随着大模型训练、实时推理和多模态应用在更多行业落地,算力系统的性能不再仅由处理器决定,数据在处理器与存储之间能否高效流动,成为影响总体效率的关键因素。业内通常将处理器计算速度提升而存储带宽跟不上所导致的限制称为“内存墙”。在超大规模并行计算场景下,传统内存体系难以满足高吞吐、低时延、低功耗的综合需求。 原因——专用芯片上量带动高带宽内存成为“标配”。 Counterpoint Research在报告中指出,面向特定算法与负载优化的专用智能芯片(AI ASIC)使用规模扩大,是推动高带宽内存(HBM)需求跃升的重要驱动。与通用计算芯片相比,专用芯片强调能效比与特定任务的吞吐能力,为充分释放其并行计算优势,需要更高带宽、更高容量的存储系统配合。HBM通过3D堆叠及硅通孔等工艺缩短数据路径,在单位功耗下提供更高带宽,因而在高性能训练与推理平台中占据核心位置。报告预计,未来四年AI ASIC涉及的HBM需求或较当前增长约35倍,反映出算力基础设施正从“以计算为中心”向“以数据流为中心”加速演进。 影响——产业链扩张提速,供给约束与竞争格局将同步变化。 需求快速上行将直接带动存储厂商加大对HBM产品的研发与产能投入,HBM3、HBM3e以及后续产品的迭代升级有望加快;同时,先进封装的重要性深入凸显。由于HBM通常需与逻辑芯片通过2.5D/3D等方式进行高密度互连,封装产能、良率和交付周期将成为影响整机供给的关键变量。业内人士指出,HBM制造环节涉及堆叠、键合、测试等多道高难度工序,扩产并非简单“加设备即可”,良率爬坡、材料配套与工艺协同将决定实际供给弹性。此外,HBM在高端算力系统中的占比提升,也将改变数据中心硬件成本结构,推动整机厂商更重视系统级能效与总体拥有成本优化。 对策——围绕“供给能力+技术协同+生态标准”提升确定性。 一是加快关键工艺与产能建设,提升堆叠、互连与测试能力,稳定良率与交付;二是加强存储、封装、芯片设计与系统厂商的联合验证,缩短产品导入周期,降低因平台切换带来的不确定性;三是推动接口与互连生态建设,提升存储资源利用效率,减少“堆硬件”带来的边际效益递减;四是关注供应链韧性,通过多元化采购、长期协议与库存策略应对需求波动与交付风险。业内普遍认为,谁能在工艺成熟度、封装产能与系统适配上形成更强协同,谁就更可能在新一轮算力基础设施竞争中占据主动。 前景——高带宽内存迈向更高性能,算力架构或迎新一轮调整。 从技术路线看,HBM向更高带宽、更高堆叠层数与更优能效演进已成共识,后续产品的规模化应用将进一步抬升对先进封装、散热与电源管理的要求。与此同时,围绕“就近存储、就近计算”的架构探索也在推进,未来算力系统可能在内存层级、互连方式与软件调度上形成新的优化路径。可以预期,专用芯片与高带宽内存的组合将继续扩展到更多行业场景,但其发展速度仍将取决于产能释放节奏、成本下降幅度以及生态成熟度。
高带宽内存需求的迅猛增长,反映出全球科技产业对智能化未来的坚定信心。在此轮技术变革中,半导体行业的创新活力与市场潜力将继续释放,为数字化、智能化时代的到来奠定基础。