多条技术路线竞速高带宽内存赛道:SPHBM4、HBF等瞄准“降本扩容”破解算力瓶颈

当前,人工智能的快速发展对芯片存储能力提出了前所未有的挑战。

高带宽内存(HBM)作为AI加速芯片的核心配置,通过垂直堆叠薄型DRAM芯片结构,为AI训练与推理提供超高数据传输能力,成为推动AI算力发展的关键基础。

然而,传统HBM技术存在两个突出制约因素。

一方面,成本居高不下。

HBM的价格较普通DDR内存高出一个数量级,成为制约其大规模应用的重要因素。

另一方面,容量增长遭遇瓶颈。

受DRAM内存密度缩放技术的限制,即使英伟达最新Blackwell GPU搭载8个24GB HBM3e芯片堆栈、总容量达192GB,仍难以满足大模型规模爆发、上下文长度扩展和AI视频生成等场景对海量存储的需求。

这种"成本高、容量小"的双重困境,促使产业界积极开发成本更优、容量更大的替代技术方案。

在此背景下,SPHBM4、HBF、HBS等类HBM新技术相继涌现,推动AI存储赛道进入多元化竞争新阶段。

SPHBM4代表了HBM技术的标准化演进方向。

国际固态存储协会JEDEC近期宣布接近完成SPHBM4标准制定。

该技术沿用HBM4相同的DRAM芯片与堆叠架构,保持单堆栈容量水平,但在接口基础裸片设计上进行了优化——可直接搭载于标准有机基板,而无需传统HBM4所依赖的昂贵硅基板。

这一改进彻底改变了HBM的物理集成方式,显著降低了封装难度和成本。

在性能指标上,SPHBM4虽然将单堆栈接口位数降至512位,但通过提升工作频率和采用4:1串行化技术,实现了与HBM4相当的数据传输速率。

更为重要的是,有机基板的应用使得SPHBM4能够支持更长的SoC到内存通道距离,通过增加堆栈数量进一步提升总容量。

这一特性使HBM技术有望从专属于AI加速器的高端产品,拓展至CPU、网络芯片、云端专用芯片等更广泛的应用场景,推动存储芯片市场规模实现质的扩大。

HBF(高带宽闪存)则从容量维度提出了新的解决方案。

该技术通过堆叠NAND闪存芯片实现高带宽存储,充分利用NAND闪存相比DRAM的容量密度优势——相同物理空间下,NAND容量可达DRAM的10倍。

HBF采用硅穿孔技术实现多层NAND芯片垂直堆叠,构建密集互连的存储结构。

单个HBF封装可堆叠多达16个NAND芯片,支持多NAND阵列并行访问,带宽可达1.6TB/s至3.2TB/s,与HBM3性能相当。

而在容量方面优势明显——单堆栈容量最高可达512GB,8个堆栈即可实现4TB总容量,较HBM高出8至16倍。

这种"同等带宽、远超容量"的特性组合,为大模型训练、长上下文处理和AI视频生成等高容量需求场景提供了新的技术选择。

HBS等其他新技术也在探索存储创新的不同路径。

这些技术通过采用新型封装方案如VFO封装,可显著降低系统延迟,进一步优化终端AI应用的存储性能。

从产业竞争格局看,这些新技术的涌现带来了深刻的市场变化。

对于SK海力士、三星电子、美光等全球存储芯片巨头而言,SPHBM4与现有HBM共用DRAM芯片的特性,使其能在保持高端技术竞争力的同时,开拓新的市场需求。

同时,新技术对封装工艺的相对宽松要求,有利于这些企业提升大规模稳定供应能力,进而转化为新的竞争优势。

这种技术多元化格局的形成,也将激励更多芯片设计公司根据不同应用场景的具体需求,灵活选择最优的存储解决方案。

从产业发展前景看,AI存储技术的多元化竞争将加速产业生态的完善。

不同技术方案的并存与竞争,有利于推动成本持续下降、性能不断优化、应用场景不断拓展。

这将为AI产业的广泛应用和普及提供更加坚实的硬件基础支撑。

这场由AI驱动的存储技术革命,既是应对算力需求暴涨的必然选择,也是全球半导体产业重新洗牌的重要契机。

当技术创新从单一性能指标转向场景适配能力,产业链各方更需在核心材料、装备工艺等底层领域筑牢根基。

正如摩尔定律面临物理极限时的产业转型,当前多元技术路线的竞合发展,或将孕育出超越传统架构的下一代存储解决方案。