当前,人工智能的快速发展对芯片存储能力提出了前所未有的挑战。
高带宽内存(HBM)作为AI加速芯片的核心配置,通过垂直堆叠薄型DRAM芯片结构,为AI训练与推理提供超高数据传输能力,成为推动AI算力发展的关键基础。
然而,传统HBM技术存在两个突出制约因素。
一方面,成本居高不下。
HBM的价格较普通DDR内存高出一个数量级,成为制约其大规模应用的重要因素。
另一方面,容量增长遭遇瓶颈。
受DRAM内存密度缩放技术的限制,即使英伟达最新Blackwell GPU搭载8个24GB HBM3e芯片堆栈、总容量达192GB,仍难以满足大模型规模爆发、上下文长度扩展和AI视频生成等场景对海量存储的需求。
这种"成本高、容量小"的双重困境,促使产业界积极开发成本更优、容量更大的替代技术方案。
在此背景下,SPHBM4、HBF、HBS等类HBM新技术相继涌现,推动AI存储赛道进入多元化竞争新阶段。
SPHBM4代表了HBM技术的标准化演进方向。
国际固态存储协会JEDEC近期宣布接近完成SPHBM4标准制定。
该技术沿用HBM4相同的DRAM芯片与堆叠架构,保持单堆栈容量水平,但在接口基础裸片设计上进行了优化——可直接搭载于标准有机基板,而无需传统HBM4所依赖的昂贵硅基板。
这一改进彻底改变了HBM的物理集成方式,显著降低了封装难度和成本。
在性能指标上,SPHBM4虽然将单堆栈接口位数降至512位,但通过提升工作频率和采用4:1串行化技术,实现了与HBM4相当的数据传输速率。
更为重要的是,有机基板的应用使得SPHBM4能够支持更长的SoC到内存通道距离,通过增加堆栈数量进一步提升总容量。
这一特性使HBM技术有望从专属于AI加速器的高端产品,拓展至CPU、网络芯片、云端专用芯片等更广泛的应用场景,推动存储芯片市场规模实现质的扩大。
HBF(高带宽闪存)则从容量维度提出了新的解决方案。
该技术通过堆叠NAND闪存芯片实现高带宽存储,充分利用NAND闪存相比DRAM的容量密度优势——相同物理空间下,NAND容量可达DRAM的10倍。
HBF采用硅穿孔技术实现多层NAND芯片垂直堆叠,构建密集互连的存储结构。
单个HBF封装可堆叠多达16个NAND芯片,支持多NAND阵列并行访问,带宽可达1.6TB/s至3.2TB/s,与HBM3性能相当。
而在容量方面优势明显——单堆栈容量最高可达512GB,8个堆栈即可实现4TB总容量,较HBM高出8至16倍。
这种"同等带宽、远超容量"的特性组合,为大模型训练、长上下文处理和AI视频生成等高容量需求场景提供了新的技术选择。
HBS等其他新技术也在探索存储创新的不同路径。
这些技术通过采用新型封装方案如VFO封装,可显著降低系统延迟,进一步优化终端AI应用的存储性能。
从产业竞争格局看,这些新技术的涌现带来了深刻的市场变化。
对于SK海力士、三星电子、美光等全球存储芯片巨头而言,SPHBM4与现有HBM共用DRAM芯片的特性,使其能在保持高端技术竞争力的同时,开拓新的市场需求。
同时,新技术对封装工艺的相对宽松要求,有利于这些企业提升大规模稳定供应能力,进而转化为新的竞争优势。
这种技术多元化格局的形成,也将激励更多芯片设计公司根据不同应用场景的具体需求,灵活选择最优的存储解决方案。
从产业发展前景看,AI存储技术的多元化竞争将加速产业生态的完善。
不同技术方案的并存与竞争,有利于推动成本持续下降、性能不断优化、应用场景不断拓展。
这将为AI产业的广泛应用和普及提供更加坚实的硬件基础支撑。
这场由AI驱动的存储技术革命,既是应对算力需求暴涨的必然选择,也是全球半导体产业重新洗牌的重要契机。
当技术创新从单一性能指标转向场景适配能力,产业链各方更需在核心材料、装备工艺等底层领域筑牢根基。
正如摩尔定律面临物理极限时的产业转型,当前多元技术路线的竞合发展,或将孕育出超越传统架构的下一代存储解决方案。