问题——AI进入以推理和多模态为特征的新阶段,存储与带宽的“供需错配”更为明显。随着大模型从文本扩展到语音、图像等形态,用户侧调用更频繁、上下文更长、数据更复杂。算力增长之外,系统对“更大容量、更高带宽、更低时延”的存储组合提出了更严格要求。业内普遍认为——仅靠HBM提升带宽——难以长期覆盖容量端的快速膨胀。 原因——数据爆发推动存储分工调整,长期记忆需求上升。金正浩会上指出,AI时代的关键变量正从单纯计算转向“计算与记忆协同”,并提出“HBM决定速度、HBF决定容量”。其逻辑在于:一上,推理和智能体应用扩大,使承载长期信息的“键-值缓存”(KV Cache)占用显著上升;另一方面,HBM虽具高带宽优势,但成本、功耗与可扩展性限制其更适合作为“近端高速工作区”,更大容量的压力则可能转由以NAND闪存为基础的堆叠方案承担。HBF被描述为将NAND进行类似HBM的垂直堆叠,以在可控成本下大幅提升容量。 影响——存储架构可能从“带宽优先”走向“带宽与容量并重”,产业链竞争点前移。会上展示的设想方案提出,在图形处理器两侧同时配置HBM与HBF:例如以若干HBM提供约百GB级高速容量,同时叠加TB级HBF作为更大规模的数据与上下文承载。金正浩以“书架与图书馆”作比喻:HBM用于快速取用,HBF用于容纳更多内容但速度较慢。若该路线在产品层面落地,未来AI服务器的内存层级可能更细化,从而带动NAND、先进封装、控制器与系统软件的协同升级,并对数据中心总体拥有成本、功耗结构与供应链配置产生连锁影响。 对策——企业需在产品化、生态适配与封装制造上同步推进。金正浩认为,HBF制造流程与现有HBM在堆叠与封装等环节具有相似性,竞争最终将体现在工程化速度与量产能力。要推动商业化,关键不只在芯片本身,还在“哪些服务率先采用、如何在系统中用好”。这意味着,上游需提升堆叠NAND与封装工艺的良率与一致性,中游需在服务器与加速卡设计中建立清晰的层级管理机制,下游则需在推理框架、内存管理与调度策略上完成适配,才能释放HBF在容量端的价值。 前景——“内存中心计算”趋势或放大HBF需求,市场格局仍取决于标准与应用落地节奏。金正浩进一步提出,当CPU、GPU与内存更紧密地在单一基础芯片上实现有机整合,内存中心计算(MCC)架构成型后,对HBF的需求可能继续上升,并预测HBF需求或在2038年前后超过HBM。就产业动态看,三星电子、SK海力士以及闪存领域企业均在加快涉及的研发。金正浩认为,具备HBM与先进封装综合能力的厂商在系统级协同上更有优势。,全球范围内HBF能否形成规模市场,仍取决于接口与封装标准推进、关键应用场景的验证速度,以及与现有HBM/DDR体系的协同成本。
存储技术革新正成为AI时代的重要驱动力;从HBM到HBF的转变——不仅说明了技术演进——也揭示了数据需求与硬件发展的深层互动。韩国学者的预测为全球半导体产业提供了新的思考方向,而围绕存储技术的竞争,或将重塑未来AI发展的格局。