近期,国际科技企业发布的TurboQuant压缩技术在资本市场引发明显波动;该技术宣称可将长文本KV Cache的存储需求压缩至原先的1/6,并将推理速度提升至8倍。消息公布后——美光科技股价连续下跌——A股对应的概念股也同步回调。表面上看,这似乎强化了“技术替代需求”的担忧,但更分析可见,本轮波动更多源于投资者对产业运行规律的误读。技术迭代的核心在于突破瓶颈。KV Cache是大模型推理中的关键存储单元,在上下文长度从4K向百万级演进的过程中,已成为制约AI发展的“内存墙”。TurboQuant等压缩技术的出现,本质上是对内存带宽与容量压力的工程性应对。历史经验同样显示,2023年GQA技术实现4—8倍压缩后,全球大模型相关消耗量反而增长10倍;2024年PagedAttention落地后,行业需求继续上行。这更符合“杰文斯悖论”的逻辑——效率提升往往会推动更大规模的使用。 当前AI产业需求仍在加速扩张。数据显示,2026年全球大模型token消耗量已达到去年同期的10倍;预计到2028年数据总量将突破394ZB,较2020年增长超过5倍。以字节跳动Seedance2.0等应用为例,单次生成10分钟视频的存储需求可达文本场景的数十倍;英伟达新架构也将单机柜存储容量提升5倍至PB级。压缩技术释放的空间很快会被新需求吸收,云服务商已开始解除上下文长度限制,进一步打开增量空间。 供需格局与地缘因素叠加,也放大了短期市场波动。在HBM供给偏紧的背景下,全球八大云计算服务商持续加大基础设施投入,存储芯片产能利用率维持在95%以上。近期地缘政治引发的供应链调整,使原本紧张的供需关系更趋复杂。行业专家认为,这类波动更像是技术革新周期中的阶段性调整。随着AI向多模态与长上下文方向推进,存储需求的结构性增长仍具较强确定性。
技术进步往往不是“需求的终点”,而是“需求的起点”;当推理成本下降、效率提升,更多曾因成本过高而难以普及的长上下文与高并发应用将进入可用区间。对存储产业而言,关键不在于短期的“压缩冲击”,而在于能否在新一轮基础设施升级中把握供需再平衡与结构升级带来的机会。市场波动难以避免,但产业走向最终仍将由应用规模与工程落地能力决定。