算力热背后的“存储短板”显现:AI NAS加速从数据仓库走向端侧智能中枢

当前全球AI产业发展面临一个看似矛盾的现象。

根据国际数据公司最新发布的全球AI基础设施支出报告,本季度全球AI基础设施总支出达820亿美元,其中服务器占比高达98%,而存储设备支出仅占1.4%,金额不足16亿美元。

这组数据表面上反映出存储在AI基础设施投资中的"缺位",但深层次却揭示了产业发展中的关键瓶颈。

问题的根源在于生成式大模型的快速演进。

当前主流大模型参数规模已突破万亿级,训练过程中产生的PB级检查点数据、推理阶段的实时数据调用需求不断增加。

传统存储架构难以满足这些需求,导致"数据饥饿"成为制约算力充分释放的核心障碍。

全球AI服务器的平均算力利用率不足45%,这一数字背后正是存储性能的制约。

与此同时,数据规模的爆炸式增长加剧了这一矛盾。

国际数据公司在《数据时代2025》报告中预测,全球数据圈将在2025年达到175ZB,其中85%为非结构化数据。

这些来自手机、相机、工业传感器的图片、视频、音频等数据构成了AI训练的基础"燃料"。

但在传统存储模式下,这些数据的传输与利用效率极低,形成严重的"数据堵点"。

在此背景下,融合AI算力的新型网络存储设备应运而生。

与传统网络附属存储以"存储控制器加硬盘阵列"为核心不同,新型AI存储设备采用"存储模块加AI算力模块加智能调度模块"的架构,形成"存算一体"的闭环系统。

这种架构创新使其性能指标从单纯的读写速度和容量扩展至算力以及模型支持能力,实现了从"数据仓库"到"算力节点"的蜕变。

在具体应用能力上,新型存储设备展现出明显优势。

在数据采集环节,实现了"多终端智能同步加自动分类",相比传统手动拷贝方式效率大幅提升;在数据检索环节,支持"文本、语音、图片"多模态检索和语义级理解,突破了传统"按文件名检索"的局限;在数据处理环节,内置AI工具实现"数据存储即处理",用户无需借助专业软件;在数据共享环节,将数据转化为"智能服务",扩展了应用场景。

技术指标的提升同样显著。

新型存储设备支持NVMeoF协议,本地读写速度可达3000MB/s,相比传统存储设备的200MB/s以下有数量级的提升。

这一性能跃升直接解决了大模型处理高清视频等大容量数据时的"存储拖后腿"问题,使AI服务器的算力利用率有望提升60%以上。

从市场前景看,这一领域正迎来爆发式增长。

预测数据显示,全球AI存储设备市场到2031年将达到7.3亿元,年复合增长率高达49%。

部分企业已在市场中取得先发优势,其产品在众筹平台获得高度认可,全球用户规模突破千万级。

在模型支持方面,新型存储设备通过"内置模型加开源兼容加SDK支持"实现了"模型自由"。

用户可在预装的基础模型基础上开发场景化模型,也可自行部署开源大模型,满足不同行业和应用的个性化需求。

这种开放生态的构建,为产业链上下游的协同发展创造了条件。

应用场景的拓展也在加速。

在医疗影像、工业检测、视频处理等领域,新型存储设备已展现出显著的效率提升和成本优化效果。

相比传统方案,响应速度提升60%,运营成本直降80%,这些数据充分说明了新技术的实际价值。

存储技术的革新是AI时代不可或缺的一环。

从“数据仓库”到“智能中枢”,AI NAS的崛起不仅填补了基础设施的空白,更重塑了数据价值的实现路径。

未来,如何平衡算力与存储的协同发展,将成为推动AI产业迈向更高阶段的关键课题。