美光打算在3月3日推出的一款新品,竟然是全球首款256GB的SOCAMM2内存,这可把很多同行都给惊着了。这个新产品给的容量提升了不少,比上一代最高的192GB还要多出三分之一呢。他们在发布会上还提到,这次用到的LPDDR5X颗粒可是全球第一款单芯片32Gb的DRAM,这算是个大突破了。 现在这种内存装上服务器,8通道单路的就能给系统撑到2TB的大空间,换成12通道双路的话,更是能把系统容量推到6TB。对于AI服务器来说,这可是大好事,能轻松搞定那些超长的上下文窗口和复杂的推理任务。 这次内存不仅容量大,速度也快。在那种长上下文大语言模型推理的时候,生成第一个token的时间居然缩短了2.3倍;就算是独立CPU干活的时候,每瓦性能也比主流内存模块高了3倍多。 这时候还得说说它的功耗和体积控制。相比起等效的RDIMM内存,功耗直接少了三分之二,占用空间也跟着变小了一半。这样一来服务器机架就能塞得更满了,数据中心的总体成本也跟着降下来。 这种设计还是模块化的架构,维护起来特别方便。还支持液冷部署呢,这就为以后内存需求增长留出了扩展空间。英伟达负责数据中心CPU的Ian Finder在评价时也说:“先进的AI基础设施需要在每个环节都进行惊人的优化才能跟上节奏。” 美光现在正跟英伟达紧密合作搞下一代解决方案呢。像英伟达即将推出的下一代AI超级计算平台Vera Rubin,也会成为首批采用这种内存标准的产品之一。这个模块计划要在GTC 2026大会上正式亮相呢。 最后友情提示一句:投资需谨慎。