就在最近的GTC大会上,Nvidia拿出了他们的底牌,把这个全新的LPX机架亮相了,这玩意儿就是为了把AI数据中心的未来牢牢掌控在自己手里。老黄在台上直接交底,说公司已经开始把芯片和系统产品线给扩开了。这次主推的是LPX机架,专门用来干超快速推理这行活儿。这货其实是Nvidia跟AI初创公司Groq合作出来的,听说后来Nvidia是花了200亿美元把Groq给吃进来的。 这个LPX机架里头装的是Groq 3 LPU(语言处理单元)还有Nvidia的Rubin GPU,两边一加一等于二,主要是为了把推理速度和数据处理能力给调到一个最舒服的状态。负责高性能计算的Ian Buck就说了,这种搭配能把超高的浮点运算能力跟超大的带宽给合二为一,这样一来查询的延迟就能大大地降下来。 Nvidia还吹了一把说,LPU在处理查询的时候效率特别高。市场研究机构TechInsights给出的报告显示,Groq LPU访问内存时每消耗0.33皮焦就能搞定一位的数据量,比GPU的6皮焦低多了。Buck算了一笔账,用LPX机架的话,每兆瓦的电力能处理的令牌数是GPU的35倍。这么高的能效比要是照进现实,对AI服务提供商来说收入翻倍甚至增长十倍那都是小菜一碟。 这次Nvidia的目标可不仅仅是出个产品那么简单,他们是想把从能源到芯片再到模型应用的全套基础设施都铺开,彻底改变现在的AI经济格局。Ian Buck说了句话很实在:他们想给用户提供一个全方位的解决方案,既让用户赚到钱也给市场创造更多的就业机会。 黄仁勋还透露了一个重要消息:LPX机架和另外四个不同的机架组合成了Nvidia的AI生态系统。像由72个Rubin CPU和36个Vera CPU组成的NVL72机架、还有那一台只装256个Vera CPU和400TB DRAM的纯CPU机架、专门优化存储和检索的Bluefield 4 STX机架,都在这套生态里了。 除了这些硬家伙之外,黄仁勋还不忘展望一下未来的机器人技术和太空AI领域的新方向,看来这公司的野心真不小。面对AMD和那些新兴的AI设备制造商的挑战,Nvidia这次显然是想玩把狠的。 总的来说吧,Nvidia这次发布的LPX机架不只是技术上的一次大创新而已,更是他们在AI领域全面发力的宣言书。至于这一战略布局到底会怎么影响未来的数据中心和整个产业生态?接下来咱们都得盯着看!毕竟AI技术发展这么快,Nvidia在这个变革的时代里头肯定要扮演那个关键角色。