英伟达的头儿黄仁勋跟大伙聊起AI产业的道理,说得特别直白:光靠硬件跑得快不行,得看软件活得多漂亮,最后还得靠大伙儿抱团才是王道。现在这行业到了深化应用和大干快上的时候,造算力的路子正在变。最近他开了个发布会,把英伟达接下来打算走的路画得明明白白:不再死磕硬件跑分了,而是要把软件能不能长期用得顺、系统效率搞上去当成是赢比赛的法宝。 他直接拍桌子反对那种为了省点钱买便宜零件的脑筋,说芯片买来是一次性买卖,但给它写代码、调优可是要陪它过一辈子的。这话扎到了行业的痛点上。现在模型越做越复杂,用的地方到处都是,要是硬件搞成了七零八落的一堆散件,软件生态肯定会断了气,开发和运维的成本会高得吓人,最后谁都跑不快。 为了帮大伙算账,黄仁勋拿出了一个叫“Token经济学”的尺子。衡量算力值不值钱,现在不能光看每秒能算多少浮点数了,得看每花一块钱或者每耗费一度电能生成多少个Token才行。在这套规则里,英伟达坚持搞统一的内存架构和自家的全栈软件策略就特别重要。只要系统平台高度一致,哪怕是对CUDA这些底层东西做一点点优化,全世界用这个平台的人都能立马享受到好处,性能跟着一块儿猛涨。这种“一荣俱荣”的生态效应,能大大拉低大家用机器的总成本(TCO),把客户死死拴住。 有意思的是他说了个数字:开源模型现在已经负责全球四分之一的Token生成了。他自己也说没想到涨这么快。开源这玩意儿把技术门槛拉低了很多,以前只有大厂用的超大规模集群现在到处都是了。这既让市场更大了,也逼着基础设施必须更顺手、更靠得住。 为了接住这一波攻势,黄仁勋特别展示了新一代平台“Vera Rubin”。这东西体现了一个大变化:不再死守着那个“铁疙瘩”一样的集中式堡垒了,而是要做成像棉花糖一样的柔性集群。最大的优点就是好修且好换。跟前一代“Grace Blackwell”那种一个点坏了整个机架都得瘫痪的情况不一样,“Rubin”用了一种创新的托盘式设计。像NVLink这种特别重要的连接部件要是坏了不用关机也能热插拔换上去,能做到边跑边修,把非计划停的时间压缩到几乎没有。 据透露这设计让组装一个计算节点的时间从以前的两小时直接砍到了五分钟。不光运维变得简单省钱了,生产到部署这整个供应链的效率也跟着彻底变了样。 面对现在数据中心电不够用、老是断电的情况,“Rubin”还做了很多系统性的改造。它把里面乱七八糟的线全扔了,直接搞100%全液冷散热。跟那种只有80%用液体的混合方案比起来,散热更猛更稳的同时还能塞更多的芯片进去。 黄仁勋专门点出了个大问题:电的稳定性成了现在算力能不能扩的最大拦路虎。现在AI干活儿——尤其是做推理的时候——电流跳得特别厉害,一下子能高出25%。这就逼着运营商必须留一堆电冗余以备不时之需,导致用起来的时候电很浪费。“Rubin”通过系统设计和电源管理技术在架子里就能把这种功率的突然冲高给平掉。哪怕单个GPU热得要冒烟耗到1800瓦,整个系统对外的电流曲线也是平的。 这个黑科技让数据中心能用满100%签的电力额度(以前都没那么高),能源利用效率上去了,投资回报率也就跟着涨了。这就给绿色的、可持续的算力增长铺好了路。 黄仁勋这回讲的不只是某一款产品的事儿了,简直是给大家念了一篇产业方法论的战略文章。他讲得很明白:竞争的重点不再是拼单个零件的参数了,而是得看硬件和软件是不是能打配合、运营成本能不能压得下来、以及能不能把好东西带给更多人。 在“Token经济学”的规则下,算力不光是费电的机器堆在一起,更是能把东西变聪明、能创造价值的高效转换器。英伟达靠自己的统一架构和全栈优势加上破解难修、难管和电省的系统级难题,就是想坐稳AI时代的基础设施老大的位子。 这场围绕着算力根基的大变革,会深刻影响全球数字经济的未来走向和创新的快慢节奏。