AI时代,算力成了咱们的水电煤,谁也离不开。最近,咱们国家也把这个事儿提上了日程。2月11日,国务院开了第十八次专题学习会,主题就是“深化拓展‘人工智能+’,全方位赋能千行百业”。说要“建设人工智能应用中试基地”、“优化智算资源布局”、“推进软硬件适配”、“形成产业链上下游贯通发展的格局”。这可是2026年以来国务院头一回开这样的会,也是去年8月那个《关于深入实施“人工智能+”行动的意见》出来后,顶层设计又一次给咱们指了明路。 以前大家搞试验,现在都是要大规模用上了,企业对算力的要求就变了味儿。以前光要“算得快”,现在还得“算得稳”、“算得省”、“算得活”。华为用了个“集群+超节点”的招儿。他们弄出来的昇腾384超节点可不是硬堆硬件,是通过自研的“灵衢”协议,把好多计算设备捏成一个有共享内存池的大家伙,带宽超大、延迟超低,内存还能统一编址。 阿里云的路子不一样,他们说决定性能上限的其实是网。他们弄了个HPN加UPN的双轨网络:HPN是给大规模训练和推理用的,时延小到微秒级,带宽利用率能达到98%;UPN就更狠了,直接把光放进机柜里面,用LPO/NPO全光互联技术,把成本给降了30%。 浪潮搞了全栈智算基座来保证技术供给。他们弄出来的CRS6000S服务器特别猛,能把32张或者64张本地AI芯片塞到一个机柜里去,卡之间的通信带宽翻了8倍。这样一来,千亿参数的大模型以前要练一个月才能成的事儿,现在只要一周就能搞定。 联想走的是“一横四纵”的路数。他们把服务器、存储、数据网络、软件还有超融合都连起来了,把那些复杂又贵的算力变成了能确定产出的东西。 先说调度领先。现在的客户最怕供应链出幺蛾子或者技术被绑死了。联想万全异构智算平台能把各种不同的算力都管起来,还能通过算子级优化屏蔽底层芯片的差别。这就好比客户手里攥着一把钥匙,想换谁家的底座都行,技术路线不再是死胡同。 再看交付领先。联想去年年底搞出了“AI工厂”解决方案。以前搞AI开发跟做手工艺品似的,现在变成了标准化、高效率的生产线。他们不光给硬件设施,还把数据采集、智能体开发、模型训练到推理服务这些都包圆了。 最后说说能效领先。为了响应“双碳”目标,性能和能效得两手抓。联想海神液冷技术散热效率达到98%,还能把90%的余热回收再利用过来。这么干下来,能耗能降42%,数据中心的PUE能压到1.1以下。 这些本事给联想带来了实打实的好处。最新财报显示,在2025/26财年第三财季,联想基础设施业务营收同比涨了超过30%,创下了历史新高。