哎呀,朋友们!听说了吗?中国网、中国发展门户网都在说这事,在2026年中关村论坛上,大家都在聊科技创新怎么跟产业创新深度融合,然后那个叫中科曙光的李斌就上台了。他不是光说说而已,直接把世界首个无线缆箱式超节点scaleX40给推出来了!这产品可了不得,单节点直接塞进去40张GPU,总算力爆到28PFLOPS(FP8精度),HBM显存都有5TB多,访存带宽更是超过8TB/s。这还不算完,系统可靠性直接飙到了99.99%,真的是太牛了!这个3月26日发布的东西,直接开启了全渠道预售呢。 不过啊,这款产品的意义其实不在性能有多高,而是想回答一个大问题:怎么把超节点这种过去只有少数人玩得起的东西,变成咱们大多数人的标配。以前那些超节点方案都得靠一大堆线缆和定制化建设,部署起来慢还贵,折腾半天不一定能用。scaleX40不一样,它用了无线缆架构,直接把计算和交换节点对插在一起,少了光纤铜缆不说,还做成了标准19英寸的箱子,这就好比是把一个个独立的“小盒子”堆在一起一样简单。安装扩展的事儿直接变成了模块化组装,谁都能上手搞! 大家看现在的市场需求就知道,全球AI基础设施的投入还是挺快的,不过新增需求慢慢变了味儿。以前大家都盯着超大规模集群看,现在企业级和行业应用才是重点。大家也都觉得啊,几十卡的规模其实就够用了,既能搞大模型训练推理,又不会把成本压得太死。这时候你再看scaleX40,它把规模卡在了性能和成本的平衡点上。往下兼容32卡满足中小规模需求,往上扩展又能变成更大的集群。这种设计太灵活了,企业不用一次性投太多钱进去,完全能跟着业务节奏慢慢来。 最关键的是,高端AI算力这时候开始变样了。大家不再光拼单一性能了,开始讲究“是否易部署、易使用、可持续运行”。scaleX40正好符合这个趋势,它是个标准化结构直接适配现有数据中心环境,不用额外改造也不用大动干戈;模块化架构还支持灵活扩展。再加上跟存储调度系统的协同配合,算力资源能直接服务于模型训练和推理还有智能体应用。这种“开箱即用”的能力让高端算力可以更快进入实际业务流程了! 所以说呀,当超节点开始以更简单的方式被部署和使用的时候,高端算力才会加速从“能力选项”变成“体系标配”。对咱们中国来说,这可能真的就是让AI走向规模化应用的一个大起点!