在MWC26巴塞罗那展会上,高通公司把自己研发的AI200机架式AI推理解决方案给展示了出来。这个方案预计在今年下半年就会正式开始商用了,吸引了大家的注意。在这次展示里,高通还透露了未来两年的计划,2027年要推出AI250机架系统,2028年的时候又要推出AI300系统和高通自己设计的CPU。这样的计划给大家展示了高通在AI领域的长期布局。 对于AI200机架来说,它采用了模块化设计。这意味着这个系统由7个独立的5U系统单元组成,总高度是51U。每个系统单元里有4U空间用来装AI加速卡,还有1U空间是用来装2颗AMD EPYC处理器的。这样的结构使得计算和加速能够协同工作。这个解决方案支持PCIe接口进行内部高速通信,还支持800G以太网进行大规模集群通信。 通过这种方式,一个AI200机架可以集成56块AI加速卡和14颗AMD EPYC处理器。这就意味着它可以提供高达43TB的分布式内存容量和强大的并行计算能力。这样设计特别适合那些需要低延迟和高吞吐量的场景,比如实时图像处理和自然语言交互。 给大家看这次展示还有一个亮点是AMD CPU的运用和未来产品的路线图。高通在展示中展示了AMD EPYC处理器作为头节点核心的配置情况。而2028年的时候,数据中心产品线就会有很大变化了,他们会同时推出AI300系统和高通自研CPU。 总之,高通通过这次展示给大家展示了他们对AI基础设施领域未来发展的想法和战略布局。