(问题)近年来,生成式模型参数规模与训练数据量快速增长,带动算力集群不断扩张。相比计算芯片的迭代速度,数据中心内部及机柜间互联长期以电信号传输为主,带宽上限、能耗和散热压力逐步显现,成为影响训练效率提升的关键环节。多家机构数据显示,AI涉及的工作负载增速加快,而传统交换机在功耗与带宽上的提升空间正在缩小,导致“算得快”与“传得慢”的矛盾加剧,进而影响集群利用率和训练周期。
从实验室走向量产,光互联技术的进展正在缓解AI发展的关键瓶颈,也预示算力基础设施将进入新的升级周期;这个进程表明,面对复杂的系统性技术难题,跨环节、跨产业链的协作往往比单点突破更能加速落地。在数字化持续推进的背景下,技术创新与产业协同的相互促进,仍将为全球经济发展提供重要支撑。