吴雄昂提出开放架构异构算力平台思路:瞄准将定制AI芯片开发门槛降至“亿元级”以内

问题——定制AI芯片成本高、周期长,“异构”成为隐性痛点 近年来,大模型、智能终端和机器人应用加速落地,带动AI算力需求快速上升;相比通用芯片,面向特定行业和工作负载的定制芯片往往更能兼顾能效与成本,但高投入、长周期的门槛也越来越突出。吴雄昂指出,业内定制高性能计算芯片通常需要更高的IP预算以及复杂的软硬件集成,整体投入往往达到上亿美元。除少数头部企业外,许多创新团队难以进入此赛道。 他看来——除了成本——更容易被忽视的瓶颈来自“异构性”带来的系统复杂度:当CPU、GPU、DSP以及各类专用加速器同时存在于一个系统中,如果底层软件流水线、编译工具链和生态各自为政,系统集成与迭代成本会快速攀升,产品上市时间也被深入拉长。 原因——AI处理器走向“融合体”,工具链碎片化推高综合成本 吴雄昂判断,未来的AI处理器未必由单一指令集或单一计算单元构成,更可能是针对不同任务组合的“融合体”:既具备通用CPU能力,也包含面向并行计算的图形/矩阵类算力单元,并叠加针对特定领域或模型负载的专用加速模块。随着多模态模型、端侧推理和实时控制需求增长,处理器形态将更强调“按需定制、组合优化”。 但在现实中,不同架构和供应体系往往对应不同的开发环境与工具链,软硬件协同难度高,重复开发现象普遍。吴雄昂认为,如果仅以“采用某一种架构”来划分路线,容易陷入非此即彼。更可行的方向,是构建兼容多种架构、适配多类计算单元的开放平台,把系统工程的复杂性尽量下沉并标准化,让开发者把更多精力投入算法、应用和产品差异化。 影响——降本增效有望拓宽创新主体,重塑机器人等场景的算力供给方式 业内普遍认为,定制芯片的“高门槛”直接削弱产业创新活力:一上,初创企业和中小企业难以承担一次性投入,往往被迫选择通用芯片方案,能效与成本上受限;另一上,即便资金充足,漫长的开发周期也可能跟不上应用迭代节奏,导致错过窗口期。 吴雄昂提出的“开放架构+异构融合”思路,如果能沉淀为可复用、可扩展平台能力,可能带来两方面的外溢效应:其一,通过统一底层软件与工程化流程,提高IP复用和模块化集成效率,降低一次性投入;其二,通过“即插即用”的组合能力,为快速变化的工作负载预留迭代空间,减少因架构固化带来的试错成本。 他特别提到,机器人等“物理AI计算”领域的软件栈仍在快速演进,涉及大模型推理、视觉-语言-动作协同、世界模型等方向。在这类场景中,过于固定的硬件架构可能反而成为负担;能够随着软件成熟调整算力配比的计算平台,更具现实价值。 对策——以开放架构为“通用基线”,推动成本下降与周期压缩 围绕行业普遍关注的“1亿美元门槛”,吴雄昂表示,其团队目标是同时拉低成本与时间两条曲线:以开放指令集和通用软件底座为基础,将CPU、并行计算核心与专用加速模块纳入相对统一的开发和验证体系,通过平台化方式减少不同供应商、不同工具链之间的兼容问题,从而压缩前期IP和集成成本,争取实现更明显的降本效果。 在表述上,他强调“开放架构处理器平台”而非单一标签,意在突出兼容与协作:平台面向多种处理器架构与加速单元的组合需求,使用者可根据工作负载和目标市场选择算力配比,并在后续迭代中保留升级空间。其团队已推出名为“Atlantis”的平台化探索,希望以标准化底层与可配置模块,支撑面向AI负载的多形态芯片设计与系统落地。 前景——平台化与生态化或成下一阶段竞争焦点,标准与工程能力决定落地速度 从产业趋势看,AI计算正从“比单点性能”转向“比系统效率与生态适配”。谁能更快降低异构系统的复杂度,谁就更有可能在机器人、工业智能、边缘计算等新兴市场抢占先机。但同时也要看到,开放平台要形成规模效应,仍取决于几个关键因素:一是软件栈与工具链的成熟度,二是与上下游生态的协同程度,三是验证体系、可靠性以及供应链管理等工程能力。 业内人士认为,未来一段时间,定制化与通用化不会相互替代,而是并行发展:通用芯片继续提供基础算力,平台化定制能力则面向更细分、更加看重能效与成本的场景。随着应用侧对实时性、功耗、成本与安全提出更综合的要求,能够在开放生态下实现快速定制与持续迭代的方案,可能获得更大市场空间。

在全球科技竞争加速的背景下,突破核心技术瓶颈离不开更多像吴雄昂这样的实践者。通过开放协作与技术创新降低研发门槛,不仅有助于加快AI技术落地,也能为更具活力的产业生态提供新的路径。该探索或将为中国在关键核心技术领域的自主创新带来参考。