Akamai 今天宣布了一项重大的产品发布:2028年,全球的 AI 推理能力预计会增长到模型训练的3倍。这种增长带来了新的挑战。为了解决这个问题,Akamai 推出了他们的 Akamai AI Grid。这个 AI Grid 通过把 NVIDIA 提供的 4400 个边缘站点整合到全球互联网中,给 AI 推理带来了革命性的改变。这不仅提升了实时互动的效率,还重新定义了 AI 的“Token 经济”。 最近,OpenClaw(昵称:龙虾)的火爆让人们真切地感受到了 AI 的潜力。然而,随着全球企业争相将人工智能融入业务核心,一个关键问题变得日益突出:AI 推理的“最后一公里”成为了性能瓶颈。大型语言模型和多模态应用需要的是瞬时响应,但是传统的中心化数据中心处理这些请求时却需要较长时间。这种往返延迟给实时互动体验带来了明显影响。 Akamai 给解决这个问题提供了一种全新思路:通过智能编排技术,把 NVIDIA GPU 的计算能力融入到 Akamai 全球4400个边缘站点中。这就是 Akamai AI Grid。该系统把推理任务调度到距离用户最近的边缘站点上处理。这种做法不仅缩短了数据传输距离,还使得游戏工作室能够实现亚50毫秒的 AI 驱动型 NPC 交互,金融机构可以在登录瞬间完成欺诈检测和个性化推荐,广播公司可以为全球观众提供无延迟的实时转码与配音。 这种边缘计算模式是为了适应 Gartner 和 IDC 的预测:到2028年,全球AI推理所消耗的算力预计将达到模型训练的3倍。而根据 IDC 的数据显示,到2028年50%的企业会把推理类用例部署在边缘侧。Akamai 的优势在于其长时间积累的分布式架构经验。通过这种分布式架构,Akamai 不再只是把内容分发缓存到边缘站点上,而是在这些站点上集成了基于 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU 的推理能力。 “边缘即核心”的概念正在改变 AI 推理生态系统。传统上我们总是倾向于把训练和推理都集中在数据中心进行处理。然而在物理 AI 应用中(如自动驾驶、机器人)以及高并发个性化推荐场景中,这种集中式模式限制了系统性能和用户体验。因为数据从产生到传输至中心节点再返回的往返时间往往超过了应用本身可容忍的阈值。 Akamai Inference Cloud 最近推出了 AI Grid 智能编排系统给这个问题提供了一个解决方案。这个系统给企业提供了一种更智能、更灵活的方式来调度他们的 AI 工作负载。通过这个系统来进行智能调度,“Token 经济”在全球范围内变得更加均衡且优化。Adam Karon 是 Akamai 云技术事业部首席运营官兼总经理。他表示:“我们知道企业 AI 应用正在向代理式和物理AI转变,他们需要更高效、更快速的基础设施支持。” 对于那些需要高密度计算或复杂多模态推理任务的用户来说,Akamai Inference Cloud 会将他们的工作负载导向核心节点上专用GPU集群进行处理。而对于长尾或延迟敏感型轻量级任务来说,这个系统会将它们保留在边缘站点上进行处理。通过这种精细化调度策略,高端任务可以获得优质GPU周期支持;同时边缘资源也能得到充分利用以降低整体成本。“这种智能调度策略不仅提升了效率还有助于降低企业整体推理成本”。 去年Akamai Inference Cloud 一经推出就受到客户高度认可。根据披露信息显示他们已经与一家处于AI革命前沿的美国大型科技公司签署了四年期价值2亿美元协议以提供高性能计算服务。随着 Akamai AI Grid 的发布现在这个服务不仅只是把GPU放在边缘站点上进行分布还通过智能编排技术把高密度计算从核心分发到触点上去给全球用户提供实时访问服务体验。对于整个行业来说这是一个重要转折点:未来AI竞争不再单纯取决于拥有多少算力而在于如何在全球范围内智能地调度这些资源以最佳效果服务每一次实时互动。