meta的最新款ai 芯片mtia3 推出后,就已经把英伟达的h100给抛在身后

Meta的最新款AI芯片MTIA3推出后,就已经把英伟达的H100给抛在身后。虽然Meta本身是英伟达最大的客户之一,这次发布却透露出一个清晰的信号:他们要给自研生态体系一把保护伞,让整个公司的运营成本能有所下降。这就意味着Meta不再满足于单纯去购买第三方的GPU,而是希望通过软硬件的深度集成,让自己的PyTorch框架更快地更新最新算法。 这款名为MTIA3的加速器把主要精力放在了推荐系统和推理上。这就让它跟追求通用计算的英伟达芯片有了明显区别。因为它是专门针对Instagram和Facebook背后的推荐算法设计的,同时也为Llama系列的大型模型提供实时推理支持。结果就是在特定任务下,MTIA3能把功耗给降下来不少。 新架构还带来了更强的计算密度,这样就能让单个机架容纳更强大的计算集群。Meta的首席科学家Yann LeCun也直言不讳地说,硬件自主是通往通用人工智能(Artificial General Intelligence, AGI)的必要条件之一。如果这款芯片能顺利进入量产阶段,Meta计划明年把大部分推理任务都转移到自研平台上来。 这一举动给全球AI基础设施带来了不小的震动。现在谷歌、亚马逊这些科技巨头都在大力投入自研芯片领域。比如谷歌的TPU已经发展到了第五代。这种情况不仅能降低对英伟达这类传统厂商的依赖程度,还能推动AI技术的创新速度。 不过,这波“造芯”浪潮也带来了一些新的挑战。欧盟那边出台的《人工智能法案》(EU AI Act)就要求所有技术都得符合法律规范才能发展下去。Meta需要确保自己的自研路线图不会因为外部波动而受影响,同时也要保证硬件技术能走得更远更健康。