Meta刚刚在Arm的数据中心计划上押下重注,宣布了一项为期多年的合作,将其AI排名和推荐系统迁移到Arm的Neoverse平台。决定数十亿人在Facebook和Instagram上看到内容的算法将很快在Arm上运行,而不再依赖传统的x86处理器。
此举正值Meta面临严峻挑战:公司预计今年将在AI基础设施上花费高达720亿美元。在这种规模下,功耗成为生存问题。以千兆瓦为单位的数据中心需要不同的计算方法。
与最近的AI基础设施交易不同,Arm和Meta没有交换所有权股份或物理基础设施。NVIDIA最近承诺向OpenAI投资1000亿美元,而AMD则向OpenAI提供计算资源以换取价值高达公司10%的股票期权。Meta与Arm的安排更简单:纯粹的技术合作,专注于效率提升。
技术前提很简单。Meta声称基于Arm Neoverse的平台将提供比x86系统更高的性能和更低的功耗,在超大规模下实现性能和功耗的平衡。当你在路易斯安那州建造像Meta的“Hyperion”这样的设施时——占地2250英亩,设计提供5千兆瓦的计算能力——即使是微小的效率提升也能转化为每年数亿美元的节省。
Arm声称,到2025年,向顶级超大规模用户交付的计算中近50%将基于Arm,而在六年前Neoverse推出时几乎为零。AWS率先采用了Graviton处理器。微软和谷歌随后推出了自己的Arm芯片。
这一趋势在本周急剧加速。OpenAI宣布与博通合作开发10千兆瓦的定制AI加速器,有报道称Arm将设计CPU组件。OpenAI的举动——从2026年底到2029年部署——强调了定制硅片已成为AI领导者的战略必需品。经济学是残酷的:一个1千兆瓦的数据中心大约需要500亿美元,其中350亿美元用于Nvidia定价的芯片。定制芯片可以将这些成本降低30%,同时提高效率。
Meta和Arm为Arm架构优化了Meta的AI基础设施堆栈,包括PyTorch和Facebook的GEMM库。这些优化将回馈给开源社区,惠及任何在Arm上构建的开发者。
值得注意的不仅仅是技术迁移——而是验证。Meta加入AWS、谷歌和微软,押注Arm用于AI工作负载,表明数据中心架构战争已发生根本性转变。在千兆瓦规模下构建时,功耗效率不再是可有可无的。