
社交媒体巨头Meta已经扩大了与CoreWeave的AI基础设施协议,新增了一项价值210亿美元的云计算协议,进一步加强了双方的合作伙伴关系,使总额达到约350亿美元。这是在2025年9月签署的142亿美元协议基础上的扩展。最新的合同将持续到2032年12月,为马克·扎克伯格领导的公司提供了进行AI模型训练和实时部署所需的大规模GPU云系统。这一举措正值Meta增加支出以支持其在应用程序中不断增长的AI产品和服务。
根据最新协议,CoreWeave将为Meta提供专为AI工作负载设计的大规模GPU云基础设施。这些系统针对训练和推理任务进行了优化。训练涉及使用海量数据集构建和优化大型AI模型,而推理则是在数十亿用户的日常交互中实时运行这些模型。随着Meta在全球范围内扩展其AI产品,推理变得越来越资源密集,需要能够处理多个应用程序同时不断需求的低延迟、高吞吐量计算环境。
需要注意的是,CoreWeave的基础设施是围绕高端GPU集群构建的,主要由Nvidia供应,Nvidia在全球AI芯片市场占据主导地位。这些芯片对于现代机器学习工作负载,尤其是需要极大规模并行处理的大型语言模型至关重要。预计合作伙伴关系将包括访问下一代GPU架构,如旨在显著提高AI计算性能和能效的先进Nvidia系统。
与此同时,尽管内部扩张积极,Meta仍继续依赖像CoreWeave这样的外部供应商来弥补即时容量缺口。即便如此,该公司最近透露,到2026年其在AI基础设施上的支出可能高达1350亿美元。
与此同时,CoreWeave在去年首次公开上市后,迅速成为AI基础设施领域的关键玩家。该公司常被描述为‘新云’提供商,因为其运营针对AI工作负载进行了优化,而非传统企业云服务。到2024年,CoreWeave运营了大约32个数据中心。该公司与亚马逊网络服务(AWS)和谷歌云等巨头竞争。2025年,该公司在获得多个重要合作伙伴关系后进一步引起关注,其中包括一项引人注目的与OpenAI的119亿美元协议。
