Meta推出自研AI芯片以支持推理工作负载

2026年03月12日 由 佚名 发表 206 0


Meta Platforms Inc.今天宣布,它设计了四款定制芯片,以支持其内部的人工智能工作负载。


该公司上次更新其处理器开发工作是在2024年。当年4月,它推出了一款功耗为90瓦的定制AI加速器。Meta今天推出的四款加速器中,最先进的一款的热设计功耗为1700瓦。


公司在2024年4月揭示的定制芯片MTIA 200,专为运行排名和推荐模型而设计。这些神经网络用于决定在用户动态中显示哪些帖子和广告。


今天揭示的第一款新芯片MTIA 300,专注于相同的使用场景。在处理MX8格式的数据时,它可以提供1.2 petaflops的性能,并配备216 GB的HBM内存。


“MTIA 300由一个计算芯片组、两个网络芯片组和若干HBM堆栈组成,”一组Meta工程师在博客文章中写道。“每个计算芯片组由一个处理单元(PE)网格组成,其中一些冗余PE用于提高产量。”


MTIA 300是Meta已经在生产中部署的四款新揭示芯片中唯一的一款。其他三款处理器支持更广泛的使用场景。除了排名和推荐工作负载外,它们还可以运行生成式AI软件,如大型语言模型。


该系列中最先进的芯片MTIA 500,在处理MX8数据时可以提供10 petaflops的性能。它还支持一种更高效的数据格式MX4。后者技术减少了AI模型必须分析的字节数以回答提示,从而加快了处理速度。


MTIA 500使用四个逻辑芯片组进行计算。模块被多个HBM内存堆栈包围,这些堆栈可以一起存储多达516 GB的数据,是MTIA 300的两倍。处理器组件列表的最后一项是一个所谓的SoC芯片组,负责将信息传输到主机服务器并从中获取信息。


预计MTIA 500将在2027年与一款类似但不太先进的芯片MTIA 450一起投产。两款处理器都针对生成式AI推理工作负载进行了优化。它们包括设计用于加速推理工作流中特定硬件密集型元素的电路,如FlashAttention。这是一种流行的注意力机制实现,LLM用它来分析输入数据。


“在系统层面,MTIA 400、450和500都使用相同的机箱、机架和网络基础设施,”Meta工程师写道。“因此,每一代新芯片都可以放入相同的物理空间,加速从硅到生产部署的过渡。我们的模块化、可重用设计也最大限度地减少了开发和部署多代芯片所需的资源。”


Meta使用定制编译器来优化其MTIA芯片的AI模型。另一个定制软件模块Hoot Collective Communications Library管理处理器之间的数据流。它使用位于内存单元附近的晶体管进行某些计算,从而减少数据传输时间并提高性能。


这些芯片的推出不到一个月后,Meta同意从Nvidia Corp.和Advanced Micro Devices Inc.购买价值数十亿美元的处理器。大约在同一时间,消息人士告诉The Information,Facebook母公司还计划采用Google LLC的TPU加速器。据报道,它将使用这些芯片来运行LLM。


文章来源:https://siliconangle.com/2026/03/11/meta-debuts-internally-developed-ai-chips-inference-workloads/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消