高通推出AI200和AI250数据中心AI芯片

2025年10月28日 由 佚名 发表 15 0


高通技术公司今日宣布推出两款专为数据中心设计的人工智能芯片。


消息发布后,公司股价一度上涨超过15%,目前涨幅约为11%。


这两款新芯片,AI200和AI250,将作为加速卡的一部分出售,可以插入服务器中。高通表示,这些处理器专为注重成本效益的推理应用而设计。根据公司介绍,这些芯片将通过“每美元每瓦的高性能”实现这种成本效益。


高通尚未透露加速器的功耗或预期的处理速度。然而,公司指出,这些芯片基于其Hexagon架构。该架构是高通在其消费级系统芯片中提供的神经处理单元的基础。


基于Hexagon的NPU可以在包括公司旗舰产品Snapdragon 8 Elite Gen 5智能手机处理器在内的产品中找到。该芯片采用三纳米制造工艺。其NPU包括20个基于三种不同设计的核心,可以每秒处理多达220个标记。


高通还将Hexagon集成到其连接设备芯片中。去年,公司推出了一款配备NPU的处理器,旨在为Wi-Fi路由器供电。内置的NPU可以运行本地AI模型,优化任务如过滤恶意网络流量和优化路由器的电源使用。


高通的新AI200和AI250芯片的核心数量可能显著高于其消费级NPU。英伟达公司的Blackwell Ultra包含超过20,000个核心,约为Snapdragon 8 Elite Gen 5中的NPU的1,000倍。


AI200是高通AI芯片中较不先进的一款,提供768GB的LPDDR内存。LPDDR是一种主要用于移动设备的RAM类型。它比服务器中使用的DDR5内存消耗更少的电力,并提供更低的内存带宽。内存带宽决定了数据在芯片核心和附加RAM之间移动的速度,严重影响AI模型的推理速度。


高通表示,AI250将提供比AI200高出10倍以上的内存带宽。芯片制造商可能计划通过用性能更高的RAM品种替换AI200相对较慢的LPDDR内存来实现这一速度提升。一个候选者是HBM内存,它在数据中心AI处理器中被广泛使用。


公司披露,AI250和AI200将包括一个机密计算功能。该技术也由英伟达的Blackwell Ultra支持,将AI芯片的内存分成多个加密部分。只有使用特定内存部分的应用程序才能读取其内容。


高通计划将其AI芯片作为水冷计算机架的一部分进行出货。设备使用PCIe连接其内部组件,并使用以太网提供系统之间的连接。


这些机架可能会包括高通目前正在开发的服务器级中央处理器。除了机器学习加速器外,AI设备还包括管理通用计算任务(如运行操作系统)的CPU。英伟达已经将其机架级DGX AI设备与内部开发的CPU一起出货。


高通将在2026年和2027年分别推出AI200和AI250。公司计划今后每年更新其数据中心AI处理器产品线。


文章来源:https://siliconangle.com/2025/10/27/qualcomm-debuts-ai200-ai250-data-center-ai-chips/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消