
高通技术公司今日宣布推出两款专为数据中心设计的人工智能芯片。
消息发布后,公司股价一度上涨超过15%,目前涨幅约为11%。
这两款新芯片,AI200和AI250,将作为加速卡的一部分出售,可以插入服务器中。高通表示,这些处理器专为注重成本效益的推理应用而设计。根据公司介绍,这些芯片将通过“每美元每瓦的高性能”实现这种成本效益。
高通尚未透露加速器的功耗或预期的处理速度。然而,公司指出,这些芯片基于其Hexagon架构。该架构是高通在其消费级系统芯片中提供的神经处理单元的基础。
基于Hexagon的NPU可以在包括公司旗舰产品Snapdragon 8 Elite Gen 5智能手机处理器在内的产品中找到。该芯片采用三纳米制造工艺。其NPU包括20个基于三种不同设计的核心,可以每秒处理多达220个标记。
高通还将Hexagon集成到其连接设备芯片中。去年,公司推出了一款配备NPU的处理器,旨在为Wi-Fi路由器供电。内置的NPU可以运行本地AI模型,优化任务如过滤恶意网络流量和优化路由器的电源使用。
高通的新AI200和AI250芯片的核心数量可能显著高于其消费级NPU。英伟达公司的Blackwell Ultra包含超过20,000个核心,约为Snapdragon 8 Elite Gen 5中的NPU的1,000倍。
AI200是高通AI芯片中较不先进的一款,提供768GB的LPDDR内存。LPDDR是一种主要用于移动设备的RAM类型。它比服务器中使用的DDR5内存消耗更少的电力,并提供更低的内存带宽。内存带宽决定了数据在芯片核心和附加RAM之间移动的速度,严重影响AI模型的推理速度。
高通表示,AI250将提供比AI200高出10倍以上的内存带宽。芯片制造商可能计划通过用性能更高的RAM品种替换AI200相对较慢的LPDDR内存来实现这一速度提升。一个候选者是HBM内存,它在数据中心AI处理器中被广泛使用。
公司披露,AI250和AI200将包括一个机密计算功能。该技术也由英伟达的Blackwell Ultra支持,将AI芯片的内存分成多个加密部分。只有使用特定内存部分的应用程序才能读取其内容。
高通计划将其AI芯片作为水冷计算机架的一部分进行出货。设备使用PCIe连接其内部组件,并使用以太网提供系统之间的连接。
这些机架可能会包括高通目前正在开发的服务器级中央处理器。除了机器学习加速器外,AI设备还包括管理通用计算任务(如运行操作系统)的CPU。英伟达已经将其机架级DGX AI设备与内部开发的CPU一起出货。
高通将在2026年和2027年分别推出AI200和AI250。公司计划今后每年更新其数据中心AI处理器产品线。
