甲骨文详细介绍即将推出的由Nvidia和AMD芯片驱动的AI集群

2025年10月15日 由 佚名 发表 123 0


甲骨文公司今天宣布了计划构建由竞争对手Nvidia公司和超威半导体公司芯片驱动的新人工智能集群。


第一个集群,OCI Zettascale10,将托管在公司的OCI公共云中。它将使客户能够配置最多800,000个Nvidia图形处理单元的AI环境。此外,甲骨文正在构建一个基于Instinct MI450的50,000-GPU集群,这是AMD即将推出的旗舰AI加速器系列。


AI市场的其他关键参与者也在使用来自多个供应商的GPU,以避免对单一芯片制造商的过度依赖。甲骨文在云市场的主要竞争对手都提供Nvidia和AMD GPU的组合。OpenAI已委托数据库制造商提供价值3000亿美元的AI基础设施,计划部署定制的AI芯片,除了目前使用的现成硅片之外。


支撑OCI Zettascale10的架构为甲骨文目前在德克萨斯州阿比林为OpenAI建造的数据中心提供动力。该产品将支持多千兆瓦集群,最多可容纳800,000个Nvidia GPU。甲骨文估计OCI Zettascale10将提供16泽塔浮点运算的峰值AI性能,即每秒16万亿亿次计算。


公司计划使用Nvidia的Spectrum-X系列以太网网络设备将OCI Zettascale10集群中的GPU连接在一起。该产品系列以两个设备为中心。第一个是BlueField-3 SuperNIC,这是一种将GPU服务器连接到数据中心网络的芯片,并将某些计算任务从其主处理器中卸载。该芯片还配有一系列称为Spectrum SN5000的以太网交换机。


甲骨文对网络设备的实施采用了一种称为Acceleron RoCE的技术。通常,在GPU之间移动数据需要通过托管GPU的服务器的中央处理器发送。Acceleron RoCE跳过了这一步骤以提高性能。


甲骨文目前正在接受OCI Zettascale10的订单。该产品将在2026年下半年上市。


“客户可以使用更少的单位性能功耗和实现高可靠性来构建、训练和部署他们最大的AI模型投入生产,”甲骨文云基础设施执行副总裁Mahesh Thiagarajan说。“此外,客户将有自由在甲骨文的分布式云中操作,具有强大的数据和AI主权控制。”


甲骨文计划在配备50,000个AMD的AI集群上线的同时推出OCI Zettascale10MI450图形卡。这些GPU将运行在基于今天芯片制造商详细介绍的新设计Helios的机架中。


一个Helios机架可以容纳72个MI450芯片,每个芯片包括最多432GB的HBM4内存。HBM4是一种尚未大规模生产的高速RAM品种。AMD估计该技术将使Helios提供双倍于配备Nvidia即将推出的Vera Rubin芯片的系统的内存容量和带宽。


Helios机架还包含其他组件。它们将整合AMD即将推出的Venice服务器CPU系列和Vulcano,这是其Pensando数据处理单元系列的未来补充。公司表示,每个Helios机架在处理FP8数据时将能够提供高达1.4 exaflops的性能。


机架将使用液体冷却来去除其组件产生的热量。根据AMD的说法,该系统基于一种双宽设计,旨在使技术人员更容易修复故障。公司将允许硬件合作伙伴扩展核心Helios功能集以适应其需求。


甲骨文计划在2026年第三季度在其OCI数据中心安装首批配备MI450的Helios机架。公司将在2027年开始上线更多系统。

文章来源:https://siliconangle.com/2025/10/14/oracle-details-upcoming-ai-clusters-powered-nvidia-amd-chips/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消