AMD 推出全新 AI 高性能计算解决方案,提供领先计算能力
上证报中国证券网讯(郑维汉记者李兴彩)10月11日,在 上,AMD推出全新的AI高性能计算解决方案,包括第五代AMD EPYC服务器CPU、AMD 加速器、AMD DPU、AMD 和用于企业AI PC的AMD Ryzen AI 系列处理器。
AMD董事会主席及首席执行官苏姿丰博士表示:“借助我们的全新EPYC CPU、AMD GPU和 DPU,我们将提供领先的计算能力,为客户最重要和最苛刻的工作负载提供支持。展望未来,我们预计数据中心AI加速器市场规模将在2028年增长至5000亿美元。”
2018年,AMD EPYC服务器CPU仅有2%的市场份额,不到7年时间,今天已经达到34%,数据中心和AI为AMD带来了巨大的增长机会。
EPYC CPU全面升级
作为AMD的核心产品之一,AMD EPYC服务器CPU迎来全面升级。
代号为“都灵(Turin)”的第五代AMD EPYC服务器CPU(AMD 系列CPU)采用“Zen5”核心架构,兼容SP5平台,提供至多192个核心,最高频率达5GHz,指令集支持完整的512位宽的数据路径。
AMD表示,AMD 是面向AI的先进CPU。与传统硬件相比,AMD 能够在显著减少机架数量的情况下实现同等整数运算性能,极大减少占用的物理空间、功耗和所需的软件许可证数量,从而为新的或增长的AI工作负载释放空间。
AMD还表示,AMD 具备出众的AI推理性能。与上一代产品相比,运行两个第5代AMD 的服务器可提供高达2倍的推理吞吐能力。
AMD高级副总裁兼服务器事业部总经理Dan 表示:“AMD已证明其能够满足数据中心市场的需求,并为客户树立了足以满足云、企业和AI工作负载需求的数据中心性能、效率、解决方案和功能的标杆。”
GPU稳步前进
作为AI算力的重要载体,AMD GPU也迎来更新迭代。此外,AMD还公布了2025年及2026年的GPU产品路线规划。
AMD 基于第三代AMD CDNA架构打造,拥有256GB HBM3E内存和6TB/秒的内存带宽,带来了令人赞叹的训练和推理的性能和效率,树立了AI性能的新标准。在AMD公布的数据中,AMD 在多个模型的推理领域优于英伟达H200。
AMD表示,AMD 目前有望在2024年第四季度投产出货,而戴尔、技嘉、惠普、联想等合作伙伴的整机系统、基础架构解决方案将从2025年第一季度开始推出。
在未来的产品布局方面,相比基于AMD CDNA3架构的加速器,基于AMD CDNA4架构的AMD MI350的推理性能将提高35倍。同时,AMD MI350至多可配备288GB HBM3E内存,并有望在2025年下半年上市。
AMD还表示,其在基于AMD CDNA Next架构的AMD MI400的开发方面取得了重大进展,计划于2026年上市。
提升AI网络的性能
当前,AI网络对于确保CPU和加速器在AI基础设施中得到有效利用至关重要。
为支持下一代AI网络,AMD正在利用广泛部署的可编程DPU为超大规模计算提供支持。该AI网络可分为两个部分:向AI集群传输数据和信息的前端,和管理加速器和集群之间的数据传输的后端。为此,AMD推出了面向前端的AMD DPU,和面向后端的AMD 。
AMD DPU是全球性能最高、可编程性最强的第三代DPU之一,与上一代产品相比,其性能、带宽和规模提高了2倍。AMD DPU支持400G的吞吐量,可实现高速传输数据,是AI前端网络中的关键组件,为数据驱动的AI应用优化性能、效率、安全性和可扩展性。
则是业内首个UEC-ready AI NIC(符合超以太网联盟规范的AI网卡),其支持下一代RDMA软件和开放的网络生态,可在后端网络中保证加速器间具备性能领先、可扩展和有效率的通信。
在上市时间方面,AMD DPU和AMD 均将于2024年第四季度向客户提供样品,预计将于2025年上半年上市。
AMD执行副总裁兼数据中心解决方案事业部总经理 表示:“凭借全新的AMD 加速器、EPYC处理器、AMD 网络引擎、开放的软件生态和将这些东西整合为AI基础设施的能力,AMD完全具备构建和部署世界一流AI解决方案的关键专业知识。”