在 AMD 的 Advancing AI 活动上,首席执行官 Lisa Su 上台宣布了一系列针对 AI 客户的创新。从最新的第五代 EPYC 处理器到下一代 Instinct 加速器,AMD 正在加倍投入用于 AI 工作负载的高性能硬件。这些新技术有望提高人工智能处理能力并简化企业和云计算的工作负载。
AMD 推进 AI 2024 一览
让我们来分解一下主要的公告 推进人工智能 事件。
第五代 EPYC 处理器:释放 Zen 5 的力量
苏丽莎为活动拉开序幕 介绍 AMD 第五代 EPYC(霄龙)产品组合,围绕全新 Zen 5 核心构建。 “我们将 Zen 5 设计为服务器工作负载中最好的,”Su 解释道,并强调其 IPC 比 Zen 4 提高了 177%。新处理器具有多达 192 个内核和 384 个线程,突破了服务器性能的极限。
突出的一点是这些芯片提供的灵活性。 Su 指出:“我们从架构的角度进行了思考——如何构建业界最广泛的涵盖云和企业工作负载的 CPU 产品组合?”这种性能和多功能性的平衡旨在处理从人工智能头节点到要求苛刻的企业软件的一切。
AMD Turion 芯片:云和企业的扩展
此次活动还推出了 AMD 全新 Turion 芯片,该芯片专门针对不同类型的工作负载进行了优化。苏透露了两个关键版本:一个是针对纵向扩展的企业应用设计的128核版本,另一个是针对横向扩展的云计算的192核版本。两者都是为了实现每个核心的最大性能而构建,这对于软件通常按核心进行许可的企业工作负载至关重要。
“192 核版本确实针对云进行了优化,”Su 解释道,并强调这些芯片将为云提供商提供他们所需的计算密度。 AMD 还将其新的 EPYC 芯片与竞争对手进行了比较,结果表明第五代 EPYC 的性能比领先的替代品高出 2.7 倍。
AMD Instinct MI325X:专注于 AI 的 GPU
谈到AI加速,苏 宣布 AMD Instinct MI325X,该公司最新的专注于人工智能的 GPU。 “我们以 256 GB 的超快 HBM3E 内存和每秒 6 TB 的带宽引领行业,”Su 说。 MI325X 专为处理生成式 AI 等要求严苛的 AI 任务而设计,与之前的型号相比,推理性能提高了 20-40%,延迟也得到了改善。
除了内存和性能提升之外,AMD 在设计 MI325X 时还考虑到了易于部署。 “我们保留了一个通用的基础设施,”苏提到,可以与现有系统无缝集成。这将使人工智能客户更容易采用该技术,而无需对其平台进行彻底改造。
AMD Instinct MI350 系列
此次活动还 假如 通过 MI350 系列一睹 AMD 的未来。 MI350 计划于 2025 年下半年推出,引入了新的 CDNA 4 架构,并提供惊人的 288 GB HBM3E 内存。 Su表示,CDNA 4将带来“与CDNA 3相比,AI性能提升35倍”。
这种新架构旨在以更高的效率处理更大的人工智能模型,并且其与之前的 Instinct 模型的向后兼容性确保了客户的平稳过渡。
ROCm 6.2:AI 工作负载的更好性能
AMD 对优化 AI 性能的承诺超出了硬件范围,Su 宣布 ROC 6.2,AMD 人工智能软件堆栈的最新更新。新版本为关键 AI 推理工作负载提供了 2.4 倍的性能,为 AI 训练任务提供了 1.8 倍的性能提升。这些改进来自算法、图形优化和改进的计算库的进步。
“我们最新版本的重点是最大限度地提高专有和公共模型的性能,”Su 解释道,这表明 AMD 也在努力保持人工智能软件领域的竞争力。
图片来源: 凯雷姆·葛兰/表意文字