AMD苏妈甩出大招:目前最强 AI 芯片,高达1530 亿颗晶体管
刘政帆

6 月 14 日报道,今日凌晨,英伟达的头号劲敌 AMD,终于放出了令人期待已久的 AI 大招,这次可谓是有备而来。

2014 年,苏姿丰成为 AMD CEO 时,这家芯片企业正濒临生存危机,裁员约 1/4,股价徘徊在 2 美元。随后在苏姿丰的掌舵之下,AMD 完成了漂亮的转身,9 年来股价飙升近 30 倍,对英伟达和英特尔两家顶级芯片巨头形成了制衡。

随着生成式 AI 飓风席卷全球,英伟达 GPU 被各家大厂争相抢购,焦点很快转移到 AMD 身上 ——AMD 能否生产出足够强大的 AI 芯片来打破英伟达近乎垄断的市场地位,抓住新一波 AI 浪潮?

今日,AMD 交出阶段性答卷。

在展示下一代 AI 芯片 MI300X 加速器时,苏姿丰满面笑容地说:“我爱这颗芯片”。

MI300X 是一个纯 GPU 版本,采用 AMD CDNA 3 技术,使用多达 192 GB 的 HBM3 高带宽内存来加速大型语言模型和生成式 AI 计算

AMD 主要客户将在第三季度开始试用 MI300X,第四季度开始全面生产。另一种型号 Instinct MI300A 现在正在向客户发售。

苏姿丰说,人工智能是 AMD“最大、最具战略意义的长期增长机会”。

现场,AMD 与明星 AI 独角兽企业 Hugging Face 宣布了一项新的合作伙伴关系,为 AMD 的 CPU、GPU 和其他 AI 硬件优化他们的模型。

除了 AI 芯片外,AMD 还推出专为云计算和超大规模用户设计的全新 EPYC 服务器处理器,代号为 Bergamo,每个插槽最多包含 128 个内核,并针对各种容器化工作负载进行了优化。

亚马逊旗下云计算部门 AWS、甲骨文云、Meta、微软 Azure 的高管均来到现场,分享在其数据中心使用 AMD 芯片及软件的感受。

此前,AMD Instinct GPU 已经被许多世界上最快的超级计算机采用。

MI300X 加速器是 AMD Instinct MI300 系列的新成员,提供一个仅有 GPU 配置的芯片版本。MI300X 及其 CDNA 架构专为大型语言模型和其他先进 AI 模型而设计,将 12 个 5nm chiplets 封装在一起,共有 1530 亿颗晶体管。

MI300X 及其 CDNA 架构专为大型语言模型和其他先进 AI 模型而设计,将 12 个 5nm chiplets 封装在一起,共有 1530 亿颗晶体管。MI300X 的 HBM 密度是英伟达 H100 的 2.4 倍,带宽是英伟达 H100 的 1.6 倍,这意味着 AMD 可以运行比英伟达芯片更大的模型。AMD 演示了在单个 MI300X GPU 上运行拥有 400 亿个参数的 Falcon-40B 大型语言模型,让它写了一首关于旧金山的诗。

另一款 MI300A 被苏姿丰称作“面向 AI 和高性能计算的全球首款 APU 加速器”,将多个 CPU、GPU 和高带宽内存封在一起,在 13 个 chiplets 上拥有 1460 亿颗晶体管。

MI300A 采用 5nm 和 6nm 制程、CDNA 3 GPU 架构,搭配 24 个 Zen 4 核心、128GB HBM3,相比 MI250 提供了 8 倍以上的性能和 5 倍以上的效率。

AMD 还公布了一种 AMD Infinity 架构。该架构将 8 个 MI300X 加速器连接在一个考虑了 AI 推理和训练的标准系统中,提供共 1.5TB HBM3 内存。

生成式 AI 和大型语言模型的应用热潮正在将数据中心推向极限。截至目前,英伟达在提供处理这些工作负载所需的技术方面具有优势。根据市场调研机构 New Street Research 的数据,英伟达占据了可用于机器学习的 GPU 市场的 95%。

“我们仍处于 AI 生命周期的非常、非常早的阶段,”苏姿丰预测,到 2027 年,数据中心 AI 加速器总潜在市场规模将增长 5 倍,从今年的 300 亿美元左右以超过 50% 的复合年增长率增长到 2027 年的 1500 亿美元以上。


相关文章
全部评论
钱纪韫
发表评论
回复:
发表回复