作者丨邱晓芬
编辑丨苏建勋
2023年以来,AI芯片是AMD虎视眈眈的领域。在今年年初CES上发布过 MI300系列之后,美国时间12月6日,AMD在其举办的Advancing AI 活动上,又发布了这一系列两款新芯片——MI 300X和MI 300A。
MI 300X芯片是适用于各种各样生成式AI应用场景的芯片;MI 300A则更适用于用在HPC 应用和数据中心上。
在硬件参数配置上,两颗芯片有共性也有差异。
两颗芯片都采用采用了一种名为“3.5D封装“的技术来生产,并且也都是基于 AMD第四代的Infinity架构打造。
在内存方面,两颗芯片都采用了现下大热的HBM 3设计,但是MI 300A用的是 128GB的 HBM 3设计,MI 300X 用的是内存更大的 192GB HBM 3设计;
在计算单元方面,MI 300X 搭载了304个CDNA 3 计算单元,每个计算单元中还有34个计算单位。而MI 300A的计算单元更少,只有228个。
在发布会上,AMD几乎全程对标英伟达H100 芯片。从官方披露的数据来看,MI 300X的内存配置是英伟达H100的2.4 倍,峰值存储带宽也是英伟达的2.4 倍,另外, FP8、FP16、TF32算力是英伟达H00的 1.3 倍。
软件是 AI芯片生态中不可获缺的一环,在此前的发布会上,AMD曾经介绍过他们的AI软件套件ROCm——和英伟达专有的CUDA不同,这是一个开放开源的平台。
不过短短几个月时间,AMD就推出了最新版本的ROCm 6,主要是大模型做了深度优化。
比如,当企业使用MI300X平台、搭配ROCm 6,相比于上一代的配置(MI250芯片+ROCm 5),跑70亿参数量的 Llama 2的延迟时间少了8倍。若跑130亿参数量的 Llama 2,综合表现甚至还是英伟达H100的1.2 倍。
产品有了, AMD此次也公布了商业化的进展。
AMD方面宣布,OpenAl也宣布增加了AMD Instinct系列 AI加速器的使用。微软、Meta、Oracle三家大厂,对于MI 300X芯片也兴趣浓厚。
其中,微软提到讲采用这可芯片来为Azure ND MI 300X v5 VM赋能;Meta则计划在其数据中心部署MI 300X和ROCm 6;Oracle则将提供基于MI 300X加速器的裸金属计算方案,并基于此生成式AI服务。
另外,惠普、戴尔、联想等数家数据中心基础设施提供商,也宣布将计划在其产品集成MI300。
在发布会上,AMD董事长苏姿丰表示,预计到2027年,用于数据中心的人工智能芯片的整体市场规模将达到4000亿美元,年复合增长率将达到 70%。
此前,在 AMD的财报会议上,苏姿丰对于这一系列寄予厚望,她曾表示, 随着数据中心 GPU的增长, MI300系列可能会成为 “AMD 历史上销售额突破 10 亿美元最快的产品。