首页 / 数字电子技术 / amd的千亿晶体管芯片是什么(amd的千亿晶体管芯片怎么样)

amd的千亿晶体管芯片是什么(amd的千亿晶体管芯片怎么样)

Time:2024-05-19 09:12:00 Read:322 作者:CEO

AMD在2023年国际消费电子展上推出了其下一代InstinctMI300加速器,我们有幸获得了一些动手时间,并拍摄了几张这款庞大芯片的特写照片。毫无疑问,InstinctMI300是一个改变游戏规则的设计——这个数据中心APU混合了总共13个小芯片,其中许多是3D堆叠的,以创建一个具有24个Zen4CPU内核并融合了CDNA3图形的芯片引擎和8堆HBM3。总体而言,该芯片拥有1460亿个晶体管,是AMD投入生产的芯片。

关于这个芯片的更多信息,我们可以参考文章《AMD推出13个Chiplet,1460亿晶体管的InstinctMI300加速器》

amd的千亿晶体管芯片是什么(amd的千亿晶体管芯片怎么样)

与许多HPC和AI系统构建者一样,我们迫不及待地想看看AMD的“Antares”InstinctMI300A混合CPU-GPU片上系统在性能和价格方面的表现。

随着ISC2023超级计算大会在几周后召开,劳伦斯利弗莫尔国家实验室的技术官BronisdeSupinski将在会上发表了关于未来“ElCapitan”百亿亿级系统的演讲,该系统将成为AntaresGPU的MI300A变体的旗舰机器,它在我们的脑海中。

因此,为了好玩,我们提取了trustExcel电子表格,并试图估计作为ElCapitan系统的MI300AGPU的进给和速度可能是多少。是的,这可能是愚蠢的,考虑到AMD可能会在ISC2023及以后更多地谈论MI300系列GPU,我们终将准确地知道这个计算引擎是如何构建的。但是很多人一直在问我们,MI300系列是否可以与Nvidia“Hopper”H100GPU加速器竞争。也许更重要的是,与将HopperH100GPU和72核“Grace”ArmCPU紧密捆绑创建的Grace-Hopper混合CPU-GPU复合体竞争时。AMD的这个产品表现如何?它将与将在ElCapitan部署的MI300A进行正面交锋。

考虑到基于大型语言模型的生成AI应用程序的AI训练激增,以及AMD希望通过其GPU在AI训练中发挥更多作用,对GPU计算的强烈需求,我们认为需求将超过Nvidia供应,这意味着尽管NvidiaAI软件堆栈相对于AMD具有巨大优势,但后者的GPU将获得一些AI供应胜利。前身“Aldebaran”GPU已经为AMD赢得了一些令人印象深刻的HPC设计胜利,特别是在橡树岭国家实验室的“Frontier”百亿亿级系统中,其中四个双芯片GPU连接到定制的“Trento”EpycCPU以创建一个更松散耦合的混合计算引擎。(还有其他的。

人们不会比在1990年代末和2000年代初添加Web基础设施以使他们的应用程序现代化以在Internet上为他们部署接口更有耐心地在今天的工作负载中添加生成AI。这的不同之处在于,数据中心并没有将自己转变为通用的X86计算基板,而是越来越成为一个竞争和互补架构的生态系统,这些架构交织在一起以提供整体上的性价比跨更广泛的工作负载。

我们对MI300系列还不是很了解,但在1月份,AMD谈了一些关于该设备的信息。我们有该设备的图像,我们知道它的AI性能将是Frontier系统中使用的现有MI250XGPU加速器的8倍和5倍的每瓦AI性能。我们知道整个MI300A综合体在其六个GPU和两个CPU小芯片上有1460亿个晶体管。我们认为,晶体管数量的很大一部分是在四个6纳米的tile中实现的,这些瓦片将CPU和GPU计算元素互连,并且在它们上面实现了InfinityCache。很难说这个缓存用了多少晶体管,但我们期待着找出答案。

顺便说一下,我们认为MI300A被称为AMD旗舰并行计算引擎的APU版本——意思是在一个封装上结合了CPU和GPU内核。这意味着将有非APU、仅GPU的AntaresGPU版本,可能在这四个互连和缓存芯片之上多有八个GPU小芯片.

用今年早些时候AMD的语言来说非常,8倍和5倍的数字是基于对MI250XGPU的测试和对MI300A复合体的GPU部分的建模性能。非常具体地说,这就是AMD所说的:“AMD性能实验室在2022年6月4日对当前规格进行的测量和/或对估计交付的FP8浮点性能的估计,其中结构稀疏性支持AMDInstinctMI300与MI250XFP16(306.4基于峰值理论浮点性能的80%估计交付的TFLOPS)。MI300的表现基于初步估计和预期。终表现可能会有所不同。”

因此,这是我们的表格,根据AMD到目前为止所说的情况,估计MI300A的馈送和速度可能是什么样子,与往常一样,大量猜测以粗体红色斜体显示。如果MI250X的FP16性能是383teraflops,那么这意味着8X倍数,包括降档到FP8数据格式和处理,具有稀疏支持的MI300A(提供8X倍数的另外2倍)可以推动3,064teraflops峰值。如果MI250X的额定功率为560瓦,那么MI300A的GPU部分必须以900瓦的功率运行才能产生AMD所说的每瓦性能提高5倍。

如果以上所有这些都是正确的,那么MI300ACPU复合体的性能必须是MI250X的4倍。如果您假设时钟速度保持在1.7GHz,那么这意味着MI300A的六个GPU小芯片的计算单元和流处理器数量必须是MI250X的4倍。如果AMD能够提高时钟速度(我们认为从6纳米到5纳米工艺的转变不太可能——不是一个巨大的跳跃),那么AMD会用它来尝试在相同的功率范围内提高时钟速度。但我们将在公告日看到。

就像Nvidia将H100GPU中的矩阵数学单元的性能提高到比向量单元高出数倍一样,我们认为AMD也会对MI300A混合计算引擎做同样的事情。如果矩阵单元有4倍的改进,那么矢量单元可能只会有2倍的改进。这是另一种说法,许多HPC工作负载不会像AI训练工作负载那样加速,除非并且直到它们被调整为在矩阵数学单元上运行。

在我们于2021年12月的分析中,当MI250X首次运往橡树岭以建造Frontier机器时,我们估计其中一个GPUmotors的标价可能在14,500美元左右,比时售价为12,000美元Nvidia“Ampere”A100SXM4GPU加速器更高。在2022年3月发布H100之后,我们估计高端H100SXM5(您不能从HGX系统板单独购买)的价格在19,000美元到30,000美元之间,并且PCI-Express版本的H100GPU的价值可能在15,000美元到24,000美元之间。当时,由于需求增加,A100SXM4的价格已涨至15,000美元左右。而就在几周前,PCI-Express版本的H100在eBay上以每件40,000多美元的价格拍卖。这太疯狂了。

这个情况比美国这里的二手车市场还要糟糕,是一种需求过多供应过少的通货膨胀。当供应商知道他们无论如何都无法生产足够的单位时,他们会喜欢这种情况。超大规模和云建设者正在限制他们自己的开发人员对GPU的访问,我们不会对云中GPU容量的价格上涨感到惊讶。

当谈到启用稀疏性的FP8性能时,MI300A将提供大约3petaflops的峰值理论性能,但相对于128GB的HBM3内存和大约5.4TB/秒的带宽。NvidiaH100SXM5单元具有80GB的HBM3内存和3TB/秒的带宽,额定峰值性能为4petaflops,在FP8数据分辨率和处理上具有稀疏性。AMD设备的峰值性能降低了25%,但内存容量增加了60%,如果设备上的所有这八个HBM3堆栈都可以完全填充,则内存带宽可能增加80%。(我们当然希望如此。)我们认为许多AI商店将完全可以牺牲一点峰值性能来换取更多的内存带宽和容量,这有助于提高实际的AI训练性能。

我们可以肯定地说,ElCapitan是MI300A计算引擎的线,要在普通64位双精度浮点上突破2.1exaflops峰值,将需要22,000个插槽,在这种情况下,一个插槽是一个节点。目前的“Sierra”系统已有4320个节点,每个节点有4,320个节点,每个节点有2个IBM的Power9处理器和4个Nvidia的“Volta”V100GPU加速器。

Sierra中总共有17,280个GPU,如果我们对MI300A的FP64性能的猜测是正确的——我们首先承认这只是一种预感——那么ElCapitan中的GPU插槽只比之前多27%塞拉利昂。但,每个ElCapitan插槽中有六个逻辑GPU,因此更像是132,000个GPU来提供可能为2.1exaflops的性能。这将使两个系统的原始FP64性能提高16.9倍,价格提高4.8倍,GPU并发性提高7.6倍。ElCapitan必须提供至少比Sierra高10倍的性能,并且在不到40兆瓦的热包络内做到这一点。

如果我们对所有这些都是正确的,那么仅用于计算引擎的2.1exaflopsElCapitan的功耗约为25兆瓦。ElCapitan必须提供至少比Sierra高10倍的性能,并且在不到40兆瓦的热包络内做到这一点。如果我们对所有这些都是正确的,那么仅用于计算引擎的2.1exaflopsElCapitan的功耗约为25兆瓦。ElCapitan必须提供至少比Sierra高10倍的性能,并且在不到40兆瓦的热包络内做到这一点。如果我们对所有这些都是正确的,那么仅用于计算引擎的2.1exaflopsElCapitan的功耗约为25兆瓦。

作为对这整个事情的价格检查,如果ElCapitan机器85%的成本是CPU-GPU计算引擎,并且有22,000个,那么它们的成本约为23,200美元。超大规模和云建设者为他们支付的费用绝不会低于基本上赞助AMD进军HPC高层的美国国家实验室所支付的费用。(这是很多“如果”,我们很清楚。)

过去,我们实际上是通过倒推HPC国家实验室的深度折扣,从超级计算交易中计算出GPU的标价。例如,在Sierra中使用的VoltaV100加速器,GPU的标价约为7,500美元,但以每张4,000美元左右的价格卖给了LawrenceLivermore和OakRidge。因此,如果旧的折扣水平普遍存在,MI300A的标价可能会超过40,000美元。我们认为折扣不那么陡峭,因为AMD为MI300A引擎增加了更多的计算能力,而且每单位价格也低了很多——标价更像是市场价,因为AMD需要积极取代Nvidia。

请记住,当初的ElCapitan交易于2019年8月宣布将于2022年底交付并在2023年底前验收时,它被指定为具有1.5exaflops持续性能和大约30兆瓦功耗的机器,仅用于运行系统。

这一切给我们留下了两个问题。一:AMD能做多少台MI300A设备?如果进入ElCapitan的数量远远超过计划,那么它可以设定价格并全部出售。第二:AMD会以激进的价格出售它们还是推到市场可以承受的价格?

第二个问题不难回答吧?在这个牛市GPU市场中,AI不会受到衰退的影响。如果人工智能在取代人类方面越来越成功,它甚至可能会加速经济衰退。...到目前为止,真正的衰退和人工智能加速的衰退都没有发生。

Copyright © 2002-2024 应用电子技术网 版权所有 
备案号: 滇ICP备2023006467号-62

免责声明: 1、本站部分内容系互联网收集或编辑转载,并不代表本网赞同其观点和对其真实性负责。 2、本页面内容里面包含的图片、视频、音频等文件均为外部引用,本站一律不提供存储。 3、如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除或断开链接! 4、本站如遇以版权恶意诈骗,我们必奉陪到底,抵制恶意行为。 ※ 有关作品版权事宜请联系客服邮箱:478923*qq.com(*换成@)