中文 英语
18.luck新利
的意见

使用HBM3提升Zettabyte时代的数据中心内存性能

AI和ML正在将当前的数据中心内存基础设施扩展到极限。

受欢迎程度

我们生活在泽字节(Zettabyte)时代,这个术语最初是由思科(Cisco)提出的。世界上大部分数据都是在过去几年里创造出来的,而且在短时间内不会放缓。数据已经变得不只是大,而是巨大!事实上,根据IDC 2022-2026年全球数据圈预测,未来5年产生的数据量将至少是过去10年产生的数据量的2倍。这意味着到2026年产生的数据将达到221.2 ZB。1zettabyte等于1万亿GB (GB),这是一大堆可怕的零……

人工智能(AI)和机器学习(ML)应用是数据大规模增长的关键驱动力。它们不仅消耗原始数据,而且还在处理后创建更多数据。它们的工作负载需要大量的内存带宽,并且它们正在将当前的数据中心内存基础设施扩展到极限。当然,解决这个问题的一种方法是增加更多的数据中心。2021年,100个新的超大规模数据中心上线,使全球数据中心总数达到700个。还有300多个正在筹备中,到2024年,全球总数将达到1000个(来源:Synergy Research Group, 2022年3月)。虽然这是一种解决方案,但它并不能解决如何在这些数据中心内有效地处理大量数据的问题。

对于需要巨大内存带宽、巨大内存容量和极快处理的AI/ML应用程序,高带宽内存(HBM)提供了极有价值的技术解决方案。JEDEC于2022年1月发布的HBM3是高带宽内存标准的最新迭代,将每针数据速率提高到6.4千兆每秒(Gb/s),是HBM2的两倍。HBM3保持了前几代的1024位宽接口,同时扩展了最初被称为“慢而宽”的HBM内存架构所设定的带宽性能记录。由于带宽是数据速率和接口宽度的乘积,因此6.4 Gb/s × 1024可以达到6554 Gb/s。除以8位/字节,总带宽为819gb /s。

HBM3还支持最多12个高堆栈的3D DRAM设备,并提供了未来的扩展,每个堆栈最多16个设备,设备密度最高可达32Gb。在现实世界中,一个12层高的32Gb设备堆栈转换为一个48GB容量的HBM3 DRAM设备。此外,HBM3将内存通道的数量增加了一倍,达到16个,并支持32个虚拟通道(每个通道有两个伪通道)。通过更多的内存通道,HBM3可以支持每个设备更高的DRAM堆栈和更细的访问粒度。

Rambus在提供业界领先的高性能内存IP解决方案方面有着广泛的业绩记录。Rambus HBM3内存子系统为设计余量和未来的可扩展性提供了头部空间,在处理器和HBM3内存设备之间提供了8.4 Gbps的性能,提供了每秒超过tb的带宽。在这个数据速率下,带有8个HBM3存储设备的加速器可以实现8.6 TB/s的内存带宽。Rambus HBM3内存子系统由集成PHY和内存控制器组成,提供系统级设计支持,包括中间体和包参考设计,以方便客户首次正确实现其HBM3设计。

额外的资源



留下回复


(注:此名称将公开显示)

Baidu