18.luck新利
的意见

2.5 d建筑回答人工智能训练的呼吁“所有的”

需要改进的计算机硬件和软件方方面面继续计算发展的步伐。

受欢迎程度

AI /毫升与日俱增的影响影响每一个行业和触摸的每一个人的生活。在市场营销、医疗、零售、交通、制造业和更多,AI /毫升巨大变化的催化剂。这种快速推进有力地说明了AI /毫升训练能力的增长,自2012年以来每年都增长了10倍的x。

今天,AI /毫升训练神经网络模型可以超过100亿参数,很快它将超过1000亿。计算机处理能力的巨大收益由于摩尔定律和Dennard比例使这一切成为可能。在某种程度上,然而,处理能力的趋势线,每两年翻一番,将超过每三个月增加一倍。现在这个点。更糟的是,摩尔定律正在放缓,和Dennard缩放已经停止,可以说是我们最需要他们的时候。

没有疲软的需求,需要改进的计算机硬件和软件方方面面的步伐。其中,内存容量和带宽将关键领域集中,使人工智能的持续增长。如果我们不能继续缩小(通过摩尔定律),然后我们会扩大。DRAM行业3 d-packaging回应的电平的高带宽内存(HBM)标准。通过z维的扩展,我们可以实现显著增加容量。

事实上,最新的迭代HBM HBM2E,支持12-high成堆的DRAM内存24 GB /堆栈的能力。更大的能力将是无用的AI /毫升训练,然而,没有快速访问。因此,HBM2E界面提供的带宽410 GB / s /堆栈。实现四个栈HBM2E内存可以提供近100 GB的容量在一个聚合带宽1.6 TB / s。

AI /毫升加速器在超大型数据中心部署,热量和权力约束是至关重要的。HBM2E权力提供了非常有效的带宽通过运行一个“宽,缓慢”界面。慢,至少相对而言,HBM2E高达3.2 Gbps销运营。跨多种接口的1024数据大头针,3.2 Gbps收益率数据速率带宽410 GB / s。

数据添加时钟、电源管理和命令/地址和在HBM界面中“线”的数量增长到1700。这是远远超过可以支持标准的PCB。因此,硅插入器连接的中间层使用内存堆栈(s)和处理器。硅插入器的使用是什么使这个2.5 d体系结构。与IC,间隔可以在硅蚀刻痕迹插入器来实现所需的数量HBM接口。

与3 d堆叠的内存,高带宽和高容量可以达到在一个非常小的足迹。数据中心环境中,物理空间逐渐受到限制,HBM2E紧凑的建筑提供了实实在在的利益。进一步,通过保持数据率相对较低,内存接近处理器,系统整体力量保持低。

高带宽、高容量、紧凑和功率效率,HBM2E内存提供什么AI / ML培训需求,当然有。设计权衡HBM增加复杂性和成本。硅插入器是一个额外的元素,必须设计和制造特点。3 d堆叠记忆出货量苍白相比的巨大体积和制造经验积累使传统DDR-type记忆。网络是实现和制造成本高HBM2E比高性能内存使用GDDR6 DRAM等传统的制造方法。

然而,克服复杂性通过创新是我们行业所做的一次又一次将计算性能推到新的高度。AI / ML,加速训练运行的经济效益是巨大的。不仅仅是为了更好的利用培训硬件,而是因为训练时创造的价值模型是在数百万AI-powered设备部署在推理引擎。

此外,设计师可以大大减轻高复杂性的挑战与选择IP供应商。集成解决方案如HBM2E内存接口从Rambus易于实现和提供一个完整的内存接口子系统组成的co-verified PHY和数字控制器。此外,Rambus插入器设计中有着丰富的经验与silicon-proven HBM / HBM2实现受益于Rambus的混合信号电路设计历史,深信号完整性/电源完整性和过程技术专业知识,和系统工程能力。

AI /毫升的进步是惊人的,并没有减缓。改进的计算机硬件和软件方方面面需要保持这炎热的步伐。记忆,AI /毫升培训需求带宽、容量和功率效率在一个紧凑的足迹。HBM2E内存,使用2.5 d体系结构答案AI /毫升训练呼吁“上述”性能。



留下一个回复


(注意:这个名字会显示公开)

Baidu