中文 英语
系统与设计
的意见

AI硬件时代的时机挑战

大尺寸、物理重用和信号传播行为对人工智能芯片提出了定时签收的挑战。

受欢迎程度

近年来,我们看到专用集成电路(asic)的市场趋势明显,在处理AI工作负载方面,专用集成电路在性能和能耗方面比传统通用计算机更高效。这些AI加速器将深度学习算法内核强化为电路,通过本地内存实现更高的数据摄取带宽,并使用多个内核执行大规模并行计算。它们巨大的颠覆性潜力引发了云上的HPC数据中心和边缘的各种推理应用程序的爆炸式增长,包括带有张量单元的gpu,带有专用npu的soc,带有FPGA加速器的cpu,以及专用于TPU、IPU、WSE等AI计算内核的ASIC设计。[1][2]

AI芯片设计在架构探索、功率估计、布局优化等方面提出了独特的挑战。在本文中,我们将探讨AI芯片在时序分析和验证方面的常见挑战:1)设计的原始规模;2)计算核心的极端物理重用;3)高规则计算中的信号传播行为;4)逻辑冗余和低功耗技术带来的复杂性。

1.人工智能芯片的原始尺寸

人工智能芯片——尤其是那些致力于加速HPC数据中心模型训练的芯片——与传统芯片(例如移动SoC、网络芯片、GPU、CPU等)相比,通常在几何尺寸上非常巨大。[3]


图1:专用AI硬件的规模

领先的人工智能芯片的芯片尺寸通常接近(或受限于)步进线在制造过程中的限制。它们通常在12nm时超过5亿个实例,7nm时超过10亿个实例,5nm时超过20亿个实例。这些芯片都是采用分层方法实现的,因为它们的规模远远超出了物理设计工具的容量限制。当涉及到时序分析和验证时,设计人员通常仍然更喜欢全芯片视图,以充满信心地结束。几乎具有讽刺意味的是,这些最大的人工智能芯片的验证需要最强大的通用计算硬件,例如2-4TB的内存,32-64核和多天的周转时间。为了避免这个流瓶颈危及设计功率、性能、面积(PPA)和上市时间(TTM)需求,分析引擎必须具有极高的可扩展性,同时保证QoR零妥协。

2.计算核心的极端物理重用

虽然人工智能芯片的规模非常大,但尤其是用于数据中心应用的人工智能芯片,在架构上通常非常规则,而且大多数芯片都是作为计算核心阵列(或瓷砖)构建的。这些计算内核专门用于特定的算法内核,并且相对较小(每个计算内核最多只有几个100K单元)。当复制数百或数千次时,整个系统变得非常大。这种重复模式通常是递归的:一些更紧密耦合的局部块被分组形成更大的物理块(例如超级块),这些超级块被进一步复制以创建整个芯片。


图2:超大型AI专用集成电路递归分层结构

在最近的一些AI芯片架构中,这种重复可以覆盖80%甚至90%的芯片逻辑。这些瓷砖和超级块是彼此的物理克隆,在实现过程中很容易折叠在一起。然而,在定时验证中,由于工艺OCV、时钟分布倾斜和不确定性、电源变化和热波动等因素,需要分析瓦的每个实例,以确定其独特的边界条件。但是,为了维护物理克隆,任何优化(ECO)都必须通用地应用于所有实例。这需要一个高度智能的分析引擎,能够管理MIM重复并识别边界条件的唯一性。

3.管道计算中的信号传播行为

多输入切换(MIS)并不是一种新效果,但由于这些asic的架构特征和有效负载模式,它对人工智能芯片变得至关重要。AI芯片在应用程序级跨处理块传输大量数据,以极高的吞吐量执行大规模并行和非常规则的计算。这转化为并行信号通过数据路径上的浅逻辑单元以非常高的速度在硬件级传播。当不同信号在多个输入门(AOI, NAND等)同时切换时,单个信号的延迟显著加快或减慢。这种影响可能会导致严重的时间问题,特别是对于持有分析[4].然而,多个输入标准单元格的库特征化通常在假设其他输入保持静态的情况下敏感单个输入。计时分析引擎必须检测重叠信号,并使用给定的库调用额外的计算,以解释MIS的影响,无论何时何地,以确保安全的签到,而不会引起大量的悲观情绪。


图3:MIS效应的增加:a) AI计算中典型的数据Mux (32:1) b)典型标准单元的加速效应

4.冗余和低功耗带来的复杂性

在人工智能芯片中内置可重构性的主要动机之一是产品产量。单个AI芯片模具尺寸在十字线限制下构成了重大的制造挑战。局部缺陷的来源变得足够频繁,并要求内置冗余以确保产品的整体功能。冗余可以在数据和时钟路径中,甚至在整个瓦/核心级别上。电路可以通过硬件或软件控制重新配置以绕过有缺陷的部分[5].在神经形态AI计算方面,可重构性是通过不同神经元(核/瓦)之间广泛的细粒度互连来实现的。这些并行和横向的数据和时钟路径增加了静态分析的复杂性,因为在验证中不可能置换所有配置。


图4:通过冗余的可重构设计

另一方面,低功耗、低能耗对人工智能推理应用至关重要。广泛的时钟门控、数据门控、许多电压域、近阈值电源和IR降给时序分析带来了额外的复杂性。同时分析和验证这些影响的能力与签收的准确性是至关重要的。

结论

随着工艺和设计技术的进步,人工智能设计和应用也在不断发展和融合。我们期待新的、有趣的模型和分析问题继续出现。可扩展的、面向未来的时序分析和注销解决方案需要在设计时考虑到AI硬件的架构特征。这些架构意识的解决方案对于应对今天和明天的挑战至关重要,确保从创新概念到工作系统的无风险过渡。



留下回复


(注:此名称将公开显示)

Baidu