在人工智能硬件市场上,汽车与传统智慧的区别是什么?
Arteris IP功能安全经理Stefano Lorenzini最近在Linley处理器会议上发表了“具有AI/ML和功能安全的汽车片上系统(soc)”。演讲的一个主要观点是,人工智能硬件市场的传统观念是二元的。云中的人工智能:庞大、耗电、通用。人工智能处于边缘:体积小、功耗低、特定于应用的功能有限。汽车AI不属于这两类。为了支持ADAS和自动驾驶功能,这些芯片是非常特定于应用的,需要比典型的边缘AI更高的性能,低功耗但不像边缘物联网芯片那么低,并且必须尽可能低的成本。他们还增加了一个新的角度-低延迟,因为安全需要快速和确定的响应时间。再加上ISO 26262要求的功能安全要求——在AI结构内部和其他地方一样。总结:汽车AI SoC架构是独一无二的野兽。
第一个明显的区别是,汽车AI soc是异构的,比我们在其他应用中甚至其他边缘设备中所知道的soc都要异构得多。这是因为ADAS或自动驾驶运行时软件与芯片硬件紧密耦合,并且使用自定义处理元素类型来加速算法的特定部分。您还将在拓扑中发现放置在芯片上的存储器,以处理这些算法的特定预期数据流。相比之下,数据中心AI设备通常被设计为运行多个行业标准AI算法和基准测试,通常使用同构处理元素,将相同处理元素的多个副本平铺在规则拓扑中,如网格或环,通常会产生大型的、横跨网线的怪物。他们也会有一些控制和I/O,但AI加速器子系统掩盖了其他逻辑。然而,汽车AI SoC必须具有更独立的传感、计算机视觉和I/O接口,并且必须以大量CPU能力快速响应,以运行复杂且通常为虚拟化的软件负载。
片上网络(NoC)互连是这些SoC架构的逻辑和物理实例,将PowerPoint框图转化为真正的芯片。下面是一种有趣的方式,可以想象汽车AI NoC架构如何从“普通”AI芯片架构演变而来。(注意:这绝对不是真正的建筑师做这件事的方式!)从“AI SoC基线拓扑”开始,使用由网状网络连接的同构处理元素(pe)数组,如上图左侧所示。同样,这些都是典型的数据中心AI加速器。现在开始破解它:所有这些pe都不需要,因为这个芯片有专门的要求,所以摆脱不需要的pe,然后根据需要使用许多不同种类的pe映射到关键的软件算法和数据流功能。我们需要在不同类型的内存中进行快速、低功耗的访问,因为片外内存会增加不安全的延迟,并且对功耗非常不利。然后,让我们切断网格路由器之间不必要的连接,添加重量更轻的路由器,这样就不会强制跳,并摆脱这种黑客留下的任何空白空间。
当我们完成的时候,片上网络是一个高度复杂的结构——不是一个网格,更像一棵树,一棵非常茂盛的树。
如果不小心,汽车AI soc在通过复杂计算网络传输大数据时可能会消耗巨大的电力。但是,良好的电源管理可以比全开或全关更加精细。当部分网络暂时不活动时,处理元素和记忆可以被时钟控制。互连本身可能是一个巨大的功耗——在先进技术中,电线不像晶体管那样伸缩,而且这些电线可能很长。智能时钟门控,在互连中可能是半自主的,可以在网络元件中门控时钟,以最大限度地减少这种功率消耗。
架构师将使用超出标准限制的接口总线宽度来提高PE性能,例如,AXI的8k位。团队将构建接口逻辑或调整标准接口来满足这一需求。如果需要,一切都服从于通过极端并行来满足性能和延迟目标。
同样,设计人员还会调整网络中的交换机和其他逻辑,以优化预期系统级用例的性能、面积和功率。
汽车AI芯片必须满足系统的ISO 26262要求,其中包括处理子系统/ pe、嵌入式内存和NoC互连等半导体IP元素。故障模式效应和诊断分析用于定量证明芯片内的功能安全机制可以提供所需的诊断覆盖范围,以满足工程团队所需的ISO 26262汽车安全完整性水平(ASIL)。功能安全机制的例子包括错误纠正码(ECC),以保护内部sram和飞行数据,硬件冗余和锁步,包括复制或三重模块冗余,以及高级检查器,内置自检和报告逻辑。NoC安全机制实现的例子包括ECC来保护先入先出、硬件复制和检查NoC边缘的网络接口单元等等。
基于多年的经验教训,以下是IP集成商在其符合ISO 26262标准的soc中使用时需要记住的三个关键问题(是的,这些年来我都看到了这些问题):
林利处理器会议是实现对半导体行业新兴问题和技术的总体理解的一个很好的场所。如果您想进一步了解如何将AI/ML和功能安全功能实现到汽车soc中,联系我们!
留下回复