基于内存计算的卷积神经网络加速推理
基于IMC (In Memory Computing)的卷积神经网络(cnn)硬件加速方法。
文摘:
“内存计算(IMC)是一种非冯·诺依曼范式,最近已经成为一种有前途的方法,用于深度学习应用的节能、高吞吐量硬件。IMC的一个突出应用是在O(1)">(1)通过将神经网络层的突触权值映射到IMC核心的设备来计算时间复杂度。然而,由于与以前的计算范式相比,IMC的执行模式有很大的不同,因此在设计深度学习硬件时,IMC需要重新考虑所做的架构设计选择。在这项工作中,我们专注于用于卷积神经网络(cnn)推理的特定应用程序IMC硬件,并提供了实现IMC核心的各种架构组件的方法。具体来说,我们提出了映射内存结构上的突触权重和激活的方法,并给出了其中各种权衡的证据,例如片上内存需求和执行延迟之间的权衡。最后,我们展示了如何使用这些方法来实现流水线数据流,为图像分类任务提供超过最先进的吞吐量和延迟。”
把这技术论文在这里。公布的08/2021。
Dazzi M, Sebastian A, Benini L和Eleftheriou E(2021)使用内存计算加速卷积神经网络推断。前面。第一版。>。15:674154。doi: 10.3389 / fncom.2021.674154
留下回复