中文 英语
首页
技术论文

基于内存计算的卷积神经网络加速推理

基于IMC (In Memory Computing)的卷积神经网络(cnn)硬件加速方法。

受欢迎程度

文摘:

“内存计算(IMC)是一种非冯·诺依曼范式,最近已经成为一种有前途的方法,用于深度学习应用的节能、高吞吐量硬件。IMC的一个突出应用是在O(1)">1通过将神经网络层的突触权值映射到IMC核心的设备来计算时间复杂度。然而,由于与以前的计算范式相比,IMC的执行模式有很大的不同,因此在设计深度学习硬件时,IMC需要重新考虑所做的架构设计选择。在这项工作中,我们专注于用于卷积神经网络(cnn)推理的特定应用程序IMC硬件,并提供了实现IMC核心的各种架构组件的方法。具体来说,我们提出了映射内存结构上的突触权重和激活的方法,并给出了其中各种权衡的证据,例如片上内存需求和执行延迟之间的权衡。最后,我们展示了如何使用这些方法来实现流水线数据流,为图像分类任务提供超过最先进的吞吐量和延迟。”

把这技术论文在这里。公布的08/2021。

Dazzi M, Sebastian A, Benini L和Eleftheriou E(2021)使用内存计算加速卷积神经网络推断。前面。第一版。>。15:674154。doi: 10.3389 / fncom.2021.674154



留下回复


(注:此名称将公开显示)

Baidu