首页
技术论文

基于细粒度极化reram的混合信号DNN加速器原位计算

FORMS是一种细粒度的基于reram的DNN加速器,具有算法/硬件协同设计。

受欢迎程度

文摘:

“最近的工作证明了使用电阻性随机存取存储器(ReRAM)作为一种新兴技术来执行固有的并行模拟域原位矩阵向量乘法的前景,这是深度神经网络(DNNs)中密集和关键的计算。一个关键问题是有符号值的权重。然而,在ReRAM交叉栏中,权重存储为交叉栏单元的电导,并且原位计算假设每个交叉栏列上的所有单元都具有相同的符号。当前的体系结构要么使用两个ReRAM交叉条来表示正权重和负权重(PRIME),要么对权重添加偏移量以使所有值都为正(ISAAC)。这两种解决方案都不是理想的:它们要么使横杆的成本增加一倍,要么导致额外的补偿绕行。为了更好地解决这个问题,我们提出了FORMS,这是一种基于rram的细粒度DNN加速器,具有算法/硬件协同设计。我们的关键设计原则不是试图表示正/负权重,而是强制执行在原位计算中所假设的内容——确保横杆的同一列中的所有权重具有相同的符号。这自然避免了额外横梁的成本。在DNN训练过程中,使用交替方向乘子法(ADMM)正则化优化可以很好地生成这种极化权值,可以精确地强制DNN权值中的某些模式。为了获得较高的精度,我们将交叉条划分为逻辑子数组,并且只在细粒度子数组列中强制执行此属性。 Crucially, the small sub-arrays provides a unique opportunity for input zero-skipping, which can significantly avoid unnecessary computations and reduce computation time. At the same time, it also makes the hardware much easier to implement and is less susceptible to non-idealities and noise than coarse-grained architectures. Putting all together, with the same optimized DNN models, FORMS achieves 1.50× and 1.93× throughput improvement in terms of $\frac{{GOPs}}{{s \times m{m^2}}}$ and $\frac{{GOPs}}{W}$ compared to ISAAC, and 1.12× ~2.4 × speed up in terms of frame per second over optimized ISAAC with almost the same power/area cost. Interestingly, FORMS optimization framework can even speed up the original ISAAC from 10.7 × up to 377.9×, reflecting the importance of software/hardware co-design optimizations.”

找到技术文件链接通过IEEE Xplore。

G. Yuan等,“FORMS:基于细粒度极化reram的混合信号DNN加速器原位计算”,2021年ACM/IEEE第48届计算机体系结构国际研讨会(ISCA), 2021年,pp. 265-278, doi: 10.1109/ISCA52012.2021.00029。



留下回复


(注:此名称将公开显示)

Baidu