低功耗异构计算集群TinyML DNN推理和片上训练


博洛尼亚大学和苏黎世联邦理工学院的研究人员发表了一篇题为“DARKSIDE:用于极边缘芯片上DNN推断和训练的异构RISC-V计算集群”的新技术论文。“片上深度神经网络(DNN)在Extreme-Edge (TinyML)的推理和训练对延迟、吞吐量、准确性和灵活性提出了严格的要求。异构clu……»阅读更多

ISA和微架构扩展在密集矩阵引擎上支持cpu的灵活结构化稀疏性(佐治亚理工学院,英特尔实验室)


佐治亚理工学院和英特尔实验室的研究人员发表了一篇题为“VEGETA: cpu上稀疏/密集GEMM瓦加速的垂直集成扩展”的技术论文(预印本)。摘要:“cpu中的深度学习(DL)加速支持最近获得了很大的吸引力,几家公司(Arm, Intel, IBM)宣布了具有专用矩阵引擎的产品。»阅读更多

用于鲁棒和数据高效的深度监督学习的多专家对抗正则化


深度神经网络(DNNs)在训练数据丰富且分布与测试数据相同的情况下可以达到较高的精度。在实际应用中,数据不足常常是一个问题。对于分类任务,训练集中缺乏足够的标记图像往往会导致过拟合。另一个问题是训练和测试域之间的不匹配,这导致…»阅读更多

DNN- opt,一种基于深度神经网络(DNN)的模拟尺寸黑盒优化框架


这篇题为“DNN-Opt:使用深度神经网络的RL启发的模拟电路尺寸优化”的技术论文由德克萨斯大学奥斯汀分校、英特尔公司和格拉斯哥大学的研究人员共同撰写。该论文是2021年DAC会议的最佳论文候选人。“在本文中,我们提出了DNN- opt,一种新的基于深度神经网络(DNN)的模拟sizi黑盒优化框架。»阅读更多

Gemmini:开源、全栈DNN加速器生成器(DAC最佳论文)


这篇题为“Gemmini:通过全堆栈集成实现系统深度学习架构评估”的技术论文由加州大学伯克利分校的研究人员和麻省理工学院的合著者联合发表。该研究由DARPA部分资助,并获得了DAC 2021年最佳论文奖。论文介绍了Gemmini,“一种用于DNN工作负载的开源、全堆栈DNN加速器生成器,使端到端…»阅读更多

OverlapNet:基于lidar的SLAM闭环


摘要:“同步定位与映射(SLAM)是大多数自主系统所需要的基本能力。在本文中,我们解决了基于自动驾驶汽车记录的三维激光扫描的SLAM闭环问题。我们的方法利用了一个深度神经网络,利用激光雷达数据生成的不同线索来寻找环路闭包。它估计了一个图像重叠基因…»阅读更多

映射转换启用高性能和低能量忆阻器的dnn


摘要:“当深度神经网络(DNN)被广泛应用于边缘AI(人工智能),例如物联网(IoT)和自动驾驶汽车时,它使基于CMOS(互补金属氧化物半导体)的传统计算机遭受过大的计算负载。基于忆阻器的设备正在成为在内存中为dnn进行计算的一种选择。»阅读更多

用于内存计算硬件加速器的NeuroSim模拟器:验证和基准测试


摘要:“在深度神经网络(DNN)硬件加速器中,内存计算(CIM)是一种有吸引力的解决方案,用于处理大量的乘法累加(MAC)操作。一个具有各种主流和新兴内存技术、架构和网络选项的模拟器可以为CIM硬件的快速早期设计空间探索提供极大的便利。»阅读更多

在噪声硬件上实现神经网络训练


摘要:“深度神经网络(dnn)通常使用传统的随机梯度下降(SGD)算法进行训练。然而,当SGD应用于由非对称电导调制特性的电阻器件阵列组成的非理想模拟硬件上训练网络时,其性能很差。最近,我们提出了一种新的算法,Tiki-Taka算法,它克服了t…»阅读更多

AI的架构考虑


被称为人工智能(AI)或机器学习(ML)的定制芯片每周都会出现,每种芯片都声称比现有设备快10倍或消耗1/10的功率。这是否足以取代现有的架构(如gpu和fpga),或者它们是否能与这些架构共存尚不清楚。问题,或者说机会在于……»阅读更多

←老帖子
Baidu