中文 英语

神经结构与硬件加速器协同设计框架(普林斯顿/斯坦福)


普林斯顿大学和斯坦福大学的研究人员发表了一篇名为“CODEBench: A Neural Architecture and Hardware Accelerator Co-Design Framework”的新技术论文。“最近,机器学习(ML)模型和加速器架构的自动协同设计引起了业界和学术界的极大关注。然而,大多数协同设计框架要么……»阅读更多

光刻建模:数据增强框架


一篇题为“用于可制造芯片设计的基于对抗性主动采样的数据增强框架”的新技术论文由德克萨斯大学奥斯汀分校、英伟达和加州理工学院的研究人员发表。摘要:“光刻建模是芯片设计中的一个关键问题,以确保芯片设计掩模的可制造性。这需要严格的模拟……»阅读更多

用BDA方法预测SAQP节距


IBM TJ沃森研究中心和伦斯勒理工学院的研究人员发表了一篇题为“深度学习神经网络中的贝叶斯dropout近似:自对齐四重模式的分析”的新技术论文。在这里找到技术文件。2022年11月出版。开放获取。Scott D. Halle, Derren N. Dunn, Allen H. Gabor, Max O. Bloomfield和Mark Sh…»阅读更多

新型电驱动光学非易失性存储器


乔治华盛顿大学、Optelligence、麻省理工学院和中佛罗里达大学的研究人员发表了一篇题为“电可编程多层非易失性光子随机存取存储器”的新技术论文。研究人员展示了“一种基于宽带透明相变材料(Ge2Sb2S…»阅读更多

在内存小于256KB的智能边缘设备上训练ML模型


麻省理工学院和麻省理工学院- ibm沃森人工智能实验室的研究人员发表了一篇名为“256KB内存下的设备训练”的新技术论文。“我们的研究使物联网设备不仅可以执行推理,还可以不断更新人工智能模型到新收集的数据,为终身设备学习铺平了道路。低资源利用率使深度学习更容易获得,可以有一个兄弟…»阅读更多

无晶体管内存计算架构


宾夕法尼亚大学、桑迪亚国家实验室和布鲁克海文国家实验室的研究人员最近发表了一篇题为“场可编程铁电二极管上的可重构内存计算”的新技术论文。内存计算的设计是不同的,因为它完全没有晶体管。“即使在内存计算架构中使用,晶体管也会影响访问……»阅读更多

在你的手机里放一个数据中心!


数据中心在人工智能加速方面大量利用fpga。为什么不为嵌入式FPGA (eFPGA)的低功耗边缘应用做同样的事情呢?任何与云计算行业有联系的人都知道,数据中心严重依赖fpga作为可编程加速器,为人工智能训练和推理提供高性能计算。这些异构计算解决方案…»阅读更多

FP8: AI训练和推断的跨行业硬件规范(Arm, Intel, Nvidia)


Arm、英特尔和英伟达提出了一种8位浮点(FP8)格式的规范,可以提供一种通用的可互换格式,适用于AI训练和推理,并允许AI模型在硬件平台上一致地运行和执行。在这里找到题为“FP8格式用于深度学习”的技术论文。2022年9月出版。摘要:FP8是一种天然的p…»阅读更多

比较神经网络的新方法(洛斯阿拉莫斯国家实验室)


洛斯阿拉莫斯国家实验室(LANL)的研究人员最近在人工智能不确定性会议上发表了一篇题为“如果你训练过一个,你就训练过所有的:架构间的相似性随着鲁棒性的增加而增加”的新研究论文。该团队开发了一种比较神经网络的新方法,并“应用了他们的网络相似度的新度量标准……»阅读更多

卷积神经网络:硬件架构与压缩算法的协同设计


崇实大学(韩国)的研究人员发表了“高效卷积神经网络和硬件加速的调查”。摘要:“在过去的十年中,基于深度学习的表示在学术界和工业界表现出了卓越的表现。卷积神经网络(cnn)的学习能力源于各种特征提取的结合。»阅读更多

←老帖子
Baidu