中文 英语

基于交叉条的内存计算协同设计视图


阿贡国家实验室、普渡大学和马德拉斯印度理工学院的研究人员发表了一篇题为“用于神经网络的具有非易失性元素的内存计算:从协同设计角度的回顾”的新综述论文。“从全面的协同设计观点来看,这篇综述评估了基于交叉杆的CIM在神经网络中的使用,将材料适当地连接起来。»阅读更多

芯片中人工智能的新用途


人工智能正被部署在许多新应用中,从提高各种终端设备的性能和降低功耗,到出于安全原因发现数据移动中的违规行为。虽然大多数人都熟悉使用机器学习和深度学习来区分猫和狗,但新兴的应用程序显示了如何使用这种能力……»阅读更多

前沿的AI:在不牺牲准确性的前提下优化AI算法


人工智能成功的最终衡量标准将是它在多大程度上提高了我们日常生活中的生产力。然而,该行业在评估进展方面面临巨大挑战。大量的AI应用程序处于不断的变动中:寻找正确的算法,优化算法,并找到正确的工具。此外,复杂的硬件工程正在迅速更新,有许多不同的技术。»阅读更多

麻省理工学院:具有乐高风格设计的可堆叠AI芯片


麻省理工学院、哈佛大学、清华大学、浙江大学等的研究人员发表了一篇题为“使用嵌入式人工智能可堆叠芯片的可重构异构集成”的新技术论文。摘要:“在这里,我们报告了使用光电器件阵列进行芯片到芯片通信和神经形态的可堆叠异质集成芯片。»阅读更多

基于变压器的模拟存储设备深度神经网络的软件等效精度研究


摘要:“深度学习的最新进展是由不断增加的模型规模驱动的,网络的参数增长到数百万甚至数十亿。如此庞大的模型需要快速节能的硬件加速器。我们研究了基于非易失性存储器的模拟AI加速器的潜力,特别是相变存储器(PCM),用于软件等效的精确i…»阅读更多

基于内存计算的卷积神经网络加速推理


摘要:“内存计算(IMC)是一种非冯·诺依曼范式,最近已成为一种有前途的方法,用于深度学习应用的节能、高吞吐量硬件。IMC的一个突出应用是在(1)时间复杂度中执行矩阵向量乘法,通过将神经网络层的突触权值映射到一个…»阅读更多

基于内存计算的卷积神经网络加速推理


摘要:“内存计算(IMC)是一种非冯·诺依曼范式,最近已成为一种有前途的方法,用于深度学习应用的节能、高吞吐量硬件。IMC的一个突出应用是在(1)时间复杂度中通过将神经网络层的突触权值映射到一个节点的设备来执行矩阵向量乘法。»阅读更多

启动资金:2020年12月


人工智能硬件初创公司是我们12月份创业公司融资的热点,有两家公司的融资轮超过1亿美元,还有很多公司获得了投资。两家中国EDA公司获得了投资,以促进中国的半导体生态系统。一家为晶圆厂提供控制系统的公司在A轮融资中获得了800万美元,自动驾驶和电动汽车都获得了大量收益……»阅读更多

2021年人工智能创新的5大预测


人工智能(AI)已经成为所有技术中最重要的口号之一。开发能够像人类一样思考和行为的机器,这一曾经的乌托邦愿景正变得越来越现实,因为工程创新使处理和解释以前无法想象的大量数据所需的性能变得更加高效……»阅读更多

硬件的出现成为人工智能时代的关键推动者


在过去的几十年里,软件一直是无数应用程序的创新引擎。从个人电脑到移动电话,定义良好的硬件平台和指令集架构(ISA)已经在垂直市场上实现了许多重要的进步。大量数据计算的出现正在戏剧性地改变软件和硬件的平衡。新利体育在线完整版多样化的人工智能应用…»阅读更多

←老帖子
Baidu