神经结构和硬件加速器合作设计框架(普林斯顿大学/斯坦福大学)


一个新的技术论文题为“CODEBench:神经结构和硬件加速器合作设计框架”是由普林斯顿大学和斯坦福大学的研究人员出版。“最近,自动化合作设计的机器学习(ML)模型和加速器架构已经吸引了重大工业和学术界的关注。然而,大多数合作设计框架要么…»阅读更多

卷积神经网络:合作设计的硬件体系结构和压缩算法


进程大学的研究人员(韩国)发表“调查效率卷积神经网络和硬件加速”。Abstract: "Over the past decade, deep-learning-based representations have demonstrated remarkable performance in academia and industry. The learning capability of convolutional neural networks (CNNs) originates from a combination of various feature extraction...»阅读更多

神经形态计算:挑战、机遇包括材料、算法、设备和道德


这个新的研究论文题为“2022路线图神经形态计算和工程”是由许多丹麦技术大学的研究人员,学院Microelectronica de塞维利亚CSIC,塞维利亚大学和许多其他人。部分摘要:“本路线图的目的是提出一个快照的神经形态技术的现状,并提供一个意见chall……»阅读更多

深度学习材料科学:申请方法,最近的进展


新技术论文题为“深度学习方法的最新进展和应用在材料科学”研究人员NIST,加州大学圣地亚哥分校,劳伦斯伯克利国家实验室,卡内基梅隆大学、西北大学和哥伦比亚大学。抽象的“深度学习(DL)是增长最快的一个主题在材料数据科学、与快速新兴应用程序生成…»阅读更多

新的神经新兴神经网络处理器的地址


AlexNet已经十年了,一个深度学习卷积神经网络(CNN)模型运行在gpu,取代传统视觉处理算法赢得ImageNet大规模视觉识别(ILSVRC)的竞争。AlexNet,其继任者,提供了大量改进对象分类精度为代价的计算复杂度和大哒……»阅读更多

没有荒芜的高原量子卷积神经网络


文摘:量子神经网络(QNNs)生成的兴奋在有效地分析量子数据的可能性。但这种兴奋已经受到指数梯度消失的存在,被称为贫瘠的高原风景,对于许多QNN架构。最近,量子卷积神经网络(QCNNs)已经提出,涉及一系列convol……»阅读更多

挑战新的人工智能处理器架构


投资资金涌入的发展新的人工智能处理器的数据中心,但这里的问题是独一无二的,结果是不可预测的,竞争有雄厚的财力和非常粘的产品。最大的问题可能是终端市场的数据不足。当设计一个新的人工智能处理器,每个设计团队都必须回答一个基本问题——flex多少……»阅读更多

有更多的比cnn机器学习


神经网络——尤其是卷积神经网络(cnn)——已经收到了大量的注意力在过去的几年里,但它们不是唯一有用的机器学习结构。有许多其他方式为机器学习如何解决问题,还有其他机器学习的空间结构。“神经网络能做的这一切真的复合基…»阅读更多

Xilinx AI引擎和他们的应用程序


这个白皮书探讨了体系结构、应用程序和使用Xilinx的新的人工智能引擎的好处对于计算密集型应用,比如5 g细胞和机器学习/ CNN款。5 g之间需要5到10倍计算密度与前代相比;人工智能引擎已经优化了DSP,满足吞吐量和计算需求交付高……»阅读更多

快速、低功耗推论


力量和性能往往被看作是对立的目标,如果你将一枚硬币的两面。一个系统可以运行非常快,但它会消耗大量的电力。放松油门,能耗下降,但性能。优化功率和性能是具有挑战性的。卷积神经网络(CNN)的推测算法计算int……»阅读更多

←旧的文章
Baidu