首页
技术论文

比较神经网络的新方法(洛斯阿拉莫斯国家实验室)

受欢迎程度

洛斯阿拉莫斯国家实验室(LANL)的研究人员最近在人工智能不确定性会议上发表了一篇题为“如果你训练过一个,你就训练过所有的:架构间的相似性随着鲁棒性的增加而增加”的新研究论文。

该团队开发了一种比较神经网络的新方法,并“将他们的网络相似度的新度量应用于对抗训练的神经网络,并令人惊讶地发现,对抗训练导致计算机视觉领域的神经网络收敛到非常相似的数据表示,无论网络架构如何,随着攻击的量级增加,”根据这篇文章LANL新闻稿

找到这里是技术文件.2022年出版。

作者:海顿·琼斯,雅各布·bb0加勒特·肯扬,贾斯汀·摩尔。

相关阅读
半导体工程的神经网络知识中心
芯片中人工智能的新用途
ML/DL增加了边缘设计的复杂性,但它也增加了提高功率和性能的新选项。
重新思考机器学习的动力
要大幅降低机器学习所消耗的能量,需要的不仅仅是优化,还需要一些根本性的反思。
更简单、更快速地训练人工智能
更简单的方法是必要的,以跟上不断发展的模型和新的应用程序。



留下回复


(注:此名称将公开显示)

Baidu