中文 英语
18.luck新利
的意见

人工智能芯片会消耗多少能量?

到目前为止,几乎没有数据能说明哪种方法效果最好,为什么效果最好。

受欢迎程度

当涉及到权力时,人工智能和机器学习有着贪婪的胃口。在训练方面,他们将充分利用高度并行的处理器和加速器阵列中的每一个可用的处理元素。在推理方面,他们将继续优化算法,以最大化系统被设计用来执行的任何任务的性能。

但就像汽车一样,里程数也会因你的驾驶习惯而有很大差异。如果你用力踩油门踏板,那么油耗下降的速度会比保守驾驶快。如果你以75英里每小时的速度行驶,那么你的燃料消耗速度比55英里每小时更快。半导体也是如此。

目前还不清楚这将如何在AI/ML/DL芯片中发挥作用,因为没有人真正知道它们随着时间的推移会如何表现。人工智能背后的整个思想是在可接受的行为参数范围内进行适应,但没有太多数据支持这一点。在了解这些系统的效率方面,半导体行业几乎还没有触及表面,这些系统可能包括多个人工智能处理器。

问题在于,处理、内存和I/O利用的标准规则不适用于与人工智能相关的设计。有时,当几乎没有数据输入时,这些系统可能实际上是空闲的,但至少有一些电路总是打开的。设计师面临的挑战是弄清楚什么必须打开,什么可以关闭,什么可以处于某种睡眠状态。这可能因位置、应用程序以及处理元素是否为不断更新的算法的最新调整进行了优化而有所不同。

这也因使用的处理元素类型、处理器和内存之间的数据路径、生成的数据量以及人工智能系统中的各种处理器和加速器如何处理所有数据而有很大差异。具有讽刺意味的是,它可能是对功率影响最大的软件,而用于预测系统功耗的工具却最少。

虽然硬件工程师们非常关注更高效的处理——无论是将数据来回移动到内存的宽总线,还是将内存移动到更靠近处理器核心的地方——但在效率方面,更大的问题是每个周期在一个进程中塞进更多的比特,精简算法,尽可能降低精度,以及在源处或源附近清除无用的数据。软件还需要控制不同核之间各种计算的分区,以及在平衡性能和功耗的同时需要多少芯片来完成这项工作。

还有其他的选择,比如神经网络,以及在多个输入源处结构化数据,以便在集中位置更容易地处理数据。但所有这些步骤对权力有什么影响还只是猜测。直观地说,从硬件/软件协同设计的角度来看,尽可能多地为问题提供节能选项是有意义的。但在这一点上,几乎没有数据支持这一观点。



1评论

Peter AJ van der Made 说:

你好,

我很高兴你在最后提到了神经网络。Brainchip正在生产一种具有基于事件卷积的神经形态芯片,其运行功耗极低,同时保持高性能。我们通过消除软件组件来做到这一点。网络完全是在硬件中实现的,但这些专用的核心是用python安排的。一旦安排好,网络中就没有软件运行。核心可以完全连接,可分离卷积,标准卷积,具有可配置的输入和输出数量。我们已经完成了每秒58张图像的Imagenet分类,但也完成了完全的气味分类。功耗只取决于通过芯片的峰值数量,从微瓦到毫瓦不等。AKD1000芯片现已投产,具有单次或多次学习以及基于卷积和/或基于spike的推理。该芯片采用28nM台积电工艺,完全数字化,但与工艺无关。

留下回复


(注:此名称将公开显示)

Baidu