中文 英语

在你的手机里放一个数据中心!

在低功耗应用中使用嵌入式fpga。

受欢迎程度

数据中心在人工智能加速方面大量利用fpga。为什么不为嵌入式FPGA (eFPGA)的低功耗边缘应用做同样的事情呢?

任何与云计算行业有联系的人都知道,数据中心严重依赖fpga作为可编程加速器,为人工智能训练和推理提供高性能计算。这些异构计算解决方案的发展是由于不断减少的性能回报和不断缩小的进程节点。类似的异构性能提升也可以通过asic、assp(特定应用标准件)和带有eFPGA的mcu实现。

边缘物联网、消费者、移动和通信设备的芯片设计人员一直在追求以最低功耗实现最高性能。限制soc性能的功率限制有很多原因,例如进程(例如,巨大的投资禁止移动到更小的几何图形),围绕处理器架构或实现的软件投资使得很难升级到更高性能的处理器(如果有的话)或添加更多的并行处理器,或者处理器可能根本不是执行复杂工作负载(如推理、并行处理、过滤)的最佳计算引擎。压缩需要大量的时钟周期(并消耗大量的电力)来执行该功能。

有了这些类型的约束,设计人员可以借用数据中心架构师的剧本,将eFPGA集成到他们的ASIC中。毕竟,如果您扩展一下想象力,SoC就是一个小型数据中心。目前大多数soc都没有利用基于FPGA的可编程加速器的强大功能,这意味着有大量的机会可以大大提高soc的性能,而不必从根本上改变芯片的制造工艺或硬件或软件架构。

例如,用于AI加速的eFPGA可以解决广泛的需求。对于以CPU为中心的解决方案,处理器的指令集可以使用针对特定推理模型调优的指令进行扩充。为了获得更高的性能和更传统的方法,可以集成更大的eFPGA结构来执行在fpga中开发和使用的复杂推理引擎。在后一种情况下,即使SOC功率可能会增加,但整个系统解决方案的功率将会下降,因为当FPGA芯片被移除时,一组耗电的serde被移除,更不用说成本和板空间了。

对于不需要高度精度的应用程序,更通用的解决方案可能更合适,即将少量eFPGA连接到系统总线上,并使用XNOR或使用最少lut的双神经网络对其进行编程。

您可以看到一个XNOR模型的演示,该模型仅识别200个lut字符在这里.当不用于AI加速时,它可以与其他非AI中心的工作负载加速器一起编程,或者关闭以节省电力。

随着经过硅验证的eFPGA在许多不同的流行工艺节点上的可用性,设计人员现在可以将数据中心处理能力放在他们的soc中,用于边缘应用,并解决无论大小的异构计算和AI加速问题。现在,你也可以在你的手机里放一个数据中心!



留下回复


(注:此名称将公开显示)

Baidu