中文 英语

作者最新文章


将16nm FPGA集成到28/22nm SoC中,而不损失速度或灵活性


系统公司喜欢FPGA,因为它提供的并行处理性能可以在许多工作负载上超过处理器,而且当标准、算法、协议或客户需求发生变化时,它可以重新配置。但fpga体积大,耗电大,价格昂贵。如果可能的话,客户希望将它们集成到相邻的SoC中。现在有几十个客户…»阅读更多

边缘推理应用和市场细分


直到最近,大多数人工智能都在数据中心/云端,其中大部分是训练。事情正在迅速变化。预计到21世纪20年代中期,人工智能的销售额将迅速增长到数百亿美元,其中大部分增长将来自边缘人工智能推理。数据中心/云与边缘推论:有什么不同?数据中心/云是xeon开始推理的地方。为了提高效率,很多……»阅读更多

ResNet-50不能预测百万像素神经网络模型的推理吞吐量


客户正在考虑AI推理的应用程序,并希望评估多个推理加速器。正如我们上个月讨论的那样,TOPS与推理吞吐量无关,您应该使用真正的神经网络模型来对加速器进行基准测试。那么ResNet-50是评估推理加速器相对性能的一个很好的基准吗?如果你的应用程序是p…»阅读更多

再强调一次:TOPS不能预测推断吞吐量


很多时候,您会听到供应商谈论他们的芯片有多少个TOPS,并暗示更多的TOPS意味着更好的推断性能。如果你使用TOPS来选择你的AI推理芯片,你可能会对你得到的结果不满意。最近,麻省理工学院的教授Vivienne Sze做了一场题为“如何评估高效的深度神经网络方法”的精彩演讲。幻灯片也是av…»阅读更多

苹果,橙子&最佳AI推理加速器


人工智能推理加速器有很多种,应用范围也很广。没有哪个AI推理加速器对每个应用程序都是最优的。例如,对于大多数边缘应用程序来说,数据中心级加速器几乎肯定会太大,消耗太多能量,成本太高。一个最适合关键字识别的加速器将没有能力…»阅读更多

FPGA集成:芯片与eFPGA的比较


FPGA以其灵活性和适应性在系统中广泛应用。越来越多地,它被用于高容量的应用程序。随着容量的增长,系统设计人员可以考虑将FPGA集成到SoC中,以降低成本,降低功耗和/或提高性能。将FPGA集成到SoC中有两种选择:FPGA芯片,它取代了耗电的SERDES/PHYs。»阅读更多

eFPGA与FPGA一样快速和密集,在任何过程节点上


当我们开始Flex Logix时,eFPGA面临的一个挑战是有许多客户和应用程序,他们似乎都希望eFPGA在不同的铸造厂、不同的节点和不同的阵列大小上。每个人都希望eFPGA在同一节点上与FPGA领导者一样快速和密集。哦,客户似乎等到最后一分钟,然后需要尽快的eFPGA。Xilinx和Altera(英特尔…»阅读更多

增加eFPGA的采用将塑造eFPGA的特点/优点


eFPGA的采用正在加速。eFPGA现在可以从多个供应商的多个晶圆代工厂和节点,包括180nm, 40nm, 28nm, 22nm, 16nm, 12nm和7nm。有两位数的芯片在硅中被多个客户用于多种应用。还有更多的工厂,设计和规划。主要有三种应用:现有FPGA芯片的集成。»阅读更多

AI推论:池Vs.流


深度学习和AI推理起源于数据中心,并首先部署在数据中心的实际批量应用中。直到最近,推理才开始扩展到边缘应用程序(数据中心以外的任何地方)。在数据中心中,要处理的大部分数据是一个“数据池”。例如,当你看到你的相册被标记了所有的照片……»阅读更多

对于推理加速器来说,软件至少和硬件一样重要


在关于推理加速器的文章和会议演示中,重点主要是TOPS (mac的频率乘以数量),一点点关于内存(DRAM接口和芯片SRAM),很少关于互连(也非常重要,但这是另一个故事),几乎没有关于软件的内容!如果没有软件,推理加速器就像一块石头,什么也不做。软件是…»阅读更多

←老帖子
Baidu