作者的最新文章


增加eFPGA采用将塑造eFPGA特点/好处


eFPGA采用正在加速。eFPGA现在可以从多个供应商等多个铸造厂和节点180海里,40 nm, 28 nm, 22纳米,16 nm, 12和7 nm。有两位数的芯片证明硅用于多个应用程序由多个客户。和更多的工厂,设计和规划。三个主要的应用:集成现有的FPGA芯片int……»阅读更多

人工智能推理:水池和溪流


深入学习和AI推理起源于第一次部署在数据中心和实用,容量的应用程序的数据中心。直到最近推理开始蔓延到边缘应用程序(数据中心)之外的任何地方。在数据中心的数据处理是“池”的数据。例如,当你看到你的相册标记所有的图片…»阅读更多

为推理软件至少是一样重要硬件加速器


在文章和会议演示推理加速器,重点主要是上衣(mac)频率倍,一点内存接口和片内存储器(DRAM),很少在互连(也很重要,但这是另一个故事),几乎没有什么软件!如果没有软件,推理加速器是一块石头,它什么都不做。软件是世界卫生大会……»阅读更多

eFPGA市场和生态系统领导在哪里?


在本文中,我们将讨论eFPGA的可用性,eFPGA申请和eFPGA的当前和未来的市场规模。eFPGA供应商&产品嵌入式FPGA这十年是一个新的发展。现在有多个供应商提供广泛的eFPGA流程节点与多个客户。eFPGA供应商薄荷有eFPGA可用最长的:他们的进攻……»阅读更多

边缘AI市场和生态系统领导在哪里?


直到最近,大多数人工智能是在数据中心和大多数培训。事情正在改变很快。预测AI销售将快速增长10年代的数十亿美元到2020年代中期,大部分增长的边缘AI推理。边缘推理应用边缘推断市场在哪里?让我们看看市场从吞吐量最高到最低。边缘服务器最近Nvidia annou……»阅读更多

建模的人工智能推理性能


人工智能推理,关系到客户的指标是吞吐量/ $模型和/或吞吐量/瓦的模型。有人可能会认为吞吐量将与上衣,但你错了。检查下表:Nvidia Tesla T4 7.4推论/顶部,泽维尔AGX 15和InferX 1 34.5。和InferX X1它差不多把DRAM带宽的……»阅读更多

优势的BFloat16 AI推理


基本上所有AI训练是用32位浮点。但做人工智能推理与32位浮点是昂贵的,耗电而缓慢。8-bit-integer和量化模型,这是非常快速和最低的权力,是一个主要的投资资金,稀缺资源和时间。现在BFloat16 (BF16)提供了许多用户的一个有吸引力的资产。BFloat16提供本质上t…»阅读更多

eFPGA宏提供更高的速度从更少的区域/资源


我们与很多客户设计eFPGA soc。他们中的大多数有“随机逻辑”RTL,但是有些客户有大量的复杂,常用的块。我们发现在很多情况下,我们可以帮助客户实现更高的吞吐量和减少使用硅区域软宏。让我们来看一个例子:64 x64 Multiply-Accumulate (MAC),下图:如果哟……»阅读更多

人工智能推理记忆系统权衡


当公司描述他们的人工智能推理芯片他们通常给上衣但不谈论他们的记忆系统,这是同样重要的。上衣是什么?这意味着每秒数万亿或拉操作。它主要是一个测量的最大可以达到的吞吐量,但是不是一个实际的吞吐量。大多数业务都是MAC(乘/积累),所以上衣= (MAC的数量单位)x……»阅读更多

上衣、内存吞吐量和推理效率


许多公司已经或正在开发的IP和神经网络推理的芯片。几乎每一个AI公司给上衣但其他信息。上衣是什么?这意味着每秒数万亿或拉操作。它主要是一个测量的最大可以达到的吞吐量,但是不是一个实际的吞吐量。大多数业务都是MAC(乘/积累),所以上衣= (MAC的…»阅读更多

←旧的文章 新帖子→
Baidu