中文 英语
18lickc新利
的意见

人工智能:钱在哪里?

市场在2025年人工智能硬件的样子。

受欢迎程度

一次性技术的弃儿,人工智能(AI)还有很长的路要走。现在有高涨的兴趣和投资产品和技术提供高性能视觉识别、匹配或超越人类技能。同样,语音和音频识别变得越来越普遍,甚至我们开始看到更多的专业应用,如发现半导体布局优化的物理设计选项。我们被可能性,但通常不太清楚的是,钱是真的。什么是理想,什么是炒作,什么是现实?


来源:麦肯锡和有限公司Arteris IP市场覆盖

切这个问题有多种方法,如除以应用程序或实现的选择。在Arteris IP,我们有一个独特的观点,因为我们的互连技术广泛应用于许多定制人工智能设计,我们会看到,可能会主导空间。将这一观点与最近麦肯锡分析提供了一些有趣的和,在某些情况下,惊人的见解。

开始一个引人注目的麦肯锡估计,半导体市场从2017年到2025年的增长将主要由人工智能半导体在5 x CAGR高于所有其他半导体类型的总和。无论你可能认为人工智能的作用在我们的未来,不是在这段是很难。有Tractica调查进一步分解这种增长的实现平台:CPU与GPU, FPGA和ASIC。2019年,CPU-based平台从b, 3美元增长到12 b在2025美元左右。基于gpu的系统开始6 b美元附近,2019年增长到2025年的20美元左右b。FPGA的贡献很小,也许1 b在2025美元左右。但ASIC段增长从2019年的~ 2 b美元30 b在2025美元左右。甚至的ASIC实现人工智能将取代基于gpu的AI在成交量约2022美元


来源:Tractica, Arteris IP覆盖

实现故障不应该太令人吃惊。CPU-based平台将适合低成本、低档次的应用——智能微波——系统设计师不想处理非标处理。gpu AI革命实际,将继续是重要的在相对高性能数据中心培训能力和成本不是一个问题,在原型等新兴应用机器人和增强现实耳机。但任何寻找电池高性能和低成本的体积,或分化的最终性能和能力在mega-datacenters成本不是问题,ASIC(一直)是最好的解决方案。

常见的智慧假设数据中心人工智能主要是关于培训机器学习识别模式使用大训练集,和人工智能的优势主要是推理,在目标应用程序中使用这些训练网络。现实是复杂的多。如果你分解训练和推理对数据中心和边缘,训练数据中心无疑是一个巨大的市场,从5 b - 1 b美元每麦肯锡在2017年和2025年之间,但主要由几大玩家。边训练是一个非常小的(但非零)的市场,也许2025年~ 1 b,支持说声音培训在一辆汽车的通信范围。

推理边缘,当然,一个大的市场,有许多球员,从本质上是在2025年0 ~ 5美元b;这就是我们通常期望大部分的行动。真正令人惊讶的是推理的数据中心,2017年已经在~ 5 b美元,2025年预计将增长~ $ 10 b;这个市场也有很多球员。这开什么?我们倾向于认为更新的应用程序(如公共监视和面部识别,但最常见的用途是在金融行业。事实上,信用卡公司是第一批组织商业利用机器学习。有垃圾邮件从你的信用卡公司提供更高的信用额度后你就犯了一个大购买?或者他们曾经关掉你的卡在你刚买了一双昂贵的运动鞋和价值5美元的气体?你得感谢AI。这些数据中心的推理很可能主要为AI $ $驱动程序。

现在让我们看看芯片架构。边,我们看到每个应用程序调到几个用例,经常与紧密的延迟需求,SoC架构优化严格执行这些用例。这需要自定义处理元素(通常是许多类型,和许多的),和高度定制的芯片上的数据流。处理元素的数量和类型在这些芯片一直在增长,需求有增加缓存一致性在人工智能核心连接它们(Arteris基于ip的实现使用为此Ncore互连)。还有需要增加加速器核心之间的紧密集成和其余的SoC设计。这类的硬件架构设计可能会变得复杂起来,但这可以极大地简化了软件,将更多的复杂性在这些棘手的人工智能算法的硬件。因为车辆已经成为最重要的人工智能边缘设备创新和新技术,它不应该奇怪,我们看到AI通常结合功能安全的要求。事实上,我们认为这不仅在汽车,卡车和其他车辆也越来越在机器人和无人驾驶飞机。

实现需要在数据中心之间也有很大的不同,不同的训练和推理。数据中心服务提供商需要通过多个车道的神经网络引擎和高吞吐量不希望优化应用程序到一个特定的工作。他们想要的超高性能通用人工智能解决方案,使用一组通用的硬件,所以趋势越来越填补网状体系结构使用同质处理元素,组织等常规拓扑网格、戒指和花床。

我们往往看到均匀网格方法培训,支持前面提到的通用方式。在数据中心推论,我们通常看到异构网格与战术嵌入式缓存的记忆,再次支持我们相信更有针对性的应用程序。

关于建筑,带宽片外/死内存仍然是一个很大的限制。我们看到HBM2很快被领养出于这个原因,虽然GDDR6也得到了很多的关注;如果它适合你的需要可以比HBM2便宜多了。逻辑设计本身可以在这些巨大的网状结构,推动内外全分划板的尺寸。这是生成越来越感兴趣开放通信接口,如CCIX OPENCAPI gen z,芯片之间或死亡。

我的外卖。

  • 自定义AI将主宰所有其他平台,不仅在边缘还在数据中心。
  • 不足为奇,推理是最大的贡献者在人工智能,但美元美元,大惊喜,datacenter-based推理比推理边缘会产生更多的收入。
  • 架构在边缘缓存一致性和AI在一款SoC设计的需求,而更多的云架构将精益填补配置。
  • 在云中,内存带宽正在推动更多的采用HBM2和GDDR6,又不是一个惊喜,但multi-die架构也将推动庞大的特殊结构。

底线是:人工智能大,但并没有所谓的“标准人工智能芯片。“最优芯片架构根据不同类型的函数,必须执行,必须执行,并在预算的时间和力量。



留下一个回复


(注意:这个名字会显示公开)

Baidu