下一阶段的机器学习

芯片制造商转向推论作为这一技术的下一个重大机会。

受欢迎程度

机器学习就是做复杂计算大量的数据和提高效率,和越来越多的成功案例储备它已经迅速从一个默默无闻的计算机科学概念的首选方法,从面部识别技术自动汽车。

机器学习适用于所有企业功能,它会影响公司在每一个经济的一部分。这是不足为奇的资金涌入这个领域。一个调查由麦肯锡表明,人工智能开发项目总投资的2013年到2016年之间增长了两倍。大部分——200亿到300亿美元——来自科技巨头。这些公司认为,机器学习和其他人工智能模型下,将关键客户的未来流动性和网络现在。

这种技术之所以如此吸引人,机器学习和其他形式的人工智能可以应用广泛并仍然能产生戏剧性的好处。Gartner预测,到2020年,人工智能技术将在新的商业软件和普遍将投资的五大优势之一cio的30%。

事实上,大多数的大推到这个市场建立公司可以利用他们在其他领域发展。

•Nvidia已经成为gpu的主导者,机器学习的平台选择的训练阶段。到目前为止,这是许多机器学习的重点。
英特尔推出了Nervana神经处理器,一个低延迟、高端内存带宽芯片是特地为深度学习。(英特尔收购了2016年Nervana)。
•谷歌的张量处理单元(TPU)已经采取了一块市场的机器学习加速器。第二个版本,云TPU,更多的是一种高性能集群的TPU与Nvidia作为一个培训模块竞争比第一个版本,一个ASIC谷歌开发加快推理在自己的服务器上的语音应用程序。

这项工作的大部分是在培训方面,这是一个两阶段的第一步的过程。这一块主要是局限于数据中心和云操作,这是一个巨大的市场本身。首席分析师林利Gwennap林利集团项目datacenter-oriented AI加速器市场到2022年将达到120亿美元。

“在接下来的一两年,我们将开始看到更多的选择对数据中心和其他设备,“Gwennap说。“所以谷歌和facebook世界面临的问题是,”我继续设计我自己的芯片吗?或者,如果我可以在公开市场上一样好东西,我应该这样做吗?”

推论的机会
第二阶段在机器学习是推测,这基本上是应用学习阶段到特定的应用程序和细分市场。这就是算法投入实际应用,和预计的机会更大。家风投投资创业的结果已成过街老鼠,一些的运输或证明任何产品,以及大力推动现有公司到这个空间。

“推论和训练有很大的不同,”杰姆戴维斯,一个手臂的家伙。“推论是,你可以做各种各样的古怪的事情,如整理黄瓜,或者很多有用的东西。它更接近于用户,这就是为什么你看到“有趣”用例。但它也是与智慧文本输入法手机今天,25年前,开始和面部检测和识别”。

推论是辅助和自动驾驶的一个重要组成部分,从传感器收集的数据,需要基于机器学习的预处理。

“推论需要发生在边缘Pulin德赛说,产品营销总监Tensilica DSP组节奏。“在一辆车,你可能有20个图像传感器、雷达和激光雷达,提供360度视图。但如果你把一个图像传感器在一辆车,它可能有一个180度的视野。这需要失真校正,图像处理。”

培训和推测的一个关键区别是培训完成浮点数,而推论使用不动点。定点dsp和fpga。

“我们搬出去的地方一切都解决了使用x86处理器或人们为一个专门的工作负载,优化硬件”说,公司的首席执行官Flex Logix。“大部分计算是数据中心,所以fpga和其他东西的作用仍将不得不改变尽管你可能看到的传统架构和新的需要支持音频和视频扩展。我认为我们所有人是加速器”。

在机器学习中,FPGA和eFPGA玩家排队推论的一块市场。总之,林利估计将会有17亿到2022年机器学习客户端设备。

“gpu已经获得了很多的关注在机器学习的学习阶段,”罗伯特·布莱克说,总裁兼首席执行官Achronix。“但更大的市场是在推论方面,和这些产品的成本和功耗是至关重要的。这就是为什么嵌入式解决方案的空间会有吸引力的。”

Arm的戴维斯表示同意。他说功率预算保持在2 - 3-watt范围,而电池技术改进相对平坦。锂电池改进通常在每年4%至6%的范围内。所需的计算性能的提高使所有的工作,相反,是数量级。

这将需要不同的体系结构,包括了解什么处理完成。

“我们看到各种各样的人工智能、神经网络芯片和核心,”史蒂文说哇,杰出的发明家Rambus。“在更高的级别上发生的事情是他们融合在一起的信息。有很多的探索。现在你看到的是很多公司寻找主要市场基础设施建设。你用手机,看到哪里有数十亿的单位。这些推动新包装底层结构。你也看到它在汽车,有很多钱。和物联网可能有,但面临的挑战是找到共性。神经网络和机器学习,似乎有每周新算法,这使得它很难发展一个架构。这就是为什么你看到这么多的fpga和dsp的兴趣。”

定义机器学习
它不会帮助公司使用名词进行机器学习,深入学习,人工智能和神经网络。虽然这些都是细微的,一般的想法是,有足够的实时数据,计算机可以重量不同的场景和应对的最佳选择基于预先确定的权重。加权过程的一部分培训和推论,是机器学习的核心。

深入学习是机器学习极端——有更多层次的不同类型的分析,最终,更完整的解决方案的完成培训更多的计算资源。这两个经常涉及神经网络信息,创建是因为连接节点的人类大脑中的神经元使网格与周围细胞连接。人工智能是一个总括的术语,它意味着许多事情对许多人来说,来自IBM的哈尔沃森在电影《2001:太空奥德赛》。“但总的主题是设备可以学习行为独立于显式的编程。

谁在使用毫升
机器学习已经成为非常普遍的以客户为中心的应用程序项目销售,寻找客户流失的迹象,提供客户服务通过交互式语音响应或网上聊天机器人,或消费者应用程序(如Google的翻译。

Facebook使用三个深度学习应用程序过滤上传,例如,一个面孔识别和标记在图片上传,一个检查文章仇恨言论或其他客观内容和目标广告。

“令我感到惊讶的是有多快深度学习的革命。在过去三年里各种各样的应用程序有了几乎一夜之间在深度学习的传统方法,”首席科学家比尔磨磨蹭蹭的,快和Nvidia研究部高级副总裁。“这并不需要一个巨大的投资在软件;你把应用程序,训练网络,你就完成了。成为普遍的在一些地区,但每翻到神经网络的应用程序,还有一个十可以翻转。”

大多数采用高科技产业实验外,大多数采用人工智能的科技行业内已启用或改善其他服务或添加新的客户提供,根据麦肯锡。接受调查的3000多家公司中,只有20%的人说他们使用任何人工智能相关技术业务的重要组成部分。测量160 AI用例,麦肯锡发现人工智能部署商业只有12%。

或看着不同,88%的公司还没有人工智能商业部署,这是一个巨大的机会。科技公司,谷歌和Baidu-spent contrast-including在2016年200亿美元和300亿美元之间,90%为研发和10%收购。

深入学习下一个大事件
深度学习在客户服务和分析可能是好的,但它也是主要的候选系统,提供即时感知、决策和控制所需的自主车辆,根据Nizar Sallem,首席工程师,传感器融合导师,西门子业务

“机器学习中最重要的应用是了解汽车周围的环境,不同的演员在路上和上下文基于交通规则和期望车辆的那一刻,“Sallem说。“它来识别你的行为应该是什么,但也当你可以打破规则逃离危险,或保护人类在车里。”

市场预测
然而能力的人工智能技术,开发仍处于起步阶段。主要供应商仍然是现有的科技公司,和赚钱机器仍然是服务消费者。包括谷歌的语音识别和翻译服务和从亚马逊consumer-interaction /客户服务应用程序,Facebook、百度等,根据Tractica报告。报告估计AI-driven消费者服务在2016年价值19亿美元,并将在2017年底前升至27亿美元。


图1:人工智能技术收入。来源:Tractica

AI Tractica估计整个市场——包括硬件、软件和服务——到421亿年将上升到2025美元。


图2:AI收入段。来源:Tractica

机器学习作为服务(MLaaS),是一个不同的类别——亚马逊旗下的73%,IBM和微软。,预计从2016年约10.7亿美元增长到199亿美元,到2025年,根据4月报告透明度市场研究(咯)。

大部分machine-learning-enabled服务目前针对消费者,accorcing Tractica——包括谷歌的翻译和语音应用程序作为证明其客户TPU的概念。

从客户转向竞争对手
深度学习的出现也凸显了一些日益复杂的半导体行业和其最大的客户之间的关系,尤其是谷歌和其他超大型数据中心主人足以规范和建立自己的服务器和芯片。

芯片公司工作多年来建立或定制硅云客户特定的需求。考虑英特尔,例如,这对微软建立FPGA DL加速器,FPGA应用程序加速器访问阿里巴巴云客户。英特尔还招募了Facebook帮助设计包装推出的英特尔Nervana神经处理器和即将推出的“湖嵴”ASIC深度学习。

谷歌宣布其他芯片,包括新闻,已开发出一种机器学习的协同处理器Pixel2手机,它的第一个移动芯片。谷歌还开发了泰坦,单片机连接到服务器,以确保他们不启动故障,损坏或不像是软件。

谷歌的投资首先TPU说它可以提供“一个数量级better-optimized每瓦特性能机器学习”,推动谷歌毫升应用领先大约7年。第一tpu只是为了加快普通服务器运行机器学习模型的推论,不是训练模型。因此,他们不直接竞争与Nvidia或英特尔的ML培训产品。

当Google宣布云tpu今年5月,它主张听起来更直接与英特尔和Nvidia的竞争。

谷歌云TPU描述为拥有180次浮点运算的浮点计算性能,但包装单位four-TPU豆荚总共包含每秒11.5次。配置似乎是为了与Nvidia的高度重视DGX-1“超级计算机”,其中包含八个顶级特斯拉V100芯片,并宣称一个集体最高吞吐量一个数学运算。

竞争从云
“谷歌和其他一些早期的成功没有加速度,或与TPU,但有些网容易训练;标准图像搜索很容易,”玩弄说。培训”,但增加了信号处理,图像和视频处理流,和再培训他们的网络的人每星期或更重视培训,gpu更有效。”

问题是一个新的处理器从谷歌足以抢走其余的客户业务,答案可能是“不。任何云提供商必须支持多个架构,所以deep-learning-enabled数据中心将smorgaboard cpu、gpu, asic fpga和IP从一系列技术,根据,前首席技术官节奏的IP组成立Cognite企业创业基金,建议在神经网络,物联网和自治的嵌入式系统。

一些训练的负荷也可以转向更加重视所有的数十亿推理引擎内置客户端设备,再生草说。肯定会有机会很多公司在这空间;机器学习培训工作在数据中心的服务器上,但是它很难取代了球员。


图3:认知计算的进化。来源:Cognite合资企业

“有很好的理由要选择,但是有很多选项,和英特尔、高通和其他人关注,“再生草说。认为“这不是一个好主意,因为你有一个神经网络的智能手机,你可以out-manufacture三星。”

编者斯珀林对此报道亦有贡献。

有关的故事
伟大的机器学习竞赛
芯片产业复位技术开始成形;没有明显的赢家。
在EDA中使用机器学习
这种方法可以使设计更好和更少的昂贵,但它需要大量的工作和更多的共享数据。
机器学习满足集成电路设计
有多层机器学习可以帮助创建的半导体,但没有像其他应用领域一样简单。
CCIX使机器学习
系统可以使或打破世俗方面的解决方案,通常和接口定义什么是可能的。
机器学习越来越流行
经过两年的实验,半导体行业正在努力接受这种方法
机器学习的阴暗面
机器学习技术来防止敌对的使用需求,以及更好的数据保护和管理



留下一个回复


(注意:这个名字会显示公开)

Baidu