验证人工智能,机器学习

OneSpin首席执行官看着我们需要在这个计算空间,赢得了哪些技术,和关键指标。

受欢迎程度

总裁兼首席执行官OneSpin解决方案,坐下来讨论人工智能、机器学习、神经形态芯片。以下是摘录的谈话。

SE:改变机器学习吗?

Brinkmann:有一个真正的推动计算 在边缘。每个人都知道如何做数据中心现在,随着时间的推移,你可以期望改进gpu, cpu和需求方。但如果你想去,你有功耗要求低数量级相同或更高的数据速率。

SE:有很多讨论,尤其是对汽车需要解析计算整个传感器,汽车的中央大脑和云。

Brinkmann:在许多情况下,特别是在物联网,这就是人们寻找应用程序空间。你有要求延迟,隐私和低功率不符合云模型。你需要做大量的预处理和本地推论,这并不是什么新鲜事。但什么是新是人们思考做学习上的优势。这意味着你不再只是做推理网络的一部分,在某种意义上可以轻松一点。你也学习,因为你需要在你的设备上下文意识。如果你训练自己的设备,你可以让它,而不是每个人都有。所以它可以被训练识别你认识的人,或者是特定于你。这是为你学习。普遍的共识是,这不是可行的把所有云上的数据,所以需要做一些本地。 But that requires totally new technology to perform the learning. The fundamental problem is how deep learning is done today. It uses gradient descent for linear regression and back propagation. You need to transpose the matrix that you feed forward in the network. It’s an exact copy of it, transposed. Feeding all the data back, it trickles backwards through the network. That takes a lot of power and it takes ages to do so. There are new ideas about how to perform the learning, replacing the back propagation, which is fundamental to deep learning right now. That’s the interesting piece because it will turn everything on its head when it comes to how the architectures look.

SE:你怎么证明这个作品吗?我们正在处理技术,在某些情况下的生命取决于它。整个工厂将运行在机器学习。但是我们没有任何历史展示可能出错。

Brinkmann:这将是同样的方法用于汽车功能安全。这是一个统计测量。这是唯一的方法。毫无功能验证,你可以做,因为从根本上你创建的是一个统计模型。你只能事后统计分析。

SE:我们有足够的处理能力来模拟这个吗?你不只是模拟一块。你是模拟整个系统和它是如何工作的,特别是如果你卸载一些学习边缘和云。

Brinkmann:模拟是可行的。整个数据中心模型可以得到证实。基本上,你在这些咖啡或TensorFlow建模。如果你想留在云,你做的浮点版本,或者只是做整件事情。当你想去一个边缘设备,较低的性能,你想拥有一个整数的版本。你有模型,为了安全起见,与整数位置,您的云环境,并验证它之前你把它放到芯片。当然,您可以运行芯片模拟器本身,但最终你需要理解这些建模问题的影响,如减少内部算法的位置。你需要分析在实验室之前,确保它工作部署它。

SE:当你训练这些东西,该系统将与你开始的一样吗?当你分发的情报系统,它不是静态的。这就像知识一致性。你真的能确保所有数据已经完整它应该去的地方,你有连续下一步吗?

Brinkmann:再一次,这是统计。你必须检查一遍。当您运行一个周期的学习时,你再执行验证,然后再部署。

SE:那你就像不断验证有什么关系呢?

Brinkmann:是的。这是一个很大的基础设施需求。你需要计算很多事情要做。没什么我们做过的工程。这是一个信任的问题时你信任的整个框架和链的事情?这将是有趣的,看看公司的方法这个问题。如果你在关键路径或应用程序部署它,人们会想知道他们是否可以信任它,为什么。

SE: OneSpin放在哪里?

Brinkmann机器学习:我们有几个项目。我们雇佣数据分析师团队在研发。我们现在使用的技术来提高我们的工具和流程在内部,如优化重复任务。你想确保你的测试运行在正确的顺序和你不会遗漏任何事情。然后,在下一个级别,你升级的工具。你分析芯片和验证数据,建立的预测模型里面我们可以做出更好的决策引擎运行的工具,或运行多长时间,会发生什么。

SE:你的重点是努力改善你的产品,不一定是机器学习的过程中,对吧?所以你不关心修剪数据更有效的机器学习部分。

Brinkmann。完全正确。还有另一个问题的人工智能芯片将是什么样子和什么验证的挑战。这就是我们调查的大部分时间,试图理解它。这就是为什么我们学习算法和技术潜在的芯片会是什么样子,什么类型的市场会有人工智能芯片,以及验证挑战。

SE:你找到了什么?

Brinkmann。两件事。有一个路径,更多的是一样的。在数据中心和其他应用程序,你只是扩大gpu和cpu在某种程度上我们还没有见过的。这就是你从现有流程的杠杆。但它将挑战越来越大,重置和集成问题。在某种程度上,个体块甚至可能变得更简单。你能想到的知识产权块中使用这些一次又一次地充分验证它们正式因为他们很重要,很简单,所以正式可以扩展到完整的验证级别的这种芯片的关键部分。然后有一个完全不同的路径。有芯片应对能源挑战的新架构。数据中心也power-challenged,但不是以同样的方式作为物联网设备。

SE:权力边缘呢?

Brinkmann:你越接近边缘,功耗也就更重要。即使在汽车,你不能一个300瓦的计算机引擎。你有影响。这不仅仅是本身的力量。力量训练,你必须到位。它有一些重量。汽车变得越来越大、越来越重,如果你放入更多的电线。你必须为它提供冷却和更大的电池。多一点力量也会有重大的影响在汽车系统的其余部分。这就是为什么汽车供应商非常关心功耗。 It’s not that they can’t afford the 300 watts by itself. It’s more about the implications it has on the rest of the system, so they’re trying to get it down to maybe 30 watts.

SE:最大重量是多少?

Brinkmann:布线。

SE:解决方案是什么?

Brinkmann:解决权力的挑战,你必须得到的计算数据。人工智能的电力消耗是由数据移动。

SE:。最大的一个能源问题涉及移动大量数据,对吧?

Brinkmann:是的。有大量的数据的像素数量传感器。它的像素爆炸。你需要减少边缘的数据量有关的东西。也许你想保持高分辨率在一些很有趣的地方。这就是我们需要人工智能识别重要的一张脸,另一辆车,一个路标。你可以模型数据在某种程度上,你狭窄的下来。但你仍然需要有一个芯片,与低功率的能够执行这个任务。所以人们想要计算到数据。一种技术,人们看到的是内存中处理技术,你分发小处理元素在整个DRAM结构。你基本上结合逻辑和内存技术。 That hasn’t been done before. The challenges there are massive because the whole process today has been optimized for cost. It’s not made for fitting anything new in there, even if it’s just small IP blocks distributed throughout it. The logic process is on the other end. Now you’re trying to combine both.

SE:内存也被添加到网络,。

Brinkmann:是的,你也可以将本地内存计算元素,并在某种程度上它成为讨论的地方。事实是你需要拉近他们之间的距离。如果你移动内存计算或者反过来,它可能不会有很大影响。如果你看看TPU的架构(TensorFlow处理单元)从谷歌或(英特尔)Nervana架构,他们用小处理elements-little需求方与当地记忆本身就有网络所以这些元素可以相互通信和数据通过。


图1:英特尔Nervana芯片。来源:英特尔

SE:考虑到所有这一切,将人工智能芯片是什么样子的呢?

Brinkmann:这取决于你是谁,你在哪里。在GPU数据中心,将成为很长一段时间是最好的折中灵活性、性能和权力。另一个方面,这是编程环境的灵活性。如果你想要更加灵活和更水平能够解决不同类型的学习和人工智能任务,你需要有一个非常通用的平台执行。CPU基本上是在列表的顶部。它可以做任何事情。如果你去gpu和需求方,那些越来越不通用的,但是你可以对某些任务执行更好。


图2:张量处理器体系结构。来源:谷歌

SE:需求方和gpu便宜,对吧?

Brinkmann:是的。你有一个很好的妥协的数据中心,但对于边缘设备将是不同的。我看到有垂直解决方案。勉强集中架构对于某些应用程序,像一个特定形式的图像处理或一个特定形式的自然语言处理,将会简化为一个特定的任务。还有一个很大的灵活性来处理不同的做事方式,但它无法处理完全不同的体系结构的神经网络或新的学习计划。这些垂直的事情会绑定到一个特定方案的人工智能。这是有趣,因为这个空间移动如此之快,很难说什么正确的体系结构。当你做决定,你想把你的鸡蛋在这个篮子里说,“我要赌这个架构,这个狭窄的细分市场和芯片吗?”

SE: FPGA原型呢?那些仍然有用吗?

Brinkmann:我跟人做人工智能芯片和他们说,他们甚至不打扰构建一个FPGA原型。他们直接从一个模拟模型转换为硬件实现,然后直接到工厂去完成它。上市时间是如此重要,他们不想等待,因为算法将过时。一个专门的芯片有一个非常狭窄的机会之窗。

SE:所以你还开发单个芯片,或者你使用某种包装平台,80%的完成了,然后一个或两个元素改变了?

Brinkmann:这将是明智的尝试,至少,增加灵活性。但我不确定如果可以把你想要的力量和吞吐量需求。

SE: fpga作为核心的最终设计吗?

Brinkmann:有混合的可用性报告FPGA在这个空间。有人说这是伟大的因为你可以重新编程和做各种各样的事情。其他人说GPU是更具成本效益的和灵活的。FPGA可能太贵了你需要的规模,在某些情况下,执行任务。不同的人正在接近这个不同。

SE:正式工具将在这些工作,对吧?

Brinkmann:是的,我相信会有爆炸的不同设计和人们。如果他们在很短的时间内市场,一个正式的解决方案是必不可少的。他们需要正式确定一个特定的事情真的是正确的第一次。

SE:有一个点,你只是建立一个图书馆的所有不同的事情我们需要测试使用正式的?

Brinkmann:我不这么认为。总是会有一些新的东西,人们认为你需要地址写断言和确保它是有效的。我们现在可以构建几个特定功能的IP块或验证IP。有协议跳棋。我们有一些新的东西,验证IP浮点单位,这是很酷的。但它针对的是一个特定的功能,很多人,和人可能需要不同的精度浮点单元。这是你不能预见和预测。

SE:你能有不同的芯片在AI一起工作吗?

Brinkmann:你仍然需要验证模型匹配,这是棘手的部分。验证问题的本身,确保一个版本,浮点数,整数模型匹配。

SE:你需要地图,比固定数量分布的映射,它随时间变化而变化?

Brinkmann:是的。你想re-verify一些您的网络的关键属性。你不能证明他们是等价的,因为他们没有,所以你需要度量网络是如何执行和期望是什么。你甚至可能需要再教育的错误率。

SE:神经形态芯片呢?

Brinkmann:没有人想出了一些真正有用的,但是有很多的研究。如果你看看今天深度学习是如何实现的,它与大脑是如何工作的。大脑不做反向传播,计算事物的换位。没有对称传出神经元和输入数据之间的关系,反过来,下次反馈他们应该做什么。如果你成功地简化了系统,你可能可以加快学习和有一个简单的架构和模型,而不是今天做的反向传播。这就是研究发展方向。没有一个解决方案,但有一些好的工作在概率空间传播出来。这是一个学习的新方法执行。

有关的故事
伟大的机器学习竞赛
芯片产业复位技术开始成形;没有明显的赢家。
一个人工智能芯片是什么样子?
作为人工智能的市场升温,那么困惑如何建立这些系统。
机器学习满足集成电路设计
有多层机器学习可以帮助创建的半导体,但没有像其他应用领域一样简单。
在EDA中使用机器学习
这种方法可以使设计更好和更少的昂贵,但它需要大量的工作和更多的共享数据。



留下一个回复


(注意:这个名字会显示公开)

Baidu