机器学习入侵IC生产

专家们表,第1部分:将机器学习和人工智能提高芯片制造?

受欢迎程度

半导体工程坐下来讨论人工智能(AI),机器学习,和芯片与阿基光掩模制造技术》的首席执行官d2;杰里·陈,商业和生态系统在Nvidia开发经理;资深技术专家平Nakayamada NuFlare;和产品区域经理主管和米凯尔Wahlsten Mycronic。以下是摘录的谈话。

资深技术专家(唐森平Nakayamada NuFlare;d2首席执行官阿基》;和产品区域经理主管米凯尔Wahlsten Mycronic;陈和杰里,商业和生态系统在Nvidia开发经理。

SE:从你的角度计算一般的挑战是什么,为什么所有的机器和深度学习的兴趣吗?

》:精度和速度之间的权衡计算任务的执行一直是一个挑战摩尔定律。它将永远像,只要摩尔定律持续。它总是更好,当然,要快,总是更好的更精确,但是你不能有两个事实证明。你必须做出权衡。深度学习实际上是伟大的,因为它可以让你有机会做更准确更快。这是一个突破的机会的人试图为该行业提供软件。

陈:传统上,很多决策为任何类型的操作已经被某种基于物理的理解。你有一些物理模型。基于物理模型,你用它来告诉你你应该怎么做,做出一些预测会发生什么,或者你应该做些什么来优化你的过程。这仍然是一个非常强大的事情。和有很多的计算能力和大量的HPC(高性能计算)抛出的这个问题。这么大的变化,我们已经看到最近是可以增加很多基于物理模型,一直工作。除了现在,你可以增加机器学习,或在特定深度学习。基本上,这是一个补充了基于物理模型的数据驱动的模型。多个用例的证据表明在许多行业,这之间的互补的集成基于物理模型和数据驱动的模型已经能够取得惊人的成果。

SE:为什么我们不能继续与传统架构或HPC路径?

陈:在我自己的背景,我在结构力学。这是HPC基于物理结构模拟。然后,如果你看看在计算,Nvidia的历史,把图形部分,我们开始在HPC的超级计算空间,基于物理仿真的本质上。有很多很有价值的,基于物理模拟。时间是这样的,因为这些突破发生在不同的区域,这些数据驱动模型深度学习和其他事情已经变得如此强大,有效和有用的。它已经改善的结果。有时,你有一些物理问题。你对物理的理解实际上开始分解。或者,你理解它,但计算复杂度为了创建仿真是如此昂贵。你可以快捷的通过使用这些数据驱动模型来补充它。 Deep learning is this hugely useful tool and a big hammer that people are successfully using.

SE:机器学习已经存在好多年了。据我所知,利用机器学习的神经网络系统。在神经网络,系统处理数据和识别模式。它匹配特定的模式和学习哪些属性是很重要的。那是正确的吗?和机器学习今天和过去之间有什么不同?

陈:其实不是魔法。人们倾向于扔掉很多条件。机器学习对很多事情仍然是非常有用的。许多我称之为传统的机器学习技术通常需要一些博士论文设计或工程师一堆功能使用和退出数据。基于这些特点,你有一些物理表示的情况。一旦你已经表示,这些工程特性,那么你可以做一些预测或某种决定。今天,在我的思维方式,深度学习的原因已经被证明是如此强大,它的使用神经网络。这是一个类型的深层神经网络,它会自动学习功能。它不仅是学习任何功能。学习更好的特性,是有效的和更多的超过一千名博士能发现在他们的学术研究。学习表示,而不是工程表示。

图1:一个简单的三层神经网络,由一个输入层、隐藏层和输出层。来源:Aberystwyth大学,兰卡斯特大学

Wahlsten:这是为什么我们感兴趣的是它的一部分。我们认为这可能是一个技术,以提高我们理解我们的工具。例如,在我们的模式生成系统,经典物理学是一个基准。在这个工具,你可以通过应用纯物理理解很多事情。但有些小事情,你不明白。我们认为我们可以使用这种技术来找出如何连接。我们看到的另一件事是,你可以把在一个大的部分数据,看看会发生什么。相比,一个人在这种情况下,机器可能会更有创造力。通常情况下,如果你尝试,你更倾向,或者你需要补充知识,或者你正试图找到支持你已经知道的东西。在这里,你可以扔在很多大的数据集,试图找出如何连接。 We see a big potential to both make our tools better and also trying to understand and see the early signals if something is wrong from your perspective in the results. Also, we are developing systems in very different environments. This could be a potential to create more dynamic software, compared to what you have today. Today, it’s very static. Here, this could be tuned to make a tool more dynamic for customers without putting all of that complexity into the code.

SE:在半导体制造,尖端芯片制造商移动到下一个节点,这是更复杂的和昂贵的。考虑到这一点,光掩模制造业变得更加复杂和具有挑战性的,对吧?

》:最近的eBeam主动调查再次显示,面具周转时间只是越来越长。它是有意义的。什么面具使硅片光刻,或者,换句话说,平板显示器光刻,运转良好。所以面具必须包含特性来实现,光刻技术。但是当你去更好和更精细的几何图形,你会需要更多的技巧。其中的很多技巧是让面具形状更为复杂。它使工序任务越来越复杂。

SE:对机器学习和人工智能光掩模制造吗?将人工智能和/或机器学习使一个电子束面具作家模式光掩模本身有一天吗?

Nakayamada:这是一个未来的目标。但是有许多事情需要完成到达。有应用程序,在我看来,在短期内。在某些方面,我们看到这种面具在整个写作过程。它在过程控制的优化。

Wahlsten:首先,这项技术将会提高质量。我们应该能够做出更好的面具也作家和服务我们的客户更好地控制和帮助他们发生了什么。然后,你有预防性维护。该工具本身无法理解如果出现错误的方向。但这种技术,你可以在分解的东西。这也是有价值的客户。

》:这是适用于所有行业。调用服务时,他们去一个网站,他们不能把每一个部分。但是如果有一个deep-learning-enabled机制,预防性维修的概率提高了。

SE:机器和深度学习在哪里?这里的趋势是什么?

》:深度学习。这是秘密。这不是魔术。只有限制扩展你有多少gpu和你有多少计算能力。深度学习有一个固有的可伸缩的计算模型。一旦你教一个深度学习引擎,随着硬件规模,能力扩大,也许成倍增长。这就是为什么我们看到那么多的迅速进步和应用,比如自主驾驶等等。GPU加速的关键是使深度学习。当然,深度学习的想法已经存在了40年。机制已经存在,但没有计算能力。 Then, GPUs came along and they are inherently scalable. This is why GPU computing power continues to expand, because it’s about bit width. It’s about how many bits you compute at the same time. It’s not about how many gigahertz. So in general, machine learning involves iterative optimization, which is a class of computing. Whenever you have that kind of a problem, and whenever somebody in computer science says that they have an iterative optimization problem, that problem can be speeded up with deep learning. It doesn’t matter what it is. I don’t even know what the application has to be.

相关阅读:

可靠性、机器学习和高级包装

晶圆厂满足机器学习



Baidu