未来的人工智能,量子芯片

三个研发组织的领导,Imec Leti SRC,讨论最新的人工智能芯片的趋势,包装和量子计算。

受欢迎程度

半导体工程坐下来讨论最新的研发趋势吕克·范举起,总裁和首席执行官Imec;首席执行官伊曼纽尔SabonnadiereLeti;执行董事和一个陈的纳电子学研究半导体研究公司(SRC)。陈在作业IBM。下面摘录的对话,发生一系列的一对一的面试。

左至右:吕克·范举起,Imec的总裁兼首席执行官;首席执行官伊曼纽尔Sabonnadiere,执行董事和一个陈的纳电子学研究半导体研究公司(SRC)。

SE:是什么在研发方面最大的挑战?

范总:在技术方面的挑战,很明显,节点到节点过渡越来越困难。在我们的讨论在很大程度上,我们下来光刻。我们知道EUV一直在缓慢进入生产。因此,这项技术变得更加复杂。所有这些多模式选择,周期变长。所以它已经成为难以规模。话虽如此,我相信我们不放弃缩放。与EUV在2019年初,我们将看到,预示由于光刻技术的能力。现在,已经说过,很明显,这是不一样的故事,因为它是10年前的事了。我们需要联系的系统引导技术的发展。这不是一个一维的路线图了。我们将看到一个多样化的技术,这取决于系统的一部分,我们正在考虑和系统的哪部分我们想规模。 So we need a portfolio of technologies, which we need to combine. So, one device is not ideal for everything in a system.

Sabonnadiere:我们的一些大事情。大的事情,你需要合作。过去,他们的想法是,我自己和隐藏我的工作,因为我要在上面。现在,这是结束了。与新的地缘政治形势下,我们必须重新思考如何在不同层次上进行协作。这是我们今天正在推动。最大的挑战是更多的合作。

陈:人们继续推动扩展,但很明显,我们真的不能推得更远。对许多人来说,比例不是真正的关键驱动因素。现在看到许多新计算范例和AI和量子计算等新功能。

SE:人工智能(AI)是一个热门话题。人工智能的一部分被称为机器学习。机器学习利用神经网络的一个系统。在神经网络,系统处理数据和识别模式。它匹配特定的模式和学习哪些属性是很重要的。人工智能和机器学习是如何改变了我们观察芯片和系统?

范总:在机器学习中,你真的需要了解系统的部分。但是,也有来自技术方面的解决方案。我们必须想出新的架构对于这些人工智能处理器或加速器,,例如,有很多嵌入式内存。我们正在开发具体MRAM解决方案,允许我们商店权重到处理器。这些都是技术的优化,但是您需要了解什么是系统的要求。这些应用程序,它们是不同的与别人相比。我们也在这些工作神经形态计算引擎,我们将使用其中的一些新兴的相变或记忆FeFET的记忆。

Sabonnadiere:我看到了一个爆炸的数据生成。人工智能是一个解决方案。它将成为更强大的比我们所能想象的。我们看到,AI将解决困难的问题。这是一个大故事Leti。我们已经重新分配一个很多人工智能的专家。这是一个多学科的故事。我们正在不同层的设备。飙升的记忆是一个部分。我们知道这项技术好几年了。 We are also equipped to push and create more momentum around edge AI. Everyone is taking about this edge AI story.

陈:在SRC,我们很多关注神经形态计算和人工智能。也有很多memory-centric计算。人逻辑器件用于计算了很长一段时间。但是有很多数据密集型的任务,所以利用记忆功能逻辑和计算能力是另一个流行的今天。所以,有两件事我明白了。一个是机器学习、人工智能和神经形态。他们都是可以互换的,人们使用条款。其他地区利用内存计算或数据密集型处理。

SE:最大的挑战是什么呢?

范总:今天当我们谈论AI,大多数人工智能软件或运行在云中算法,通常在GPU-like处理器,消耗了大量的能量。很明显,下一个大事件将使AI接近传感器节点或接近边缘或边缘。有一个原因在许多应用程序中,我们不想产生这些数据通过传感器,然后送他们通过云,消耗能量。然后,你处理它在云中回来到传感器节点。大量的能量也是浪费。有很多原因使智能传感器节点。但是为了做到这一点,我们需要人工智能引擎运作更低的能量。

陈:没有什么花哨的机器学习。算法已经有很多年了。它意识到GPU可以做这些算法有效。这改变了一切。现在,仍然没有有效的大脑。人们总是指向大脑模型。这并不是因为大脑比机器。大脑是更有效。所以,gpu消耗大量的电力。我们能做我们的想法是相同的功能,但更有效。 At IBM, we have a phase-change memory group. They use phase-change memory to imitate the synaptic functions. That can be a more native implementation of neural algorithms than a GPU version. GPUs are already better than CPUs. From GPUs, there is also ASICs. All of those things–CPUs, GPUs and ASICs–are all based on CMOS technologies. They are not designed to be neural components. So now finding a device that can become more of a neural component is the next shift. That’s what people are working on.

SE:其他的挑战吗?

陈:很容易描述的要求。例如,你需要许多层。在一个神经网络,它几乎涉及权重。重量必须调制具有很高的精度和记住那里的州。权重上升和下降。它必须是对称的。这些都是简单的需求。但是很难找到一种设备,可以满足这些需求。例如,浮栅是一种装置,用于已经超过三十年的目的就在于此。如您收取更高的费用,电导可能会改变。但电导的变化不是线性的,而不是纯粹的对称。现在,你看看ReRAM。ReRAM是一个丝技术。你可以让它更强或弱。但它从不对称。它从不gradual-it突然改变。所以一旦你偏离对称渐变曲线,你不再有同样的精度。所以人们谈论试图让一个设备履行了这一诺言。其实很难做到。

SE:我们听到了很多关于内存计算或处理在内存中。内存中有不同的含义,但在某些圈子里,这个想法是为了执行计算任务在一个内存,对吧?

范总:我们需要具体的加速器,我们称之为。要么是内存中处理或处理在内存中。有两个选项。我要说的第一个版本是将处理器的内存。很多这些人工智能引擎的巨大挑战是你有很多这些multiply-accumulate操作,您必须执行。为了做到这一点,你的数据,你需要与权重相乘。权重是存储在内存中的一个经典冯诺依曼体系结构。你总是拿这些权重,让他们到处理器,做乘法,重量存储一次。这就产生了大量的流量。所以你要做的是带权重的记忆。这就是你所说的内存中计算。这涉及到大量的嵌入式内存,所以你可以有成千上万的权重。这些是大量。嵌入内存所以你不必离开芯片访问那些权重。这是内存中计算。然后,下一个版本的计算内存。 That’s what we call neuromorphic processes, where you have some of the concepts of these crossbar memories like phase-change memory. You also can do it in a FeFET technology. When you have a matrix of memory cells, you can store the weight, for example, in the resistive element of a memristor. So you can have a weight stored right at the matrix of each crosspoint. Then, you can do these accumulate operations right in the memory. So you can embed the algorithms in the memory—you do the computations in the memory.

陈:当你有一个传统的CPU架构动态随机存取记忆体,静态存储器和不同的数据存储设备。接近逻辑和记忆,你有一些逻辑。这些逻辑门或电路操作在纳秒微微秒范围。但在数据存储,DRAM,访问时间是在纳米微秒范围。数据传输速度甚至更长的时间。这就像你在一天写一封信,但你需要一年送出来。他们需要把数据下或在同一个地方处理发生的地方。所以,我们有一个大内存数组中。记忆不仅是存储数据,但它也可以处理数据。这就是这个想法。 You don’t have to move the data back and forth. You use the data that’s already in the memory. You process it and it still stays in the memory. You avoid the data movement. That’s one idea. The other idea is that you have a memory array. A memory array, unlike a logic gate, has some intrinsic parallelism built into it. DRAM or SRAM have a lot of repeating structures. And those can do access functions in parallel. So utilizing the intrinsic parallelism in the memory array to make the processing faster is another idea in this so-called in-memory computing. In-memory computing is a very broad term. In a sense, neuromorphic is another particular example of in-memory computing. In our brain, the synapses is storing the weights and also processing the weights. But so-called brain in memory computing has to meet certain algorithms as well as certain weight and device requirements. Some other in-memory computing applications are not like that. It could be a binary operation within in-memory computing, which is simpler to implement than neuromorphic. So there is an overlap and a difference between these two terms.

SE:还有一种看法认为,欧洲在AI,而美国和中国。中国正在投入数十亿美元的人工智能。最近,Imec和Leti宣布建立合作伙伴关系发展的人工智能和量子计算。是Imec-Leti合作来加快发展人工智能在欧洲吗?

范总:而言,我想说作为一个通用的AI在欧洲,我们没有一个谷歌。我们没有Facebook,腾讯、阿里巴巴和百度。很明显,这不是欧洲的力量。在欧洲,我们有很多需要人工智能的应用程序,特别是更多的分散式AI。这是汽车和医疗行业。加入当地Leti在其中的一些技术,特别是在像量子计算下一个大事件,我们需要连接一些在欧洲的优势。没有意义的竞争研究组织照顾同样的东西。我们最好加入部队,并确保我们有更多的临界质量。对我来说,这不是太多的问题之前。我们是全球性的。 We work with everyone in the world. I am interested in how we can contribute.

Sabonnadiere:你的问题是正确的。钱不是万能的。它可以帮助,但它不是一切。我们看到中国和美国在人工智能与极强的学习云中的一部分。但是,你有人工智能集成芯片本身。在这一部分,我们可能都在同一起跑线上。我们仍然相信我们有动力。

SE:量子计算呢?

范总:量子计算还很远。已取得相当大的进展,尤其是在大学。但是有很大的区别在展示量子位一起工作,与做正确可靠地的过程控制。Imec进来。所以,我们正在主要是两个概念。一个是超导量子比特。另一个是硅基量子比特。我们也做一些工作photonics-based量子位。我们正在将我们的大多数集中于硅基量子比特,因为我们认为他们是最可伸缩。硅基量子比特,有机会规模较小的尺寸。 At the end, we will need like a million qubits that will need to work together.

Sabonnadiere:你见过很多团队很早就开始超导和低温。您正在使用量子技术的力量。但是,这是不实际的。我们想要做的不同。我们开始用硅量子比特。行业作为一个整体,是后期的数字产生的量子比特,但一体化的速度将会更快。可能需要量子计算即将在未来五到十年。所以,我们必须证明在未来三到六年,我们可以发展数量的量子位。这是与Imec合作的原因。某个地方,我们将把团队放在一起。 This will be the right time to accelerate on the hardware part. And in parallel, we have to solve the software story.

SE:先进的包装适合方程哪里?

范总:正如我之前说的有多种技术的多元化系统的特定部分,你必须把它在一起。3 d异构集成的方式把它在一起。同时,所有的你今天像smartwatch小型设备,先进的包装系统扩展的技术变得如此重要。我们增加我们的活动舞台。我们有一些集成方案在矽通过。我们已经知道,很多年了。堆积的记忆是另一个技术。然后,你对逻辑记忆。

Sabonnadiere:对于包装,我们在2018年6月开始与弗劳恩霍夫结盟。我们需要强有力的包装技术,实现汽车行业或在物联网。所以,我们有各种各样的球员将在3 d包装与我们合作。

SE:简单地说,什么是有趣的在研发实验室吗?

范总:生命科学是一个话题,我看到最大的增长机会。这是一个巨大的市场。

Sabonnadiere:我们已经表明,FD-SOI可以移动到10纳米。10 nm重塑和他们称之为7海里。有一个仍然需要开发一些支持者将它从12到10 nm / 7海里。

陈:有一件事是关于员工发展和学生的教育。这是非常重要的,因为我们看很多的范式转换。我们教育我们年轻的工程师和学生正确的方向吗?这是一个大问题为政策制定者和高层管理人员思考。

相关故事:

下一个半导体革命

人工智能体系结构必须改变

在内存中处理

量子问题和进展

2.5 d / 3 d,扇出包



1评论

Xprmntl 说:

SRC,新名词项目变成了nCORE奈米电子计算(研究)去年年初的计划。看到的:https://www.src.org/program/ncore/

留下一个回复


(注意:这个名字会显示公开)

Baidu