利用更多的数据来提高芯片设计

不同的方式收集、分析和应用,数据来提高效率和可靠性。

受欢迎程度

每一步的IC工具生成一定数量的数据流。但某些步骤生成一个令人难以置信的数据量,并不是所有的平等的价值。的挑战是找出最重要的部分的设计流程。决定如何提取和循环回到工程师,当需要做为了提高的可靠性日益复杂的芯片和减少tapeout的总时间。

这已成为必不可少的关键安全市场,标准需要跟踪的数据分析。但除此之外,分析数据可以帮助确定问题的设计和制造,包括问题源于热和其他生理效应检测瞬态异常情况和潜在的缺陷。随着数据,正在开发新技术进行数据分析,包括使用数字双胞胎,人工智能和机器学习。

从testbench逻辑验证流的数据代码覆盖率分析详尽展示的哪个部分RTL版本的设计一直锻炼,在多大程度上他们已经测试。这个数据分析的逻辑验证流是至关重要的。集成电路设计流程的其他区域产生大量的数据,传统上并没有分析详尽,因为它只是提供了一个指示的芯片是否正常运行。然而,这种情况正在改变。

“随着数字化的出现,自治和艾城的一切,所有的数据增长的重要性,乔Sawicki说,执行副总裁IC EDA导师,西门子业务。“越来越多的安全标准也需要新的水平的跟踪流程和授权文档生成数据的所有这些流程和工具。这些标准要求越来越广泛的测试发展的各级IP块芯片PCB ECU整个电子系统最终产品电气/机械和测试数据需要记录”。

它还需要看在上下文中,这是一些新的工具成为关键。在汽车和一些医疗设备,例如,一个系统可能需要故障转移到另一个地方。这就是人工智能和概念,如数字双胞胎适合,因为这些设备需要在虚拟场景中测试之前运行真正的软件产品被制造出来并在现实世界中进行测试。

”都需要测试,测试的方法和结果需要记录,“Sawicki说,并指出,为了实现这个目标,集成解决方案至关重要,不仅使设计和验证团队测试和收集数据的系统,在工程学科,数字的双胞胎,然后使用这些数据来生产更健壮的下一代产品和更有效的方法来生产这些产品。之间“有更多的数据,共享数据的工具将使新生代AI / ML-powered工具更好更快地完成任务和训练大accuracy-not只是传统IC EDA工具的流程,但对于所有的工具参与构建更好的、更完整的数字双胞胎。”

大数据问题和方法
复杂的芯片的不断增长的复杂性和规模,以及所产生的数据量从布局到回归。需要阅读和分析数据,但它也需要一个可行的计划。

数据大小的巨大,评论,所以最重要的是首先,读取数据;其次,分析;第三,创建分析或可操作的决策。“什么价值与所有这些数据和报告,”维克Kulkarni问道,副总裁和总经理的半导体业务单元有限元分析软件。“这是一个常见的问题。例如,在210亿年到250亿年之间是很常见的人工智能芯片的晶体管,gpu和cpu。如果你看任何新的创业公司做ADAS的人工智能芯片,加密,对于任何决策,一些卷积神经网络都在这个范围。这些通常有100多亿连接区域/节点,每一个有多个连接。因此,1万亿纯RC组件是一些ADAS类型芯片。”

开车从技术层面分析权力的multi-physics和信号完整性、可靠性、以及电磁效应。“multi-physics方法是需要随着时间的推移,从老式的模拟晶体管天,微米、亚微米、纳米,现在到7,5、4、3海里,”Kulkarni说。“摩尔定律继续,尽管在3 nm可疑,但所有的这些影响已经开始变得如此重要,越来越多的物理添加。Multi-physics影响开始添加技术缩小。”

Ansys上增加了机器学习的数据管理识别虚假违规电迁移和电路可靠性技术,检查模式会导致可靠性或老化的问题。“确定数据管理和如何分析它是困难的,”他说。为汽车应用程序尤其如此,激光雷达,雷达和摄像头都产生流数据。有效地管理和分析这些数据可能需要不同类型的处理器结合使用,包括gpu, cpu和fpga,他指出。

结合不同的技术越来越普遍为分析从硬件和软件性能如何遵守安全标准。

“我们开始与并行性的识别,但发现不是问题对于新类型的应用程序,“马克斯Odendahl说的首席执行官Silexica。“可能有足够的并发和并行性。问题是更多的在系统水平如何结合动态数据和已经写了什么,以及它如何适应组合模型。工程团队不需要更多的并行性。他们需要找出系统中发生了什么。如果它不工作?他们需要更多的并行性吗?他们需要更好的安排吗?是否需要一个更广泛的公共汽车?系统是否需要线程映射到特定的核心,因为它太动态了吗? What’s the root cause of bugs? They have no clue. All they do is capture a huge amount of data. They can look at Excel charts of a thousand lines, but it doesn’t really tell them anything.”

我们需要的是一个更集中的方式将数据捕获基于应用程序监视或动态分析,然后与这个回逻辑软件体系结构结合成一个统一的模型,Odendahl说。“我能做什么呢?我可以检查我的实现实际上是如何指定。或者如果有人开始削减,管理层表示这是一个产品,现在我突然需要做各种各样的验证测试,获取所有数据显示它有实际意义。这就是我们每天听到。一旦我有这个连接,我可以得到很多的见解和试图找到问题的根源。或者它可能是有两个运行相同的算法,但是他们表现不同。如果所有我看到的是一个Excel图表,这是很难找到的。但是如果我有源代码连接,我可以告诉,在第12行有一个递归算法。就10迭代,但基于新的数据,我做了200次迭代,这就是为什么我们认为它看起来与众不同。 I can only do this if I connect those two worlds together.”

有什么不同
在传统的验证空间,验证的范围总是被视为一个整体的过程。但是整体的定义已经改变随着芯片越来越更紧密集成到系统中,当系统与其他系统进行交互。

“设计和验证的团队,这是真正的可预测性时间表,试图了解如果他们被他们可能可以的生产率和效率,以及他们是否针对可接受的质量水平,为他们的产品的交付,”拉里悟道说,系统中产品管理总监&验证群节奏。“验证一个堆栈,堆栈包含验证的执行过程和不同类型的引擎。下一层,包括抽象层,包括我能否这样做更快如果我使用一个更抽象的表示,这相当于对这些情况下足够了。有点平衡引擎和抽象说我可以得到更多的性能通过提供某种程度的抽象。然后在顶层,即使我们谈了很多关于覆盖率和一切,当你和用户都是关于错误。”

在这个空间,验证管理进展从coverage-driven metric-driven是当今的主流。这将演变为数据驱动的验证,这就需要一种不同的方式看待验证的问题。

“这是学习如何提出正确的问题的数据,然后将这些数据集可视化的方式说,我看到这里,”悟道说。“如果我们可以收集信息,这些信息,并做分析,然后我们可以告诉它下一步是什么,而不是一个工程师中间的循环。这绝对是一个迭代过程,但好消息是这个东西它可以迅速行动一旦引擎。这是做数据收集与分布式数据系统,这样您可以查询分布式数据和创建有趣的数据集以灵活的方式。当这一切发生时,我们应该开始看到更多快速进展的分析和闭环反馈类型的方法。”

其他人也同意。“在验证空间,分析数据和指标既可以用来做出更好的特定项目进展和改善工具对于未来的项目,”杜米尼克摩根说,负责工程的副总裁OneSpin解决方案。“事实上,分析和指标是非常核心的现代功能验证。报道度量和验证结果是知道的关键已经验证,验证高亮显示空白,确定过程完成后。正式的分析指标和结果可以集成与模拟和仿真的协助下新的商业工具。结果可以back-annotated最初的验证计划,和报道的结果可以用来确定一组最小的仿真测试。这些步骤收敛充分验证和功能更快地签字。”

形式验证运行时,额外的指标可以聚集在正式的引擎是不同类型的设计和最有效的断言,摩根指出。“现代正式工具有许多这样的引擎。专家可能希望控制直接但大多数用户只是想要最好的结果(证明和bug)尽快。”

现在,与机器学习,选择引擎的算法得到更好的和更好的运行基于发现的最好的工作。这反过来又加速了验证过程在给定的设计。但真正的胜利是,随着时间的推移,集体智慧来自多个项目提高了正式的工具本身,摩根说。

关闭循环
而大量的数据捕获在设计和验证的过程,更重要的是获取数据的过程的现实世界和喂养回验证过程。

这都是关于确定该软件是运行在硬件正确的见解,首席执行官鲁珀特•贝恩斯说UltraSoC。“有软件工具,如抽样分析器,但他们是有缺陷的。他们是侵入性。他们只看到一些活动,因为他们是抽样。他们介绍自己的依赖关系(heisinbugs),最重要的是,他们performance-quite产生显著影响。相比之下,基于硬件的实时分析,详尽的报道。这种方法并不影响行为和不影响性能。他们也给洞察事物软件不能see-interconnects,内存控制器和缓存。后两个是著名的复杂和臭名昭著的负责很多性能问题。正如我们知道的,缓存可以负责很多安全问题,所以分析可以检测他们来说是无价的。”

理解软件和硬件之间的相互作用是至关重要的。贝恩斯强调,“软件性能取决于硬件。“软件集成和验证是目前最大的单一的成本SoC发展,并与多核设计是变得更糟了。硬件设计的相当频繁,微妙的方面可以对软件的性能和行为产生重大影响。集成和验证检测,优化性能,发现安全问题,等等,是非常困难的。需要分析出实时、非侵入性的,系统级的见解。”

针对解决方案
不过,数据本身是数据。“数据变成有用的需要语境化”Diamantidis利奥说,产品设计团队的营销总监Synopsys对此。“当你开始思考这个问题中将数据,它真的总是始于你想解决什么问题。这就是我们。我们开始了解好一点,更系统,如何挑战和数据结合在一起,使数据更有意义。如果我们看看原始数据,它的上下文中是压倒性的设计和验证的问题我们试图解决问题是np完全问题,因此很难遏制和解决他们。”

即使数据,这些数据的有用性千差万别。“正确的可用性数据不只是数据——至关重要的增加可预测性的数量,可靠性和提高设计和验证的结果,”蒂姆·维特菲尔德说,手臂的副总统的战略。“手臂已经实现了一个标准框架(模式)来收集正确的数据在所有项目和工程流。这允许更广泛和加速应用程序数据科学方法由于容易转移结果的跨项目和一般可用性的适合训练和调优的历史数据。我们看到的好处利用数据,性能,覆盖率,减少测试工作,失效分析,验证等”。

·维特菲尔德指出,手臂已经创造了专门的团队来引导机器学习。“重点地区之一是嵌入式智能机器学习和在线流,自适应算法从24/7的新数据和自动更新工程流动改善结果。数据收集是标准化的跨组织和项目”。

结论
一个共同的目标在所有芯片制造商和EDA公司是捕获各种数据每工作和流程,可以反馈改善工程流动的效率和有效性。但它也是越来越重要的考虑数据与系统比其他许多方面它坐落在。这远远超出的创建和收集数据。它还延伸到政策,安全和隐私。

“我们处理很多非常,非常大的公司,他们超越最关键的关心他们的IP水平,”David Hsu说,产品营销Synopsys对此核查小组的主任。“所以在某种意义上的战略或协调的观点我们如何解决这一问题,它总是会进化。但它不能被视为公司的某些部分要做到这一点,一些工具要做到这一点,其他一些团体会这样做。这是一个没有去。我们想看看这是少的数据和更多有关需要回答什么,即使顾客进来,说,“这都是人工智能的东西真的很酷。你们在干什么?我们认为是不正确的问题。问正确的问题是,‘我有这种可怕的挑战在X, Y或Z,似乎并没有任何算法的方法解决它,因为它是超越一个np完全问题。你会做什么呢?这是要杀我现在或者明年,请帮助。这类地区相关的我们现在谈论的。”



留下一个回复


(注意:这个名字会显示公开)

Baidu