内部之间的权衡,对云设计

企业使用云,为什么,在哪里隐藏的陷阱。

受欢迎程度

专家表:半导体工程坐下来讨论如何以及为什么企业分割本地和云端工作,要注意什么,与菲利普•Steinke的家伙,CAD的基础设施和物理设计AMD;马赫什•Turaga云在业务发展副总裁节奏设计系统;硬件工程副总裁理查德·Ho Lightmatter;云解决方案副总裁Craig Johnson西门子数字行业软件;罗伯•艾特肯,研究员Synopsys对此。下面是摘录的谈话,在现场观众面前在设计自动化会议。本文的第一部分在这里


(唐森):菲利普•Steinke AMD;Craig Johnson,西门子EDA;马赫什•Turaga节奏;罗伯•艾特肯Synopsys对此;理查德•Ho Lightmatter。来源:半导体工程/杰西·艾伦

SE:有这么多的股份芯片设计的今天,如何实现与云资源最好的投资回报率?

Steinke:在选择云计算实现工作流,我们开始通过查看数据。哪有一个可管理的数据集可以封装,转移到云数据中心做一些计算,然后有一个合理的结果,回来?我们所关注的领域之一是前端验证。我喜欢流包括保持我们构建内部,捆绑了模型本身连同测试刺激,和发送出来做云计算实际的模拟活动。其他类的工作负载,我们做云计算实现全芯片验证工作负载,全芯片运行静态时间签收,物理验证,和权力——主要是因为在place-and-route类型环境中,你进入一个规律的节奏的日常ECOs或定期ECOs发生更改,已经有一个数据管理设置,释放所做的设计。所以我们可以把钩子释放机制,不仅用一些当地的释放量在我们自己的数据中心,但然后推送数据到云数据中心,已被选为执行这些工作。的担忧之一是一个很大的工作量,如果你已经合并的绿洲,或者如果你收集的所有规格设计您想要运行静态时间,这是一个相当可观的数据转移。但通过更新块级释放方法,然后滴在每一块释放。这样你可以启动云端,全芯片分析工作较低的延迟。我见过的主要挑战有获得好云虚拟机有足够的内存来运行那些大的工作。 That’s another space that we continue to push our cloud partners to offer — solutions with plenty of RAM for chip design companies to use.

SE:建议你能给什么辨别应该做一个工作负载在06和云?

艾特肯:有一个有趣的动态我们看到在这个面板上的代表,因为理查德的可能方法,和菲尔可能方法会有所不同。一个非常专注于设计通过高峰和低谷的需求。在AMD,据推测,有很多的设计,所以有一个最初的努力而言,正是他们努力的方向。什么基础设施是有道理的,如果你想让一个世界,在那里你要做你所有的设计在云上,你刚刚不有on-prem数据中心吗?你的方法是不同的,如果你使用云作为备份和大规模基础设施已经扩张能力。

SE:实际上,你怎么决定?

何:你看看数据。你有多少数据?你要多少数据生成?你需要什么?使它成功的关键一点是您想要的信息从云。On-prem必须是最小的,所以它的报告和回归的结果会出现。我们的建设实际上是小on-prem。我们的船和运行模拟,和我们自己的覆盖率分析。然后我们船结果返回,它很小,它很好。后端是不同的。 On the physical design part, you ship the design out there, you want it to stay on cloud as long as you can because those databases are enormous, and you really don’t want it to come back at all. At that point, it’s infrastructure as a service. You just have your people log into the cloud and do all of the physical design up there until you get the GDS. There, it’s the stuff inside of the machine — how much memory can you get? That’s one of the limiters. It’s actually very expensive to have very large virtual machines in the cloud. Quite often it’s cheaper to buy your own. We haven’t talked about cost. The cost of cloud is not what people think. It’s pretty high. It’s more than on-prem quite often, so you have to balance that to get the advantage of being flexible and access to the big memory resources. And the way that looks is going to be very individual for each customer.

约翰逊:这个问题真的涉及到这样的ROI。这取决于你想达到的用户环境,这是挑战的一部分。每个公司自己的计算基于他们的策略在云中找出他们想做的事情以及如何积极他们愿意花才能获得这样的好处。你测量的其他元素返回不同的拥有成本。我们往往更擅长做整体拥有成本的分析比“R”ROI的一部分,然后必须发挥更多的无形因素吞吐量时间和投放市场的时间的优势。

艾特肯:即使像延迟一样简单的事情,当你运行一个工具和响应时间,”我移动鼠标,然后一段时间后发生的事情,”可以很沮丧。

Turaga:从历史上看,如果我们看云的ROI,有三种类型的工具,可以利用云非常有效。首先是设计组织,设计迭代,回归与验证。其次是长时间运行的模拟与沉重的计算负担,规模,他们可以很好地利用在各种情况下的计算算法。第三是互动类型,如工具,需要延迟,也需要大量的合作增长。这三个类别的工具,从云获得最佳的投资回报率。根据每个客户的情况,这取决于他们想开始在云的工具。我们的一些客户开始验证,但它取决于您的特定客户的情况。

SE:云用户,你怎么到达你的云模型的决策?

Steinke:我们已经在一段时间。我们已经有了一个相当大的数据中心,所以我们不需要去总一开始。我们想扩大我们的云。我们on-prem数据中心继续提供大量的计算能力。项目来来去去,意想不到的事情发生;能够在灵活性和层有多个来源的计算,我们可以把从我们想跳上是一个优势。很大一部分的云,我们的动机,为什么我们就这样了。我们已经有了,前期投资所以我们希望增加和构建。

何:我可以从两个方面回答这个问题。第一个观点是我在Lightmatter之前,我在谷歌从事TPU和基础设施团队,我们也使用云。答案在Lightmatter有不同的答案。一个问题你必须问自己如果你想让你的回购(库)on-prem或在云中。像谷歌这样的公司,大概AMD,他们希望自己的回购on-prem。他们觉得更安全,他们觉得更在他们的控制。在一个较小的公司像Lightmatter,我并不关心。我和云的安全舒适,所以我可以有一个回购在云中。在较小的情况下,在云回购意味着我们正在使用云几乎是一个完整的基础设施。它是我on-prem一样。 That’s the first concern. The second concern is legacy. Some companies have legacy, and when you try to move from legacy to a cloud-based solution, you really have to understand what you’re gaining, which speaks to the goal of this panel. We’re trying to point out where you gain a benefit in terms of flexibility, in terms of being able to have newer machines, etc. Where that really counts is on some of those workloads, where you have a lot of parallel runs going. You want to manage a large set of servers and jobs running, and that’s where you should go on the cloud. You can make your workload take advantage of that. Then, coming back to data flow, where you have a constraint, then you have to make a decision. We made the decision to have repo for the physical design in the cloud, but other companies haven’t. I know that companies have more. They’ve done a lot of physical design still on-prem because they need a lot of storage and don’t need that many machines. So you have to look at each of those cases and make a decision based on what your situation is.

Turaga:我们的许多中小客户公司不希望回购on-prem。他们没有遗留数据中心问题,所以他们真的拥抱云完全。一些较大的公司有巨大on-prem基础设施已经搬到一个混合型模式。

SE: almost-baffling可用的实例类型数量来自不同供应商的云,在许可成本没有优化的云,用户如何改善他们选择正确的类型的实例来运行他们的工作?

约翰逊:这是一个基本的事情我们要地址。我们的想法是AMD公司主要想要管理自己的基础设施,在特定的方式和优化它,他们想帮助我们在一些特定于应用程序的决定什么类型的实例内存效果最好,也许工作负载的配置本身。他们怎么能运行最优性能管理工作?我们试着包,所有我们所谓的飞行计划。我们有这些飞行计划可供我们流的各个部分与基线的建议。如果一个客户想使用这个,很好。如果他们想即兴重复和改善,与我们没关系。

艾特肯:Synopsys对此的观点是相同的,但是也有依赖你做的具体设计。有些设计就是需要更大或比别人更高的实例。然后根据您的特定工作流程是什么,某些情况下会比其他人或多或少的意义。同时,不仅仅是许可成本。云中的机器成本,你必须权衡,。大机器更昂贵,但也许你可以在一个较小的实例上运行工作负载时间和支付更多的许可费用但低于计算费用。

何:我们的重点是看它的实际运行。这是一个pre-check-in运行吗?pre-check-in,你想要更快的运行与低延迟,所以你会得到一个真正高性能的实例。这是一个一夜之间回归吗?在这种情况下,我不在意多快完成。它只需要在一夜之间完成,这意味着我可以支付更便宜的实例在一夜之间回归。我们与我们的云提供商合作,找出什么是最好的实例运行的这种类型的工作。然后优化成本的问题。你想让你的成本尽可能低,因为就像我说的,这加起来非常快。我们看每个特定工作负载和说,“什么是所需的实例类型?” At the same time, it does get difficult because you then have to manage the pools of instances for each job, and then make sure you have enough of that pool of instances available so that when that job actually kicks in, it runs in a reasonable timeframe. As you get to deployment, you have to address these questions.

Turaga:多年来我们已经开发了一些最佳实践。最初,当你不确定使用哪个实例类型,你选择一些平衡计算和内存或一般的实例类型。但是当你看看不同类型的工作负载,和验证,需要更多的内存。它是相同的时间。你需要更多的内存。对于CFD分析,您可能需要gpu。这是我们开发的最佳实践的一部分,我们和客户分享。



留下一个回复


(注意:这个名字会显示公开)

Baidu