无处不在的GPU

gpu在扮演更重要的角色在最大化系统效率。关键是找出最适合一个特定的任务。

受欢迎程度

由安Steffora Mutschler

无论应用领域,gpu之前的任何时间都可能发挥作用来加速EDA软件算法。难怪鉴于gpu处理并行处理的能力比cpu更有效得多。在异构系统中共存,gpu允许设计团队效率最大化和性能通过分配任务最好的处理器来处理它们。

事实上,我们听到GPU用于cpu的地方只会被认为是在过去主要是因为GPU的体系结构。

通常做他们的工作创造更多的多边形每秒更有效率,gpu开始5个或更多年前现在处理器的内部架构,”德鲁Wingard说,首席技术官超音速。“所以不要做的东西,我们开始做东西的东西看起来越来越像一个通用处理器里面。和他们一起把大量的,我们从一个地方开始他们已经内存带宽为主。所以他们很擅长共享内存带宽,因为他们不得不做高性能图形。”

在SoC空间,最大的挑战之一是在共享内存,但是在GPU更统一的问题。因此,GPU开发人员已经开发出一些特定的技术,在许多方面比其他嵌入式处理器不得不处理他们的有优势,他解释说。

执行副总裁和总经理Dipesh Patel手臂的物理知识产权部门,同意了。“一些任务非常平行和更有效的去做GPU比SIMD引擎上附加的CPU。GPU可以被认为是一套大规模并行计算引擎做很多非常有效的数学计算。根据任务,GPU更适合运行这些任务。图像处理是一个伟大的人。还有其他类似的事情我们可以做在GPU上。”

他指出的一个关键部分是OpenCL的GPU的可编程性。

“这样想:你有这巨大的计算能力在GPU,历史将会被用于一个特定的任务,所以通过这些库和OpenCL支持我们把软件和基础设施,允许(设计师)利用计算能力不同的应用程序,”约翰海,负责营销的副总裁手臂的物理知识产权部门。

实现挑战

尽管gpu的明显的好处,有挑战。菲尔的做法,Synopsys对此战略联盟主任解释说,大部分的学习gpu在20 nm流的一个项目涉及Synopsys对此,台积电和手臂。

例子:GPU的设计往往是非常大的,这意味着大内存需求和潜在的长期运行时,他说。更复杂的情况是复杂性,表现在设计拥堵在双模式之上,这是需要在20海里。这些设计问题需要早期和准确地分析交通拥堵。

的做法表示,增加视觉计算的需求推动了需要更多的GPU资源,这意味着将会有专门的功能做图形芯片。“事实上已经存在。现在的问题是,你能利用计算设施在其他方面,?我不认为有一个临界点,有人突然说,“嘿,让我们使用gpu和把它们芯片,因为我们可以做数学。我认为这更多是利用可用。”

这是符合手臂的方法。负责产品营销的副总裁吉姆•华莱士的媒体处理部门说,“当CPU与GPU,我不认为这是一个与另一个,或者一个替换另一个。更多关于对处理器的任务。如果你看看CPU,它通常集中在单线程操作包括通用操作系统运行的性能。如果我打开另一边,在图形方面,非常平行。图形处理threadable很高。再一次,你看每个像素上的应用软件的地址的,所以它是适合吞吐量计算。他们是解决两个不同的领域。CPU都是连续占主导地位,对延迟敏感的。GPU非常平行和bandwidth-sensitive。 By having both of those together, you really are looking at a heterogeneous system. You can move tasks around between one and the other or you can split tasks up between one and the other. “

例如,在视频有某些功能,可以利用视频编解码器内并行执行引擎和其他领域更连续的导向。同时,可以释放CPU资源卸载GPU,从而提高效率和响应能力的完整的系统。

将推动更多使用gpu可以归结为软件,他说。“这真是api。这些api使开发者更容易GPU的项目特征。我们前进,异构计算的增长帮助的映射到另一个和能够使用不同的加速器/处理单元,无论是CPU或GPU或DSP。”

为此,有工作发生包括开放计算语言(OpenCL)框架异构系统架构(保险公司)和谷歌的基础渲染脚本等等。



留下一个回复


(注意:这个名字会显示公开)

Baidu