中文 英语

重新思考云

随着数据量呈指数级增长,公司正在改变他们的方法,即在哪里处理数据,移动什么,并关注移动和存储数据的总价格。

受欢迎程度

的商业引入以来,数据中心体系结构几乎没有发生根本性的变化IBM系统/ 1964年的360主机。多年来,随着20世纪90年代转向客户端/服务器模型,在速度和吞吐量方面有了渐进式的改进,但从高层来看,这仍然是一个数据集中处理和存储并在全球访问的环境。

本世纪初,人们第一次感觉到有必要进行实质性改革。20世纪90年代大量安装的廉价刀片服务器的机架在供电和冷却方面变得相当昂贵。直到企业让IT部门直接负责数据中心的公用事业成本,这一点才变得明显起来。意识到数据中心已经变得多么昂贵,他们同时限制了IT预算的增长。

这在首席信息官中引起了几乎普遍的恐慌,他们转而依赖于服务器制造商来提高能源效率。服务器制造商依赖处理器制造商,几年内芯片制造商就开始宣传性能和低功耗。即使这样也不够,因为服务器本身没有得到充分利用,因此虚拟化成为下一个快速解决方案。这不仅提高了利用率,还允许数据中心在服务器不被使用时关闭服务器群的整个部分。

尽管如此,随着大量数据从智能设备和物联网开始涌入数据中心,很明显,甚至需要更根本的改变。物联网主要是在消费领域占据头条,智能手表、Nest恒温器或智能电视,但最大的变化将发生在大数据方面——如何收集、使用、处理和存储数据。在消费电子产品市场,产品正在以快速的速度被创造出来,以测试消费者的胃口。与此不同的是,在大数据领域,有一个明确的商业案例可供采用。如果能源成本能够被充分削减,以适应正在处理和存储的总体数据量的快速增长,那么企业将为此买单。

“如果你在运营一个数据中心,一个月里最糟糕的一天就是电费账单出现的那一天,”他说手臂首席执行官西蒙·西格斯提出的变革远远超出了数据中心的范畴。“网络需要成为智能灵活的云,这样网络和数据中心之间就不再有区别,计算和存储需要更接近边缘。在那里几兆字节的代码可以在数据中心节省一兆字节。”

Segars指出,数据中心架构本质上是从客户端设备到网络再到数据中心的一条直线,这种方式已经存在了“很长一段时间”。他说,更好的方法是在整个网络中添加智能,这样处理就可以在最有意义的地方进行——提高能源效率,减少延迟,只使用所需的资源。

“这里的区别在于数据和信息,”他补充说。“你产生了大量的数据,但你想要存储信息。”

要做到这一点,需要在信息处理和传递过程的每个方面都做工作。用西格斯的话来说,“这是一段旅程”,它不会在一夜之间发生。正如物联网是一个连接的生态系统的集合,生态系统的每个部分都需要充分参与。Facebook、谷歌和亚马逊等大公司已经凭借自己独特的架构走在了公众的前面,这些架构专注于在提高吞吐量的同时降低功耗。不太明显的是,随着你深入研究硬件、软件和网络技术,正在发生的变化。

“最大的挑战之一是如何开发具有分布式计算的服务。加州大学伯克利分校IEEE会员。“我们需要能够部署计算,使计算接近物理设备。”

其结果是,我们将拥有更多的设备,但它们将部署在更节能的架构中。这至少减轻了数据中心的部分负担。数据中心消耗的能源数量有很大差异,但增长速度可能更能说明问题。美国自然资源保护委员会(Natural Resources Defense Council)表示,2013年美国数据中心消耗了910亿千瓦时的电力,预计到2020年这一数字将达到1400亿千瓦时,增长54%。NRDC指出,大部分能源被中小型数据中心消耗,而不是最先进和最大的数据中心。这为众多市场留下了很大的改进空间,并为电子行业创造了巨大的机会。

元素的变化
显然,最大的节能将来自对数据处理的智能解析,但也将涉及许多其他变化,这使得这种转变复杂、多维,在某种程度上无所不包。物联网及工业物联网(IIoT)为了实现他们的承诺,所有这些改变都需要落实到位。

Cavium生态系统总监兼合作伙伴拉里•威克里乌斯(Larry Wikelius)表示:“这一切的用例不在于数百万个应用程序,而在于一个应用程序的数百万用户。”“这是计算、I/O、虚拟化和加速器的结合。在过去,您看到的是一个Web服务器处理大数据,而从历史上看,您将一堆东西拼凑在一起。其创新之处在于,这需要通过选择进行配置——计算、存储、网络和安全——这样你就可以根据工作负载进行优化。”

Wikelius说,密集的浮点计算可能对操作至关重要,但它可能只占整个工作负载的一小部分。为了平衡工作负载,公司越来越多地关注网络功能虚拟化(NFV),它可以用于自定义网络,类似于使用虚拟化在通用服务器上运行多个应用程序和操作系统。

从芯片级的Cavium到服务器端的惠普,许多公司都将NFV作为其改造数据中心战略的核心部分。通常,这涉及到多核架构,以使用最少的能量最大化吞吐量和处理能力。但这只是需要完成的巨大拼图的一部分。

ARM服务器系统和生态系统主管拉克希米·曼迪亚姆(Lakshmi Mandyam)说:“你可以把这看作是调整规模。”“由于缺乏选择,供应过剩。”

Mandyam表示,为了提高数据中心的效率,每平方英尺的计算能力必须提高,但与此同时,数据流量的爆炸不能全部集中在数据中心。无论服务器和网络效率提高多少,都不足以处理正在产生的所有数据。

“情报需要更接近终点,”她说。“我们还需要创新的方式将所有东西连接在一起。所以你需要安全IP、网络IP和存储IP,然后在机架级进行聚合,消除多余的组件。”

这似乎是整个半导体行业的普遍共识。“这里有两个问题,”Anand Iyer说,低功耗平台的营销总监Calypto.“其中之一就是延迟。第二个问题是传递的真实信息是什么,以及有多少数据被浪费了。你需要做必要的计算,而不是浪费的计算。这就是消除浪费能源的方法。”

Iyer指出,所有级别的架构师都在寻找他们可以进行更改的地方,并平衡这些潜在的更改与这些更改的实际成本。这不是一个简单的决定,因为有时它可能取决于各种内存IP的选择,而其他时候它可能取决于使用或重用哪个微架构,什么需要时钟,什么不需要,以及所有这些如何影响整个系统的功率。“设计界需要了解所有的权衡,”他说。“同样重要的是,有关这些权衡的知识需要能够更有效地传递。现在只有非常粗糙的方法来做到这一点。”

其他的决定
不过,改进über体系结构只是难题的一部分。它还必须得到有效的管理,而It管理是业务中最保守的学科之一。风险太高,不允许快速变化,但这种变化对于实现在各个方面大量增加传感器和数据的好处至关重要。具有讽刺意味的是,晶圆代工厂和芯片制造商能够相当容易地抓住这个问题,因为他们一直在每个新工艺节点上与巨大且不断增长的数据作角力。

“2000年,我们开始感受到扩大CPU规模的压力,”ibm高级工程总监胡安•雷伊(Juan Rey)表示导师图形.“有几十台计算机,然后变成了数百个带有图形处理器的cpu,以加速应用程序。然后在2008年到2009年,每个人都开始降低每个CPU的性能,行业开始转向多核架构。在16nm芯片上,我们预计会有几千个内核。”

他说,虽然这对一些应用程序很有效,但并非所有应用程序的规模都是一样的。此外,他指出,即使公司建立了非常好的私有云,他们也并不总是分配足够的资源来正确地管理它们。无论架构有多好,每家公司的优化都可能有很大差异。他说:“这些制造公司多年来一直在处理这个问题,所以他们更有可能正面解决这个问题,这个问题对他们来说可能非常清楚。但其他公司将从哪里获得这些资源呢?”

微观决策
下降一个层次,还有其他因素需要应对。计算架构一直都是关于解决瓶颈的,而在数据中心,这是最紧迫的。

“我们一直都在追求更大的带宽,但现在我们看到了一系列更新的存储技术来解决这个问题,”Loren Shalinsky说Rambus.“我们有HBM(高带宽内存)和HMC(混合内存立方体),目前还不清楚它们将如何适应通用处理器服务器。我们正在研究一种类似L4缓存的内存。如果你回到奔腾时代之前,L3缓存是芯片外的。然后,随着时间的推移,它被集成到处理器中。下一步是DRAM。这个新的内存是中间的一个步骤。有些方面的权力要低得多。它通过PCB和连接器驱动信号到内存所需要的功率远远超过了1024位宽的HBM或HMC,在相同的范围内。”

也有其他类型的存储器冲击市场,如磁性RAM (磁阻的内存)和电阻式随机存储器(RRAM或ReRAM),它介于闪存和DRAM之间。“这是一个架构的持续演变,在过去30或40年里没有根本的不同,但每次他们提出一个新的层次,都会有一个数量级的差异。现在他们正在挤入更多的中间机会。我们也在处理较大的文件。大型数据库公司正在推动更大的内存,因为数据库现在可以自己放在内存中来加快速度。”

HBM特别值得注意,因为它需要改变体系结构和封装。HBM需要一个插入器这种设计获得吸引力的明显地方是在网络和服务器级别,那里有更多的价格弹性。甚至英特尔,该公司一直是摩尔定律自从它第一次被引入以来,包括2.5 d而且三维集成电路在它的路线图中。随着越来越多的芯片采用这种封装技术,价格将会下降,就像其他半导体技术一样。

“随着堆叠芯片和3d - ic变得越来越便宜,你将看到更多的异构集成,”Aveek Sarkar说,产品工程和支持副总裁Ansys-Apache.“所以你可以在一个芯片上使用高速架构,而在另一个芯片上使用较低的速度。这不再只是特定于应用程序。”

安全与IP
在所有这一切中必须解决的一个大问题是安全。如果只将工业流程中的畸变而不是大量原始数据发送到服务器,可能效率会高得多,但这些数据在被提炼成有用的信息后,其价值会显著上升。

“所有这一切中最薄弱的环节是管理安全,以便每个部分都是安全的,并且各个部分之间的安全足够多样化,”腾讯首席技术官伯纳德•墨菲(Bernard Murphy)表示Atrenta.“安全与权力之间也存在权衡。如果安全性是本地的,它不会消耗大量的电力。但如果它需要大量的牵手,那就需要巨大的能量。”

Murphy指出,虽然虚拟化应该是高度安全的,但它并没有达到最初的承诺。“你可以通过缓存进行攻击,用一个可识别的签名淹没缓存。当受害者回来修复问题时,攻击者回来查看缓存。所以攻击者作为虚拟机运行,受害者有自己的虚拟机,两者使用相同的缓存。”

必须解决的第二个问题是IP端,它需要支持所有必要的更改,以适应架构中不可预见的更改。知识产权公司通常已经擅长于此,但随着物联网开始获得动力,这种变化可能会来得更快。

Ron DiGiuseppe,高级战略营销经理Synopsys对此他说,这些变化之一将发生在系统层面。他说:“一台服务器可以支持50到80个虚拟机,但使用第二层交换和多达4000个节点,你很快就会耗尽网络地址空间。”“为了扩展网络,你必须允许虚拟机扩展。这意味着我们需要创建新的协议,而半导体公司需要支持这些协议。”

DiGiuseppe还指出,对于服务器,处理器性能并不总是瓶颈。在某些情况下是I/O。对于Web服务器来说尤其如此。“他们不需要更多的表现。他们需要更多的I/O。这会影响性能,如果你有数千台Web服务器,那么性能就重要得多。”

最后,未来的研究还有一些未知和领域,可以为这种转变增加新的维度。其中之一是更好地理解数据类型。克里斯·罗文是一名节奏他说,目前还不清楚与视频相关的总流量是否不仅仅是一个垂直应用。“你可以转码、提取和扩展,但你是否需要使用一种更专业的架构?”

第二个未知因素涉及所谓的“深度学习”,这基本上是自然语言、物体识别和语音识别的人工智能的现代化身。“事实证明,算法非常灵活,”罗文说。“他们还处理视频和静态图像。它们是自我训练的,自动编程的,它们有独特的计算特征和数字卷积。这为安全性一路传播到服务器世界提供了可能性。”



留下回复


(注:此名称将公开显示)

Baidu