中文 英语
系统与设计
的意见

数据中心之旅,从中心公用事业到宇宙中心

无论是数据量还是数据处理方式,数据中心都经历了根本性的转变。

受欢迎程度

多年来,高性能计算(HPC)具有多种含义。HPC的主要目标是提供运行数据中心所需的计算能力——数据中心是一种专用于存储、处理和分发数据的实用设施。

高性能计算的开始

从历史上看,正在处理的数据是给定组织的业务操作的输出。交易,客户档案,销售细节,诸如此类。我们的目标通常是从大量的交易信息中创建商业智能。

有时,数据代表研究。在这种情况下,商业智能是对一些物理效应的知识的追求——我们如何通过测量数据推断更多的信息来提高我们的知识和利润?药物发现、油田分析和天气预测都是这种数据处理的例子。

多年来,数据中心通过主要由阵列配置中的存储、计算和通信组成的硬件来执行这些类型的操作。更多的数据意味着更多的存储、计算和通信副本。

这种类型的数据中心有两个关键属性。首先,正在处理的数据是由真实事件生成的。销售、交易和用于研究的物理观察数据都是以与人类互动一致的速度生成的数据的例子。其次,数据处理以创建信息是使用程序软件系统完成的,由人类编写和调试。

指数增长的时代

在过去的大约10年里,上面描述的范式发生了根本性的转变,无论是要处理的数据量还是处理数据的方式。让我们来看看这两种现象。

数据不再由人为事件产生。得益于广泛的传感器部署,再加上超连接环境,所有类型的设备都在以指数级增长的速度生成数据。你的智能手表会捕捉到你的锻炼方案和健康状况的细节。根据一项研究在美国,一辆自动驾驶汽车每小时运行可以产生5TB的数据。如果你考虑一下未来几年将有多少这样的车辆投入使用,你可以清楚地看到数据雪崩。

Statista将这些趋势综合起来看。下图以泽字节为单位,展示了2010年至2025年全球范围内创建、捕获、复制和消费的数据量。1泽字节大约是1000艾字节或10亿太字节。请注意,在2010年,地球上有2泽字节的数据,而到2025年,项目容量为181泽字节。

来源:Statista

提取情报的方式也发生了变化。各种形式的人工智能(AI)被用于从所有这些数据中提取关键的、可操作的见解。推理方法可以辨别语音和视觉模式。强化学习技术可以从大量的可能性中识别出最好的结果。

这种处理看起来也不像传统的软件。它不是人类编写的代码。相反,它是一个巨大的处理事件阵列,通过检查大量的信息和结果进行操作和学习。

还有指数挑战

在过去的十年里,随着信息生成、信息处理和存储发生了根本性的变化,我们也就不奇怪了数据中心架构已经发生了变化在同一时期发生了戏剧性的变化。复制存储、计算和通信元素来满足需求的策略根本行不通。

数据量的爆炸式增长要求采用依赖分布式网络的新存储方法。无论中央处理器有多快,计算都不能再用它来完成了。相反,需要针对特定工作负载进行优化的自定义处理元素。它们很多,以同步的方式在海量分布式数据集上执行不同的任务。沟通方式也大不相同。从性能(延迟)的角度来看,数据中心中服务器机架中的离散网络接口卡(NIC)和机架顶部交换机等概念在数据中心内移动数据时不再有效。

数据中心的复兴

现在有一些组织把从大量数据中推断情报作为核心业务的一部分。这些公司引领了数据中心的复兴。这些公司被称为超级规模公司,它们重新定义了数据中心的架构及其在社会中的地位。谷歌、亚马逊、Facebook、微软、阿里巴巴、百度和腾讯都是超级规模企业。

它们都以自己的方式推动了数据中心设计和信息处理的发展。谷歌建立了它的张量处理单元(TPU),以提供正确的架构来运行人工智能算法。亚马逊建立AWS Trainium也是出于同样的原因。事实上,几乎所有的超大规模企业都在建造定制芯片来为他们的数据中心供电。

数据中心的配置方式也在改变。内存、存储、处理能力和网络带宽等关键元素现在已被合并。然后,可以根据特定工作负载的需要组合和部署这些资源,而不是在服务器中配置这些资源的正确组合。随着工作负载的变化,数据中心的架构也会发生变化。这种方法被称为可组合数据中心

数据中心的商业模式也发生了变化。虽然在办公场所,私人设施仍然相当普遍,但建造和运营下一代设施的极端成本可能会令人望而却步。结果是,那些有能力建造核电站的企业建造了核电站,同时也把产能卖给了那些没有能力建造核电站的企业。这就是云计算的诞生。这一过程与芯片制造过程类似。许多公司拥有和经营晶圆厂,直到成本变得令人望而却步,技术变得非常复杂。在这一点上,出现了一些关键的参与者,他们为任何需要的人提供晶圆厂能力。

还有更多的挑战

常言道,细节决定成败。对于数据中心的复兴来说,这是绝对正确的。最终的结果在范围和影响上都相当惊人。但实现所有这些功能也带来了一系列挑战。

众所周知摩尔定律正在变慢.转到下一个流程节点不会让您获得成功所需的性能、能源效率和成本降低。摩尔定律的规模效益仍然很重要,但其他策略也开始发挥作用。

摩尔定律的规模复杂性现在被一系列利用系统复杂性的策略所补充。为执行特定人工智能算法而特制的定制设备就是其中之一。TPU和Trainium就是这样的例子。方法来创建multi-die设计由芯片、密集存储器或小芯片组成的单一系统是另一个令人生畏的挑战。添加大量内存作为3D堆栈,同步大型且高度复杂的软件堆栈以运行在这些新架构上。

公共云计算也高度重视安全性。在公共云数据中心中创建的信息和见解是非常有价值的。需要硬件和软件系统来保护这些信息的安全。

这个创新的新时代将摩尔定律的规模复杂性与利用系统复杂性的新方法结合起来。我们称之为SysMoore时代正如我们所知,它正在改变我们的生活。

迎接SysMoore时代的挑战

控制大规模芯片和芯片系统的设计复杂性是成功的关键。另一种方法是将所有这些技术集成到一个单一、统一的系统中。此外,还需要可靠的验证、强大的安全性和可靠性,以及低能耗和可信的预验证构建模块来源。

好消息是Synopsys有一个全面的重点高性能计算和数据中心开发.我们为整个流程提供端到端解决方案,具有强大的设计优化和生产力。我们的预验证IP组合涵盖了所有需求。我们甚至可以提供设计服务,帮助您建立下一个企业,在设计、实现和验证EDA工具和方法方面拥有熟练的资源,以及在先进技术节点中集成复杂的ip。

我们还可以向您展示如何监控和优化您的设计在现场部署后的性能,并集成最新的光子学功能。

数据中心确实取得了长足的进步。它们不再只是一种实用工具。由最先进的设施产生的见解改善了我们的健康和安全,使我们的社会团结起来,甚至改善了地球的环境。他们现在真的是宇宙的中心。



留下回复


(注:此名称将公开显示)

Baidu