18.luck新利
的意见

计算机面临能源危机吗?

通过以新颖的方式组合cpu、npu、gpu和网络处理器,可以提高效率。

受欢迎程度

末日临近了吗?

如果主题是计算领域的能源效率提升,答案取决于你问谁。

几十年来,每瓦性能的稳步增长一直是我们行业最重要的驱动力之一。去年,我翻阅了邻居1967年推出的摩托罗拉集成电路(Motorola IC)产品目录,其中包括一款用于阿波罗登月任务的小型控制芯片等太空时代的奇迹。虽然当时很先进,但如果你今天尝试用它来制造一部智能手机,这款手机将消耗大约16兆瓦的电力,占地12个足球场。签手机套餐之前你得三思而后行。

怀疑论者认为,我们正走向波涛汹涌的水域。摩尔定律带来的回报正在递减。与此同时,技术已经使数据中心电力消耗在过去15年持平——虚拟化、环境冷却、工作负载整合、拔掉“僵尸”服务器——已经被广泛利用。许多最前沿的数据中心已经在兜售价格使用效率(PUE)评级接近1,这意味着几乎所有的能量都用于运行IT设备。进一步的改进需要核心计算架构的创新。

更糟糕的是,人工智能会加大力度。我们正在从基本的人工智能问题(寻找猫的视频!)转向更耗能的任务,如自动驾驶或医疗诊断。应用材料公司警告说,如果在材料、芯片设计和算法方面没有进步,数据中心的力量就会减弱能从全球电力消耗的2%上升到10%甚至15%吗

另一方面,乐观主义者有一个令人信服的论点:我们以前听过。1999年,有人预言了互联网十年内可能消耗掉一半的电网.通过finfet等跨越式创新,以及整体系统设计和映射算法到硬件的稳步改进,这种可怕的未来得以避免。他们认为,优秀的工程技术仍有相当大的发展空间。

另外,你需要放眼全局。全球排放量下降到2020年,将减少24亿吨,占7%随着视频会议取代了通勤和商务旅行。虽然旅行可能会反弹,但很大一部分会议将保留在Zoom上。同样,智能设备和人工智能正在被部署到有助于减少建筑物中大约30%的电力浪费.有人可能会说,电子产品可以给环境带来净效益。

尽管如此,许多乐观主义者也不愿将目光投向2至3年以外的领域。那么谁是对的呢?双方都提出了很好的观点,辩论无疑给会议小组带来了震动。但就我个人而言,我是一个谨慎的乐观主义者。虽然摩尔定律可能已经过时,但半导体行业已经进入了一个以设计为中心的时代,收益将主要通过SoC和核心架构的创新来实现,而不是工艺的缩减。大型集成缓存和gpu加速器可以说是这个时代的第一步。3D NAND是另一个重要的里程碑:晶体管堆叠改变了闪存公司的设计和经济方程式。

在Arm,我们一直特别关注通过以新颖的方式组合cpu、npu、gpu和网络处理器或dpu来实现的协同效应。例如,结合cpu和npu已被证明能够通过以下方式提高效率增益与仅cpu解决方案相比,在干扰等任务上的性能提高了50倍.对于物联网设备来说,这意味着能够在固定的能源预算上产生更精确、更有趣的见解,而不会对电池征税。您将在手持设备上看到类似的Total Compute策略。

AWS表示,在数据中心,其基于arm的单线程64核Graviton2处理器的每瓦性能是更传统的少核多线程处理器的3倍以上。类似地,AWS表示EC2上超过70%的可用实例利用了其Nitro系统,将虚拟化、安全和网络等任务卸载到专用硬件和基于arm的芯片上。

对我们所有人来说,下一个重大里程碑之一将是芯片的商业化。芯片式设计允许公司最大限度地提高产量,并混合工艺制造节点以获得最佳效果。然而,芯片设计也将对功率性能方程式产生积极影响。想象一个4 × 4的芯片阵列,每个芯片有640个cpu、640个npu和gb的SLC,所有这些都通过高速互连连接起来。这样的系统可以在1.4千瓦的功率下提供千万亿次的性能。

当我们得到这些收益时,我们该怎么做呢?深入研究芯片级技术,如内存计算:超过系统总能量的60%就花了在主存和计算之间移动数据据估计。我们只触及了设备和电路层面的表面。

当然,这些进步需要一些非常艰苦的工作,但我有信心在我们遇到电力瓶颈之前就能实现。

你认为未来会走向何方?非常欢迎反馈、评论和想法。



1评论

桑托什Kurinec 说:

罗布说得很好。以目前每比特1e - 14j /bit的基准能量计算,到2040年将无法持续。这是指计算所需的能量估计超过了估计的世界能源产量。随着内存计算和神经形态计算的发展,计算的能量效率需要显著提高。由于电子系统中传感器数量的大幅增加,原始生成数据的数量正以指数级速度增长。虽然这些数据中的大部分从未使用过,但它们通常用于故障分析等情况。因此,以读取延迟为代价以极高密度存储数据的归档内存存储在长期存储方面比以往任何时候都更受欢迎。在这方面,DNA记忆提供了潜力。

留下回复


(注:此名称将公开显示)

Baidu