中文 英语
18.luck新利
的意见

重新考虑计算基础

内存和处理器仍然是单独的,但这可能会改变随着数据量的增加。

受欢迎程度

新的计算architectures-not只是在硅谷的芯片是成为一个共同的主题。整个半导体行业竞相寻找最快的,便宜,低功耗的方法来处理。

这种转变的司机都记录在案。摩尔定律正在放缓,部分原因是越来越困难的SoC线路信号穿过最新流程节点。RC延迟处理,以及许多生理效应,比如热迁移,电迁移和动态电流密度。也越来越贵,部分原因是花大量的时间在那些电和热的问题,工程师,部分是因为它是越来越难制造这些芯片。仅光刻技术已达到更好的五个过程的一部分节点,其商业化。

除了这些chip-related问题,数据量爆炸式增长。数百亿都是将数据发送到其他的事情。在接下来的十年,可能会有数万亿的事情。到处都有传感器,和基线建立地图每一个改变的,从道路条件,空气质量在一个人的血液中血糖水平。这些数据是有用的,大多数是不,但这一切需要处理和筛选找出哪个是哪个。

当然,这需要巨大的计算能力。但它也需要反思的基本计算架构。在早期的computing-when计算是由人而不是machines-military效率专家看着战争物资和信息的流动意识到如果他们安排桌子这些人类的“电脑”以某种方式他们可以添加重要的效率到流程中。

类似的事情发生在基于传感器的车辆的时代,物联网/ IIoT,和巨大的云业务,只是这次需要安排机器,而不是人。随着数据量的增加,更有意义的比数据处理器。

首席技术官里克•Gottscho林的研究中,提到这些变化在本周的一次分析师表示。“这个行业将不得不合并逻辑与记忆,”他说。“记忆装置本质上成为一个与快速数据传输模拟处理器。能力下降和增加的速度。”

他说,从挥发性转移到各种类型的非易失性内存现在正在开发将添加数量级的提高性能和权力。这是一个有趣的想法与一些可能的后果,包括如何处理和模拟数据的最佳方法。

还有其他的变化。预处理数据在使用加速器和各种不同类型的处理器、fpga等gpu和需求方,最终可能意味着更少的数据需要处理一个或多个CPU芯片或核心。

投入的角度来看,每一个技术和方法正在重新审视和反思。但最大的变化是,这一切都发生在隔离。更高效的DRAM和SRAM,以及硅光子学和更多的边缘计算能力的进步,可以提供巨大的改进,性能和吞吐量。如果部分的权重不同,重新匹配数据流为一个特定的应用程序,可以使用部分更有效率。

这适用于各种新的包装方案,。如果两个芯片可以并排放置高速互连,信号的距离可以缩短旅行和信号通路可以扩大。减少了许多瘟疫单片机扩展的生理效应,但它也创造了一个平台,最终可能是大规模定制。

所有这些方法可能会在接下来的几年里的桌子上。有可能他们将被用于不同的应用程序,或者市场将淘汰一些人赞成。但不变的是,变化在很大程度上,和权力和性能将是关键变量。



留下一个回复


(注意:这个名字会显示公开)

Baidu