18l18luck新利
的意见

打破了AI内存瓶颈

实现人工智能的承诺需要确保内存系统可以处理数据的增加洪水。

受欢迎程度

长弧的技术创新,人工智能(AI)似乎是巨大的。在寻求模仿人类行为,技术涉及能源、农业、制造业、物流、医疗、建筑、交通运输和几乎所有其他的行业——定义角色承诺快车道第四次工业革命。如果该行业神谕是对的,AI增长将没有什么害羞的炸药。

”这些天不是增量的成果,”特Manocha,半总裁兼首席执行官表示,7月收集中国的美国半导体专业协会(CASPA)的夏季研讨会在苗必达半的总部。“他们是曲棍球棒-指数与AI半导体市场规模从今年的40亿美元增长到700亿年的2025美元。”

AI Manocha毫无疑问是重塑半导体行业,在这一过程中,整个世界。物联网(物联网)和4 g / 5 g,这两个关键的AI推动者,将占超过75%的设备连接到2025年。

,“今天,全世界300亿个设备连接Manocha说,引用一个应用材料预测,全球连接设备的数量将增长到2030年5000亿年和1万亿年之间。这些设备将产生惊人的大量的数据收集,解释和使用原因,解决问题,学习和计划,导致自动机器人行为的圣杯。

处理这些巨大的数据量中央AI的承诺,该行业必须突破极限的关键技术:记忆。

记忆一个关键AI瓶颈
内存从性能所面临的挑战。历史上,每十年收益计算的性能已经超过了改善内存速度100倍,在过去的20年里,差距增加,史蒂文说哇,Rambus研究员、著名的发明家,出席研讨会。结果是内存瓶颈计算,反过来,AI的性能。

作为回应,行业发展中几种方式实现内存系统人工智能芯片,适合不同的性能需求和每个需要不同的权衡。候选人:

  • 片上存储器提供最高的带宽和功率效率,但在能力是有限的。
  • HBM(高带宽内存)提供了很高的内存带宽和密度。
  • GDDR提供良好的带宽之间的权衡,功率效率、成本和可靠性。

自2012年以来,人工智能训练能力增长了300000倍,在摩尔定律上涨了25000倍,每3.5个月翻一番的速度迅猛的18个月的两倍周期相比,摩尔定律,Woo说。惊人的改进已经由并行计算能力和新的特定于应用程序的硅像谷歌的张量处理单元(TPU)。

这些专门硅体系结构和并行引擎维持未来收益的关键计算性能和打击摩尔定律的放缓和权力扩展,吸引说。通过反思处理器架构的方式对某些市场,芯片制造商可以开发专门的硬件能力的操作与能源效率比通用处理器100到1000倍来克服另一大限制器扩展计算性能——权力。

就其本身而言,内存行业可以提高性能通过信号在高数据速率和使用多层架构HBM更大的功率效率和性能,并通过使计算更接近数据。

内存扩展人工智能
人工智能的一个关键挑战是扩展内存。需求更好的语音、手势和面部识别经验和更多的沉浸式虚拟现实和增强现实交互作用是巨大的,比尔说,AMD公司高级主管,在《会饮篇》。提供这些经验需要更多的计算能力,高性能计算(HPC)进行大数据分析,分析本身,和机器学习,利用人工智能和机器智能生成有意义的见解。

新兴机器学习应用包括分类和安全、医药、高级驾驶员辅助,半自动设计、实时分析和工业自动化。和750亿IoT-connected设备-所有生成的数据预计到2025年,将会有不缺乏数据分析,在说。的翅膀独自一个新的空客a380 - 1000功能大约10000个传感器。

堆积如山的数据都存储在大规模数据中心磁硬盘,然后转移到之前DRAM存储器内切换的CPU计算硬件进行分析。

数据一个指数的增长速度,问题是如何确保所有其他记忆系统可以处理大量的数据。AMD的回答是chiplet体系结构由八个更小的芯片边缘传动计算和大型芯片中心双打IO接口的双芯片带宽和记忆能力。

AMD也从遗留GDDR5内存芯片配置HBM(高带宽内存)将内存带宽接近GPU处理人工智能应用程序更有效率。HBM提供更高的带宽,同时降低功耗。DRAM相比,AMD的HBM提供更快的数据速率和更大的内存密度比DRAM把内存接近GPU人工智能应用程序处理更有效率,在说。

在接下来的十年,寻找更多的性能改进multi-chip架构,在内存技术和集成创新,积极的3 d堆叠和流线型的系统级互联,他说。这个行业也将继续推动在设备性能,计算密度和功率通过技术扩展。



留下一个回复


(注意:这个名字会显示公开)

Baidu