中文 英语
18.luck新利
的意见

领先的GDDR6内存

超低延迟和AI/ML推理团队为云游戏和其他新应用提供动力。

受欢迎程度

随着数据流量的加速增长,超大规模数据中心的数量不断飙升也就不足为奇了。Synergy Research Group的分析师表示,在9个月内(20年第二季度至21年第一季度),有84个新的超大规模数据中心上线,使全球数据中心总数达到625个。超规模资本支出在过去四个季度创下了1500亿美元的纪录,超过了前四个季度的1210亿美元。

除了原始数据流量之外,还有许多因素正在推动网络核心的增长。像AI/ML训练这样的工作负载对数据和带宽的需求绝对是贪婪的。AI/ML训练每年以10倍的速度增长,最大的训练模型在2019年超过100亿个参数,去年突破了1000亿个参数。此外,业务应用程序正在从内部企业数据中心转移到云端,这是一个大趋势。

由于大量的应用程序和实现,这很难跟踪,但是当网络核心的行动白热化时,可以说在边缘还有更多的事情在发生。IDC预测,到2023年,边缘网络将占所有已部署云基础设施的60%。虽然应用程序很多,但所有应用程序背后都有一个重要因素:延迟。

回想一下我们从光盘娱乐到流媒体世界的转变是多么迅速,现在我们经常将4K电视和电影传输到大大小小的显示器上,这绝对是令人惊讶的。但与大规模开发云(流媒体)游戏相比,这一技术成就只是小儿科。流媒体游戏要求玩家输入动作和在屏幕上显示动作之间的延迟(“手指到光子”的时间)是难以察觉的。

对于推出云游戏服务的公司来说,这是利用全球近10亿在线游戏玩家的机会。但与传统的在线游戏不同的是,它使用本地硬件来运行游戏,同时与游戏服务器交换数量相对较少的数据,所有数据都在云中运行。客户端可以是任何带有网络连接和输入设备的显示器。

为了使其发挥作用,游戏服务提供商在具有高端显卡的企业级服务器上运行游戏,以更高的帧率(向玩家提供60帧/秒)运行游戏,使用高效的视频编码器,以及你猜对了,使用AI/ML推理。具体来说,AI/ML实时分析从云到播放器和返回的网络路径,然后根据需要调整网络以保持服务质量。

流媒体游戏只是众多将实时交互性(需要超低延迟)和AI/ML推理结合在一起的应用程序之一。事实上,AI/ML推理将在各个行业和应用中越来越普遍。其影响是更多的计算能力向用户靠拢,这推动了IDC预测的边缘基础设施的增长。

当然,在边缘运行的推理模型的进化将与AI/ML训练的快速增长并行,需要越来越强大的处理能力和更大的内存带宽和容量。但考虑到边缘部署的广泛广度,解决方案必须满足必要的性能要求,同时以经济的价格做到这一点。GDDR6内存很符合要求。

GDDR6内存提供的每个设备带宽是最快的LPDDR5或DDR4内存的2.5倍以上。在Rambus上,我们已经在硅GDDR6中演示了18 Gbps的数据速率,这意味着在32位宽接口上,每个DRAM的带宽为72 GB/s。基于生产基地,每季度为数千万显卡提供内存,并使用久经考验的生产方法,GDDR6以极具竞争力的价格提供一流的性能。

解锁GDDR6内存性能的关键是掌握在非常高的数据速率下运行的信号和功率完整性(SI/PI)挑战。Rambus帮助SoC设计人员应对这一挑战。凭借在高速信号领域超过30年的领导地位,我们已经编写了关于高速SI/PI设计的最佳实践的书籍。

Rambus GDDR6接口解决方案受益于这种广泛的设计历史。此外,我们的解决方案是经过硅验证的,包括一个集成和验证的PHY和数字控制器。我们通过PCB和封装设计支持以及参考设计来支持这一点,以帮助客户在soc中实现并加速上市时间。

随着AI/ML的快速发展,边缘的生活变得非常有趣。对计算能力和内存带宽的需求正在迅速上升。有了GDDR6内存,您将获得一个解决方案,为下一波前沿AI/ML推理设计以合适的价格提供突破性性能。

额外的资源:



留下回复


(注:此名称将公开显示)

Baidu