从边缘到数据中心,AI设备需要特定安全特性来保护有价值的训练集和来自攻击者的数据。
许多重要的安全漏洞影响高性能cpu识别近年来震撼了半导体行业。这些引人注目的漏洞无意中允许恶意程序访问敏感数据,如密码、密钥和其他安全资产。
硅的实际风险的复杂性
上述漏洞主要是硅的复杂性增加的结果。这是因为安全漏洞时经常出现多个组件以意想不到的方式进行交互。随着硅复杂性增加,可能的交互的数量成倍增加,随着数量的潜在的安全漏洞。像高性能通用cpu,人工智能(AI)和机器学习(ML)加速器本身是复杂的,需要特定的安全特性来保护有价值的训练集和来自攻击者的数据。
AI /毫升威胁向量:从边缘到数据中心
身体的威胁,攻击者可以拆卸边缘设备与人工智能/毫升推理加速器部署。如果不受保护的,攻击者可以运行恶意固件,访问和修改数据,拦截网络流量和采用不同的边信道技术提取密钥和其他敏感信息。远程攻击者可以用AI /毫升加速器运行培训目标服务器和推理在数据中心的应用程序。作为一个例子,一个远程攻击者可能会破坏主机CPU虚拟机监控程序和访问任何过程或内存区域。额外的服务器攻击向量包括读取闪存在主机和加速器,SSD的内容。此外,攻击者可以在主机CPU上运行恶意软件和加速器CPU和阅读的内容SRAM和DRAM(在主机和加速器CPU)。最后,甚至网络和公交交通可以监控和改变通过无保护的AI /毫升加速器。
同样重要的是要注意,AI /毫升推理模型,以及输入数据和结果,越来越有价值,必须防止犯罪分子热衷于经济利益。的确,这些数据可以偷来设计克隆或竞争的设备。AI /毫升系统的完整性,必须防止篡改,防止恶意攻击者从改变训练模型,输入数据和结果。篡改将是灾难性的某些应用程序(如自主车辆在公路上,操纵或错误数据导致事故、伤害和潜在损失的生活。另一个例子可以看到面部识别数据的改变使攻击者身体违反复杂的安全系统保护敏感设施。欺骗的数据还可以帮助攻击者欺骗机场行李扫描仪系统忽略具体的违禁物质。
用可编程保护AI /毫升系统安全协同处理器
硅和数据保护AI /毫升、加速器应该建立在一个安全、防篡改基金会确保机密性、完整性、身份验证和可用性(在线)。这可以用可编程来实现安全的协同处理器是专门提供一个广泛的全面的安全功能。其中包括基于硬件加密、散列和签名密钥管理、供应、身份验证,以及主动监视检测异常活动。
安全的协同处理器可以保护AI /毫升硅和应用程序的恶意攻击的方式:
结论
AI /毫升系统在每一个行业将会越来越重要。AI /毫升加速器的固有复杂性要求特定的安全特性保护有价值的训练集和来自攻击者的数据。这适用于边缘设备嵌入式AI /毫升推理加速器,加速器以及服务器与AI /毫升卡用于培训和推理。因此,AI /毫升加速器应该建立在一个安全、防篡改硬件基础,确保机密性、完整性、身份验证和可用性。
留下一个回复