18lickc新利
的意见

确保AI /毫升的硬件根信任

了解人工智能工作流识别安全风险,网络攻击可以发生。

受欢迎程度

AI /毫升(人工智能/机器学习)是现在普遍的所有行业。它有助于理顺并利用大量的当前可用的信息大量数字化的浪潮。数字化转型是商业运行和使用数字技术价值是如何产生的。数据,AI /毫升的原材料和深度学习算法,现在可以在大量业务的各个方面。

人工智能操作通常分为两个基本功能,培训和推理。培训与教学模型如何执行特定的任务,例如如何识别汽车交通视频,和推理是指神经网络的能力它所学到的应用到实际情况中,在这种情况下,一个实际的交通视频提要。传统上,这两个训练阶段(包括在配置和设置的参数AI算法)和推理阶段(包括使用配置的人工智能算法与真实数据)将发生在一个数据中心,但现在,推理通常是在边缘,网关或终端设备。

AI /毫升承诺创造巨大的价值。麦肯锡公司普华永道和展望,AI将增加13万亿美元或更多,到2030年,全球经济。考虑到巨大的价值,对手妥协的动机或窃取重要AI资产是巨大的。其结果是,安全是一个关键任务AI /毫升操作的优先事项。

重要的是要理解AI工作流识别安全风险,网络攻击可以发生。在训练之前,必须处理的数据,修剪,AI模型选择和修改。选择适当的训练数据集和执行适当的数据准备是非常重要的,因为它有助于模型的精度和鲁棒性,因为它直接影响其参数。任何意想不到的修改模型训练集可以腐败。训练模型参数和模型的结果是一组特征保存在选定的特定于AI格式框架。上述过程的所有方面安全敏感,因为他们与别人的知识产权或由于训练数据的隐私问题。

上述过程的结果,存储在一个特定的AI格式,用于执行预测或分类。模型是摄取到一个推理引擎由一个处理器上运行设备。设备收集的数据、图像、视频或语音和流执行预测的推理引擎。在这个过程中,涉及到的所有资源必须保护不被窥视。已知的安全攻击敌对攻击存在混淆等人工智能推理预测和创建错误的分类。

威胁AI /毫升资产很多,包括数据中毒、敌对的攻击,数据盗窃、管道篡改模型盗窃、模型提取和道德的滥用。训练数据中毒包括将受损数据插入到训练集来降低模型的性能。敌对的袭击发生在访问模型来测试它,找到自己的弱点与目标识别工件的数据可以用来愚弄成分类。培训和推理数据可以偷来的损害知识产权和隐私权。同样,通过逆向工程模型可以窃取或提取。虽然培训通常发生在数据中心与硬化物理安全,网络攻击仍然是一个威胁。推测,在终端设备越来越部署,AI /毫升资产真的可以走或驱动逆向工程实验室。

维护AI /毫升资产需要一个多层次的安全战略已在其根信任锚定在硬件基础。根据硬件设备的复杂性,根的信任范围可以从一个状态机结构紧凑,完全可编程安全协同处理器。硬件的信任根提供了机密性、完整性和真实性需要安全的人工智能工作负载和资产。

以安全启动为例用例。信任的根确保固件的完整性的安全引导AI加速器。它还可以验证固件镜像的完整性所使用的所有其他人工智能基础设施组件。使用安全固件的验证,系统可以确保模型中加载智能节点的目的并没有被修改。

更特定于AI /毫升的保护训练算法,训练数据集和推理模型。散列的模型和数据确保只有有效实例加载到系统中。模型和数据的加密保护这些资产免受盗窃或篡改。信任的根源提供了这些加密服务,保障这些关键AI /毫升资产从对手。

Rambus提供了一系列的信任根解决方案适合物联网设备强大的人工智能培训加速器和介于两者之间的。我们所有的根的解决方案FIPS 140 - 2认证的信任,有着最先进的反篡改保护措施,以防范侧槽和逆向工程攻击。指数增长的价值生成的AI /毫升,设计师可以保障AI的资产。

额外的资源:



留下一个回复


(注意:这个名字会显示公开)

Baidu