为人工智能做准备

智能系统对公共政策的影响是巨大的。

受欢迎程度

假设一辆自动驾驶汽车正从匝道驶上一座桥。坡道没问题,但桥上结了冰,还有一辆翻倒的公交车,车上满是孩子,堵住了几条车道。

孩子们从窗户里撤离,在人行道上转悠。没有时间停下来,即使自动驾驶汽车可能有比人类更好的反应时间。向一侧转弯可能会让汽车冲出桥,向另一侧转弯可能会撞上挡土墙,在两种情况下都有可能导致乘客死亡或受伤。这辆车是完全自动驾驶的,即使有更多的时间,人类也无法控制。它应该做什么?

这是一个版本的电车问题这是一个著名的伦理思想实验。一种常见的回应,即功利主义立场,是汽车应该尽量拯救最多的人,甚至以牺牲自身乘客为代价。大体上,许多人会支持这一立场。

但如果是你的车呢?如果家人是乘客怎么办?你会在明知它可能会为了救别人而杀了你的情况下买一辆车吗?至少,梅赛德斯-奔驰(Mercedes-Benz)押注你不会,并且已经表明自己的自动驾驶汽车会保护乘客.对于人类司机来说,这种反应是站得住脚的。很少有人会想到有人会故意开车撞墙,甚至是为了救别人。然而,当“司机”是一台机器时,感觉就有问题了。作为公民,我们必须这么做吗共享道路为了保护乘客不惜杀人的汽车?如果这种困境是由于汽车传感器或程序的错误造成的,而不是由于天气或其他无法控制的因素,答案会有所不同吗?

自动驾驶汽车困境是智能系统出现所引发的更引人注目的公共政策问题之一,但它绝不是唯一的一个。有些超出了本文的范围。芯片和系统设计人员和制造商几乎无法控制先进自动化对劳动力市场的影响,或周边的法律环境第三方数据采集.然而,在许多情况下,系统设计师会发现自己要么执行政府法规,要么在没有法规的情况下,制定并被要求证明本质上是道德和政策决策的合理性。在自动驾驶汽车的情况下,国家公路交通安全管理局已经提出的指导方针对于汽车制造商和监管机构的最佳实践,但在制定最终规则之前允许技术发展。制造商的行为肯定会在塑造未来的监管环境方面发挥作用。

更多的智能会带来更多的现实后果
这些困境在某种程度上表明了智能系统的日益复杂。没有人真的在乎音乐推荐引擎是否会混淆杜克·艾灵顿和杜克·罗毕拉德。然而,随着系统变得越来越有能力,它们的行为可能会改变实际的后果,从推荐癌症治疗方法决定哪个刑事被告符合假释条件或保释。

一组潜在的问题在于机器和人类之间的接口。如果一个机器学习系统是使用人类专家标记的数据进行训练的,那么它很可能会将这些专家的偏见带入自己的计算中。从交通停止《纽约时报》的讣告页在美国,有充分的理由怀疑人工生成的数据集存在偏见。另一方面,如果系统只是得到一个数据集,并被告知要找到模式,那么它就很容易受到攻击忽略变量偏差.系统只能从它实际拥有的数据中得出推论,这些数据是数据集的创建者认为重要的数据。这些变量之间的相关性可能是有用的,但不一定能说明根本原因。

由于任何数据收集都必然是有限的,ibm首席计算机科学家彼得·埃克斯利说电子前沿基金会,认为可能无法避免遗漏变量偏差。他说,这肯定是所使用算法的一个函数,而不仅仅是训练集的潜在偏差。根据美国公民自由联盟高级政策分析师杰伊·斯坦利的说法,至少有可能有偏见的数据和有偏见的算法这使得具有公共政策影响的算法必须以透明的方式部署。政府官员、纳税人和受影响的人将需要能够理解和挑战算法决策。为了应对这样的挑战,设计师需要构建审计跟踪。满足这一要求比看起来要困难得多:今天,智能系统的判断标准是它们获得“正确”结果的能力,而不是具体的结果给定结果的基础可能不太清楚。

斯坦利承认,对于在执法和政府项目管理等情况下使用智能系统,他有复杂的感觉。在决策过程中已经出现了有偏见的人,即使是一个不太完美的算法也可能是一种改进。另一方面,有证据表明,人类决策者会使用算法结果来证明他们同意的决策是正确的,但会忽略他们不同意的建议。

保护数据集和结论
审计跟踪对于维护系统的完整性和安全性也是必不可少的。随着智能系统从人类手中接过越来越敏感的任务,恶意行为者颠覆或利用它们的动机将会增加。如果面部识别系统决定哪些航空乘客将受到更严格的筛选,那么有能力访问训练数据库的人可以使特定的个人或特定的特征或多或少地引起注意。

在大部分静态数据集是由人工创建和维护的应用程序中,训练数据库的完整性相对容易保护。大多数当前和近期的应用都属于这一类。然而,展望未来,许多物联网应用程序涉及从多个来源收集大量数据到一个中央存储库,并在那里自动进行分析。这样的数据集会被单个设备上有缺陷的传感器损坏吗恶意用户?如果发现了非法设备,能否在不影响其他设备的情况下将其锁定在系统之外?它提供的任何数据都能被清除吗?引人注目的数据泄露事件的激增表明,企业需要在这些问题上投入更多精力。

对具有最小人为干预的健壮安全性的需求说明了依赖于的安全方案的价值物理不可克隆函数.例如,在去年的Semicon West Imec技术论坛上,Thomas Kallstenius讨论了一种取决于MOS晶体管阵列击穿特性的关键机制。单个晶体管的分解是随机的,因此阵列中的模式既不可预测也不可克隆。它独立于设备的所有者或安装位置唯一地标识设备。

在边缘计算更安全吗?
在中央存储库中收集大型数据集也引发了重大的隐私问题,这在正在进行的调查中得到了突出体现脸书/剑桥分析丑闻.来自马里兰大学的金哲解释在美国,公司有动机尽可能多地收集用户愿意提供的数据,因为它们假设这些数据在未来的某个时候会有用。

能够获得大量数据的公司拥有明显的市场优势。谷歌的图像识别和机器翻译工具之所以出众,部分原因是有大量用户使用它们,为谷歌提供了稳定的训练数据供应。对于广告商来说,Facebook是一个很有价值的平台,因为数十亿人希望与他们的朋友使用同一个网络。

相比之下,滥用数据的后果则由个人用户承担。大公司的外部风险已经包括身份盗窃、信用卡欺诈和欺诈广告。拥有更大数据存储库的更智能的系统可能使针对医疗弱势群体的有针对性攻击成为可能,针对高速公路或电网的基础设施攻击也可能成为可能,等等。

用户越来越意识到数据隐私问题,智能系统越来越多地参与到具有明确隐私影响的应用程序中。Alexa可以听到范围内发生的任何事情。智能电表可以告诉你是否在家,在某种程度上,还可以告诉你在那里做什么。更知情的用户可能会要求更严格的监管和隐私标准的执行,如果他们担心数据会被滥用或与不可信的第三方共享,他们就不愿意共享数据。边缘计算,已经可降低功耗,提高响应时间通过将敏感数据留在用户手中,可以帮助缓解这些担忧。

然而,中央计算提供了真正的好处。拥有更多数据的算法可以得到更好的结果。更大的数据样本有助于克服偏见。可以相互通信的自动驾驶车辆可以更有效地共享道路。在每个应用程序中,为了性能和用户信任,系统设计人员需要平衡本地计算和集中式计算的优缺点。

为人工智能的未来制定法规
众所周知,政府行动比技术进步要慢得多。欧盟的一般保障资料规例2016年才颁布,当时社交媒体时代已经过去了10年。在美国,参议院2217号法案在美国,《人工智能的未来法案》(FUTURE of Artificial Intelligence Act)是第一批努力应对人工智能影响的联邦立法之一,哪怕只是通过建立一个研究委员会这一非常有限的步骤。华盛顿参议员玛丽亚·坎特韦尔是发起人之一,笔记政策制定者还不知道人工智能技术将如何使用。各州正在规范自动驾驶汽车在其境内的部署,但几乎没有能力控制数据的州际流动。

未来几年可能会为系统设计师和市民提供塑造人工智能支持的未来的最佳机会。

有关的故事
自动驾驶汽车碰撞剖析
事故时有发生,但有了自动驾驶汽车,事故只是开始。
当AI出错时
到目前为止,还没有消除错误的工具和明确的方法。这需要理解AI漏洞到底是什么。



留下回复


(注:此名称将公开显示)

Baidu