18lickc新利
的意见

这是人工智能的永恒之泉

为什么传感器-信号处理-决策管道的技术突破指向人工智能的普遍应用。

受欢迎程度

人工智能(AI)领域经历了许多起起伏伏,这主要是由于包括研究人员、赞助商、开发人员甚至消费者在内的所有参与者所产生的不切实际的期望。人工智能的“重新崛起”,与传感器、宏微观计算、通信网络等支撑技术和领域的发展以及深度学习等推理方法的进展有很大关系。人工智能之所以能够重新成为一股主要力量,是因为人工智能算法能够直接与传感器和数据(麦克风、摄像头、医学成像扫描仪、生物信号、财务和医疗记录等)进行交互。

早期——人工智能工具处于开发管道的末端
在早期,人工智能主要专注于开发搜索大量解决方案的策略。解决方案空间通常远离数据,由设计用于开发形成解决方案空间的适当表示的方法分开。早期桌游的成功——以及最近的成功——都在游戏节目中得到了展示危险-指出了这一大趋势。人工智能也受益于逻辑和概率推理方法。这些方法的特点之一是从传感器数据中提取的表示或属性是由科学家和工程师手工制作的。这种方法主导了计算机视觉、语音和说话人识别领域。举个例子,在计算机视觉中——目的是用相机收集的图像或视频描述一个场景、物体以及它们在场景中的相互作用——研究人员会提出诸如边缘、线性特征、纹理、运动和深度等表示。然后,推理算法将处理这些特征来回答有关谁、什么、哪里、为什么等问题。在这个传统的场景中,AI工具在管道的末端被调用。

在上面描述的传统管道中存在许多问题。由于数据和人工智能之间有许多中间步骤,实时决策很难实现。提取属性或特征的前端算法容易出错,需要复杂的推理方法来进行决策。这些机制不适用于处理计算机视觉中的大规模问题。虽然在高速公路、宾夕法尼亚州的匹兹堡和加利福尼亚州的圣地亚哥都有一些自动驾驶的开创性演示,但这些系统并没有被大规模采用。设计和构建大规模人工智能系统的失败尝试可以追溯到由于传感器和人工智能之间的多个步骤而对人工智能算法造成的负担,这也印证了俗话所说的“杯子和嘴唇之间有很多失误”。语音和说话者识别和验证的情况要好得多,可能是由于减小了维度(1-D相对于2-D或3-D),传感器和受试者之间的距离更近,以及更好地理解产生语音信号的机制。

发生了什么变化?传感器到推理的直接管道
决策或推理算法现在直接与传感器和数据对话,完全避免了生成手工制作的中间表示的繁重任务,人工智能方法是在这些中间表示上设计操作的。自2012年以来,传感器到推理的直接管道在物体和人脸检测和验证等许多计算机视觉任务中表现出了显著的性能提升,闸门已经打开。传感器收集的大量标记数据的可用性是人工智能作为一种普遍技术重新出现的因素之一。

嗯,性能确实很重要。dcnn在几乎每一个问题上都创造了新的最先进的结果,这些问题都适用于可学习的数据到决策映射。计算机视觉和其他会议中的大量论文都使用了dcnn及其变体。就好像我们都只吃一种冰淇淋一样!

接下来是什么:寒冷的冬天还是永恒的春天?
接下来的问题是,人工智能会面临另一个冬天吗?我不这么认为。由数据到决策范式创建的表示比大多数手工制作的功能要好得多,我相信这种方法是在这里说的。事实上,人工智能的可持续性或永恒之泉看起来很有前途,因为当它有意义时,人们可以应用直接方法,也可以将过去的人工智能推理方法与dcnn生成的数据驱动表示集成在一起。

人工智能将继续在传感器或数据丰富的应用领域取得进展,如自动驾驶汽车、医疗、金融和教育。自动驾驶汽车有摄像头、3D深度传感器和地理定位设备,我们大多数人已经享受到了自动化和安全性提高的好处(盲点警告、智能巡航、变道警告、自动制动等)。我们期待在可预见的未来,更多的自动驾驶汽车和卡车将布满我们的道路和高速公路。

同样,多模态数据在医学领域也有很多机会。x光、CT、MRI和超声等各种成像设备会产生大量数据,可以使用人工智能技术进行分析。病理学家和放射科医生将有许多基于人工智能的诊断工具来快速对他们必须分析的大量数据进行分类。人工智能的另一个有用领域是预测不良结果(例如,麻醉患者的血压是否会达到危险的低水平,或者ICU患者是否会出现谵妄?)

在教育领域,人工智能的好处还没有被充分探索。你可以想象一下,在一个有30名学生的教室里,有一名教师亲自在场,30名虚拟教师,每个学生以适合自己的速度从他/她自己的虚拟老师那里学习。使用人工智能代理的个性化学习和教育将对向全世界的下一代传播信息产生深远影响。

人工智能将对半导体行业产生重大影响,并有望在未来十年重新定义该行业。芯片开发的复杂性不断增加,芯片制造商正在转向AI来改善他们的设计和制造流程。计算在人工智能中的作用怎么强调都不过分。DCNN训练算法的需求要求开发强大的gpu。有点矛盾的是,如今,一个AI团队的实力取决于该团队可以访问多少gpu。半导体行业将继续在高质量GPU服务器和工作站的开发中发挥关键作用;它还将通过提供更小的gpu来支持边缘计算或低功耗的移动计算,从而实现更小的人工智能设备的操作。因此,人工智能可以被安置在物联网设备、家用电器、智能手机、平板电脑和其他便携式设备中,如健康监测设备。

人工智能安全且合乎道德吗?
人工智能系统因对抗性攻击而容易受到攻击,人工智能应用是否安全和合乎道德?这些问题的答案不是直截了当的,需要从哲学和道德的角度来回答。人工智能系统对对抗性攻击的脆弱性是真实存在的,世界各地的许多研究小组正在解决这一问题。针对对抗性攻击的许多防御措施正在开发中。套用统计学家乔治·博克斯(George Box)对模型的评论,“所有的防御都可能被打破,也必将被打破;有些人可能比其他人活得更久。”这是一场持续的猫捉老鼠游戏,与我们每天面临的网络威胁没有什么不同。

到目前为止,对对抗性攻击具有健壮性的系统似乎没有达到部署所需的水平。这种情况可以通过在安全硬件中嵌入AI软件来改善。半导体行业将在为人工智能系统开发安全硬件方面发挥重要作用。由于当前的性能成就在很大程度上取决于数据的可用性,数据偏差可能会对人工智能系统的性能产生不利影响。一个著名的例子是,一些人脸识别系统在应用于某些群体时表现不佳,这引起了人们对人工智能系统的公平性或道德使用的合理担忧。另一个担忧是用于设计人工智能系统的数据的隐私问题。这些担忧可以通过让伦理学家参与人工智能系统的设计来解决,这样就可以纳入减少偏见的步骤和谨慎的隐私保护数据收集协议。因此,随着人工智能在社会上的部署,越来越需要将其置于公共政策框架之下,就像过去对其他技术创新所做的那样。

当我们准备将人工智能系统融入日常生活时,我们不仅需要关注技术问题,还需要关注道德、伦理、社会和哲学问题。这将需要人类所有群体的参与,以便能够出现和维持一个更美好、繁荣、和谐与和平的世界。



留下回复


(注:此名称将公开显示)

Baidu