中文 英语

将人工智能推向主流

为什么数据清洗和社会问题可能会限制这项技术的采用速度和实用性。

受欢迎程度

人工智能正在成为许多技术进步背后的驱动力,尽管该行业只是触及了可能实现的东西的表面。

但是有多深人工智能如何渗透不同的细分市场和技术,以及如何快速进入主流市场,取决于仍然必须解决的各种问题。除了过多的技术问题,还需要在净化数据集、解决政治、法律和道德问题以及灌输对机器的信任方面取得进展。

这些挑战没有一个是不可克服的,但如果不能解决其中任何一个,就可能推迟人工智能的采用,并减缓或阻止其充分发挥潜力。

数据清理
人工智能应用始于大型数据集。如果数据不好,则应用程序也不好。数据可能包含偏见,可能导致结果偏向偏见的解决方案,或不公正地对待某些情况。

“人工智能是关于数据的,预测下一个结果是基于之前的模式或算法,”史蒂夫·罗迪解释道,他是微软公司机器学习组特殊项目副总裁手臂.“如果数据集中存在无意识的偏见,那么这种偏见将继续成为模型的一部分,并将传播有偏见的结果。技术人员有道德责任监督他们创造的算法,以确保它们是公平和公正的。”

偏见可以隐藏。“很多人工智能公司都在中国,”百度营销副总裁马克•纳德尔(Marc Naddell)指出矛隼技术.“你能想象,当中国公司试图将自己的模型推广到世界其他地方时,它们会在数据集上产生多大的差异吗?”这不仅是面部和身体方面的问题,也是行为方面的问题。”

许多公司如此急于发布产品,以至于他们没有适当地检查数据集。“以医疗保健领域的人工智能应用为例,”Vision & AI的高级业务发展总监安德鲁·格兰特(Andrew Grant)说想象力的技术.“这是一个潜力巨大的领域,但任何人工智能项目都有高达80%的工作是在寻找、清理和准备数据,以便将其用于人工智能系统。在某种意义上,人工智能正在被这些障碍所阻碍。培训、减少错误和获得正确的数据可能是一个问题。尽管一些纵向数据集越来越多地以匿名形式提供,但这是一个例子,我们可能会看到数据即服务(data-as- service)或数据准备即服务(data- prep-as- service)市场与更熟悉的人工智能领域并列。”

今天,我们已经开始意识到用于早期人工智能应用的数据集中包含了多少偏见。纳德尔补充道:“人工智能在不同领域的应用越多,就能越快地发现偏见等问题,并出现避免这些问题的最佳实践。”“这是蛮荒的西部,许多用例都是第一次尝试。你必须考虑收集样本数据所需的所有环境和场景,以确保它是可靠和全面的。”

从更小的数据集推断还存在其他挑战。这可以在数据集通常较小的EDA应用程序中看到。“我们通常很快就能看到毫升(机器学习)在实验环境中,我们将范围限制在一小组芯片设计中,手动选择和清理输入数据,手动调整我们的ML算法以满足我们的需求,并且在我们产生供公众消费的结果之前可以私下失败许多次,”该公司工程总监杰夫·戴克(Jeff Dyck)说Mentor是西门子旗下的企业.“将ML技术产品化往往要花费比预期更多的时间和精力。要使ML方法普遍适用于广泛的芯片、工艺和设计流程,使其可靠可靠地用于生产,并使其易于设计人员使用,这需要一种自然的力量。出乎意料的产品化努力是许多有前途的ML技术无法进入生产工具的原因。”

政治
人工智能也开始获得一些政治关注。

Allied Analytics数字营销工程师沙拉德•辛格(Sharad Singh)表示:“政府尚未妥善解决围绕人工智能的法律、政治和监管问题。”“这是人工智能最大的隐患。”

科技行业与政府干预的关系一直不稳定,但人工智能在其中加入了一些新元素。一方面,人们担心这项技术的影响,它被描绘成杀手机器人中的邪恶力量,对就业的威胁,以及自动驾驶汽车对人类生命的威胁。另一方面,这项技术也可以被用来跟踪大量的人,并找出对政府不利的模式和行为。

Imagination公司的格兰特说:“对人工智能抱有党派利益的政府对人工智能是一种危险。“现在最棒的是,有一个全球社区,有大量的知识共享、开放标准和开源,使开发人员能够访问这些技术。总有一种危险,即政府会试图控制局面,转移注意力。虽然有很多夸张的说法,但如果一项可以帮助我们解决当今世界大量问题的技术被颠覆,以达到不恰当、自私的目的,那将是一种极大的耻辱。”

颠覆可以以不同的方式发生。联合分析公司的辛格表示:“人工智能的崛起已经启动了各国之间的全球自主武器竞赛。“数据分析公司已经利用人工智能进行目标营销影响结果2016年美国总统大选。与此同时,中国已经实施了基于人工智能的面部识别来跟踪公民的行为,以确定他们的社会信用评分。实施有关人工智能使用的规章制度是强制性的,以减轻人工智能给社会带来的风险和危险。”

公司副总裁兼首席技术专家Raymond Nijssen表示:“我们必须做好准备Achronix.“今天,它只是一列迎面而来的火车。上世纪70年代,在我的祖国,一位部长推动对微处理器征收高额税收,因为它们会抢走蓝领工人的工作。这会是一件非常糟糕的事情。你想成为一个为这些变化做好最好准备的社会。蓝领工人再次受到最大的威胁。人工智能带来的生产率提高将在未来几十年推动GDP增长。经济增长几乎完全是由生产率提高推动的。变化发生的速度令人担忧。从人工到自动化的转变过去需要几十年的时间,所以它们有机会在一代人的时间内适应。”

信任
但人们能信任那些试图部署人工智能的公司吗?

格兰特说:“道德是一个问题,尽管有很多好的工作正在进行,但确实是时候公开声明这些了。”“否则,对流氓演员施加压力就太晚了。同样,对于信息的使用需要有明确的指导方针,并确保培训不是针对不具代表性的数据进行的。我们没有理由去做错事。然而,即使是大公司也有过明显不公对待部分社会群体的尴尬时刻。我们需要注意潜在的,甚至是意外的虐待和意想不到的后果。我们需要确保发展中的小问题不会导致消费者的反应,以短视的方式关闭思维途径,导致过度监管和扼杀未来的新兴产业。”

信任往往来自于理解。“可解释的人工智能对于大规模决策系统是必要的,其中如何获得答案的问题对其接受度至关重要,”Dave White说,他是at的定制IC和PCB组的研发高级团队总监节奏.“这包括基于观察-面向-决定-行动(OODA)架构的系统,其中优化驱动的人工智能将向人类提出建议,然后要求人类做出关键的最终决定并采取行动。OODA应用程序需要可解释的AI,这是接受更自主决策系统的第一步。”

这在一定程度上取决于谁拥有数据。

纳德尔警告称:“传统上,数据都是由大公司收集的,随着黑客攻击和私人数据泄露落入坏人之手,这可能是一种损害。”“我们认为,处于边缘的人工智能为行业带来了一系列新的机会,因为它解决了隐私问题,还改善了可能影响用户体验的延迟。此外,当你必须在边缘和网络之间来回发送数据时,你可以根据你试图使用系统的时间进行变化。”

当它们完全无法连接时,我们愿意让人工智能来做决定吗?Achronix的Nijssen预测:“因此将会发生灾难。”“在某种程度上,机器将被置于人类之上,而人类无法或不知道如何覆盖机器,即使机器的行为可能是错误的。谁负责?是人类还是机器?如果飞机完全自动驾驶,就可以防止劫机,因为人类无法控制它。人们会说这是一件好事。但如果你问他们关于机器凌驾于人类之上的问题,你会得到很多反驳。当机器变得更聪明时,这似乎很可怕。人类不能容忍机器杀人。”

技术挑战
就像任何技术的可靠性一样,验证是关键的一步。但开发人工智能系统的验证还有很长的路要走。

Mentor的Dyck说:“我们需要非常健壮的ML方法,能够可靠地提供所需的准确性水平,向设计师揭示其准确性,并且完全可验证。”

凯蒂丝的怀特对此表示赞同。“缺乏充分的核查方法是一个巨大的威胁。随着人工智能对机器的影响,其发展速度可能超过了确保稳定性和安全性所需的验证水平。我们在训练和推理方法的发展上看到了巨大的投资。然而,对于在实际系统和环境中验证人工智能系统的关注要少得多。对于在线营销应用程序或图像处理基准来说,这可能不是一个大问题,但随着我们将人工智能和深度学习集成到运输、制造或其他安全关键环境中,它变得越来越令人担忧。”

但是,验证对人工智能系统到底意味着什么?“人工智能和机器学习应用的硬件平台需要在应用映射之前和之后进行两次验证,”该公司的技术营销经理塞尔吉奥·马尔切斯(Sergio Marchese)表示OneSpin解决方案.“此外,这些芯片或多芯片模块的尺寸非常大,可能包括数十万个模块和IP实例。即使是最基本的任务,如验证顶级连接以确保IP和子系统的正确集成,也可能不仅在模拟中变得棘手,而且在传统的正式连接检查应用程序中也是如此。”

创建优化的硬件也是一个挑战。“从ASIC的角度来看,最大的挑战是人工智能算法在不断变化,”Mike Gianfagna说eSilicon.“这一事实意味着硬件加速通常由gpu或fpga完成,随着算法的发展,可以进行现场更新。然而,这种趋势也有其局限性。与更通用和可编程的方法相比,ASIC形式的定制AI加速器总是能提供更好的功率、性能和总体拥有成本。”

人们很容易被冲昏头脑,认为人工智能是解决所有问题的最佳技术。“在人工智能的应用方面,特别是在芯片设计方面,仍有一些悬而未决的问题,”德国芯片研究所高级物理验证小组成员克里斯托弗·索尔曼(Christoph Sohrmann)警告说弗劳恩霍夫东亚峰会.“例如,如何将人工智能算法与现有的基于规则的方法结合起来?真正需要的是符号和神经概念的融合。事实上,直到今天,这也是人机交互的成功公式。”

新兴技术也可能带来新的变化体系结构.Gyrfalcon的纳德尔表示:“考虑将不同的内存技术集成到人工智能加速器中。“我们正在关注MRAM而不是静态存储器.这为边缘带来了新的功能,可以开辟新的用例。因为它是非易失性的,这意味着当你循环电源时,它立即使用软件并作用于数据。它不需要重新加载软件。这对于许多物联网设备来说是至关重要的,在这些设备中,您可能要操作门或连接到安全摄像头。延迟是一个大问题,电源管理也很重要。”


图1所示。可以在多个地方进行推理和学习。来源:Rambus。

一些应用程序也可能依赖于边缘学习。世界语技术公司(Esperanto Technologies)的计算机系统架构师彼得·格拉科夫斯基(Peter Glaskowsky)指出:“人类的思维并不像今天的机器学习模型那样,对学习和推理有严格的区分。”“人类可以学习新面孔,并在几分钟或几年后再次认出他们。通过持续学习——一种需要芯片足够灵活来进行学习和推理的人工智能风格——计算机可以成为一个‘超级识别器’,能够识别常客的面孔,或者在实施抢劫前多次光顾一家商店的罪犯的面孔。”

Nijssen也认为这是一个问题。“训练和推理之间的严格分离是现有技术局限性的产物。这种分离必须消失。这将带来新的计算方法,而且必须是节能的。学习必须是即时和持续的。我们不能在这里进行训练,在其他地方进行推断。”

这个行业需要适应。Arm的罗迪表示:“人工智能的增长将继续加速,对硬件和软件的需求将有所不同。”“虽然硬件追求性能和能源效率,但在堆栈的另一端,应用程序开发人员想要一个开源的通用软件框架,以加速人工智能的部署。由于硬件和软件的联锁,新技术总是很棘手:应用开发者不会使用一个功能,直到它在市场上的大多数设备上,而设备制造商不愿意投资尚未使用的软件的功能。”

让人工智能更上一层楼
如今,人工智能消耗了太多的能量。“要想让机器学习更上一层,需要解决的一个问题是在资源需求和功耗方面实现机器学习的小型化,”Markus Levy说NXP.“机器学习的未来不仅在海量数据的云端,也在网络的边缘。数十亿连接的设备必须能够自主做出决策,而不需要总是寻求“老大哥”云的帮助,一旦做出决定,它们还需要与其他设备共享它们所获得的知识。这就是当集体数据导致智慧,集体智慧导致知识,这是所有人共享的。”

这可能需要改变。“我们如何才能摆脱这种束缚,将不同类型的工具交给开发者使用?纳德尔问道。“有很多开发人员非常擅长开发软件应用程序或设计设备,但人工智能对他们来说是新鲜事物。我们如何将工具交到他们手中,让他们不必花费数年时间学习如何在云计算中工作,而是为他们的应用程序创建他们特别需要的模型?”

要实现这一切,人力资源极度匮乏。格兰特说:“我们需要激励下一代数据科学家,因为全球对各种类型的智能人工智能从业者的需求存在巨大缺口。”“也许我们也可以让招聘民主化,减少性别失衡,从社会各个领域招聘。人工智能是一个极好的机会,可以促进基于数据驱动决策的变革,这与许多千禧后的迷因相一致。我们生活在最激动人心的时代。让我们保持这种势头。”

有关的故事
人工智能芯片架构的竞争到边缘
各家公司都在使用各种芯片架构作为武器,将人工智能推向前沿。
人工智能的下一步是什么,量子芯片
Imec、Leti和SRC三家研发机构的负责人讨论了人工智能、封装和量子计算领域的最新芯片趋势。
人工智能对芯片设计的影响越来越大
Synopsys董事长着眼于人工智能爆发的真正原因,以及它对硬件和软件的意义。



留下回复


(注:此名称将公开显示)

Baidu