18.luck新利
的意见

无人驾驶汽车和小林丸

汽车应该如何做出道德决策?它可能并不重要。

受欢迎程度

小林丸。如果你知道我在说什么,你是一个真正的《星际迷航》的粉丝。如果没有,让我放纵自己。

小林丸是一种计算机模拟训练的虚构的宇宙星际迷航,星舰学院学员在哪里看到一个无法取胜的场景。但是他们必须做出决定。

运动的主要目标是拯救一个残疾人民用船叫小林丸,漂流到中性区分离克林贡和联盟。即将到来的实习人员必须决定他们是否应该进入中立区和救援小林丸船员,从而危及自己和自己的船。更不用说开始星际战争史诗比例。另一个不受欢迎的选择:离开小林丸对某些破坏,船员全部遇难。然而,实习船员不知道,如果他们进入中立区,尝试这样的救援,仿真预先编程,以保证学员的船被摧毁所有船员的损失。这真是一个两难的情况。

这和我们有什么关系呢?这个博客应该是一块无人驾驶汽车。

自主驾驶的主题和人工智能的流行在硅谷和地球上其他地方。每一天,我们阅读新闻和博客文章和评论是否自动驾驶汽车我们可以信任的机器(或计算机)做批判性思考和决定生死!我想这生死的问题出现在神经网络计算和人工智能的背景下现在进入了无人驾驶汽车领域。

一方面,大多数人认为,当我们最终到达5级自主驾驶,就没有人类参与和汽车将在所有情况下决定要做什么。毕竟,我们说,人类司机在车辆安全的薄弱环节。如果我们能消除人的因素,我们都将更安全,寿命长。这确实是一个不干预模式。

那么,这是无人驾驶汽车将面临无法取胜的场景吗?

电车难题。是的,人们为此发明了一个新词必败的假设的情况下一个人目睹一个失控的电车可以让几个人,或者把杆,把电车,但杀死别人。不,我没有做这个。

在类似的情况下,自动驾驶汽车正沿着道路拥挤的人行道,和刹车故障。是的,这应该不会发生(但留在我身边,让我放纵一点)。如果汽车转向,乘客可能受伤或死亡。如果汽车继续目前的课程,它将达到并杀死许多行人。这种无人驾驶汽车必须预先编程,能够做出这个决定。电脑不程序本身。工程师计算机编程。还是他们?将人工智能启用和允许计算机做出这些决策?

这是一个道德问题,道德和伦理决定提前“由程序员决定”。

进入“道德上的机“从麻省理工学院。

它是一个平台来收集人类对道德的看法决定由机器智能,如无人驾驶汽车。仿真显示了一个道德困境,而不是与电车难题或小林丸,一个自动驾驶或无人驾驶汽车必须选择两害取其轻:杀死乘客在车里,或者杀死五个行人。作为外部观察者,您可以决定哪些结果是更容易接受你,你可以看到你的反应比其他的人选择参加这个模拟(或数据收集)。如果你不喜欢的场景呈现给你,麻省理工学院的“道德机”模拟甚至允许您创建自己的场景。所有这一切都以科学的名义。

谁说极客们不能玩得开心吗? !

这个故事实际上有一个光明的一面,尤其是如果你是一个工程师。这个两难的情况应该不会发生,所以我们不需要担心。当我把我的驾照考试,我不记得这是一个问题。为什么这个问题应该对一辆无人驾驶汽车吗?这是一个双重标准。如果有的话,自动驾驶汽车几乎可以确保这种情况从未发生在第一个地方。所有的传感器和围观技术已经在汽车你可以买今天,无人驾驶汽车肯定会意识到这样的场景之前人类司机可以预见。无人驾驶汽车将事先本身减慢或停止,消除电车难题。今天使能技术已经广泛部署:自适应巡航控制,自动紧急制动,车道偏离事故监控和规避盲点detection-all启用传感器融合。



留下一个回复


(注意:这个名字会显示公开)

Baidu