系统与设计
的意见

道德和奇点

理解的偏见是构建智能系统的关键。

受欢迎程度

几周前,我写了一篇题为乘数和奇点。这篇文章一直好评,我感谢那些取得了一些有趣的评论。这样的文章很难写没有插入作者的偏见。作为一个作家,我有很多自己的想法,甚至可能偏见,但这些并不意味着进入我的写作。我确信他们在微妙的方式做,但有时我想尖叫应对一些人说的事情。当然,我的博客就是我能说这样的事情,传授自己的观点。

但是'我想谈谈在这个博客不是我反应人们在那篇文章中说,但整个偏见的概念在我们继续深入的领域人工智能(AI)和它所代表的危险。考虑片刻,机器学习从项目的集合,被送入训练系统。如果我们谈论的是机器视觉,那么这是一个收集的照片。

集合包含偏见吗?也许是一种更好的方式可能的措辞,“有可能创建一个训练集,不包含偏见?”然后作为次要的问题你可能会问,“将偏差影响的操作系统材料的方式?这并不是新问题,甚至对机器学习。

我对这幅漫画提醒我看到前一段时间后,最高法院法官索尼娅Sotamayor承认有一个标准化考试文化的偏见。

卡通
来源:Standardize.me

这样的偏见可以显著影响的结果。有偏见的测试由斯坦福大学,我相信别人,试着找出隐藏的偏见你作为一个个体。甚至很告诉这个测试的着陆页包含一个警告“我知道遇到我的解释IAT测试性能的可能性,我可能不会同意。”

人们很少能看到自己的偏见,但我们可能将这些插入到学习的数据集,我们使用。这可能意味着许多人工智能系统是性别歧视,种族歧视和许多其他负面特质和恐惧,就像训练他们的人。让我们面对现实吧,人口的培训主要是受过高等教育,偏向西方男性,可能在三四十岁。

值得庆幸的是,一些机器学习的应用会受到这样的偏见。可以有一个偏见所示电脑中去或扑克的路吗?可能不会。然而,机器视觉开始变得有点棘手。某些种族可能会比别人更好,并可能影响决策,这样的系统。

一旦任何一种决策附着在视觉识别或其他认知输入,然后我们必须非常小心。移植团队每天都做这10位病人需要心脏移植时,另一个是可用的。他们必须做出价值判断谁是最值得的。有事情我们可以向他们学习或他们同样有偏见吗?

即使他们认为他们是公正的,我们可以比较,他们做出的决定和一个类似的团队从一个不同的文化。如果没有偏见,那么他们应该到达相同的决定,但文化和宗教往往意味着不同的值集用于做出这样的决定。的技术开发人员应该把他们的理想强加给世界其他国家吗?

IEEE已经开始解决这个问题,道德规范的草案为人工智能的开发人员。我希望公司发展人工智能技术非常重视这个,并确保任何产品开发并不仅仅停留在法律条文,但把一个伦理委员会认真看他们的决定。

太多次了,年轻的创业公司都竞相包的前面,一路上他们已经做了一些可怕的事情。可能是没有法律或道德的声明他们的提议,但是如果他们只停了一分钟,通过,这将是显而易见的,他们把钱和成功之前,什么是正确的和体面的。

欧洲比美国未来在今天的公开讨论这些问题,并讨论可能还没有开始在世界的其他地区。如果这些问题得不到解决,那么一个奇点的概念从来都可以考虑。我们甚至还没有取得第一小步机器伦理决策的方向。

有关的故事
卷积神经网络电力
采用机器学习方法的图像识别的生长;其他应用程序需要力量和性能改进。
神经网络计算爆炸
资金雄厚的公司开始定制这种方法为特定_花大量的钱收购初创公司。
乘数和奇点
AI让有趣的阅读,但物理会限制它能走多远,有多快。
哈尔,25岁生日快乐!
AI哈尔开始运作以来已经走过了漫长的道路。



留下一个回复


(注意:这个名字会显示公开)

Baidu