本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

wzatv:若把性命托付给人工智能,它应该遵守人类的道(2)

时间:2017-08-02 12:49来源:668论坛 作者:118KJ 点击:
“我想,由机器来决定生与死,这会使人们感到非常不安。”祖特费尔德说,“在这方面,我们认为,要让公众接受这些系统,透明度和可理解性十分重要

“我想,由机器来决定生与死,这会使人们感到非常不安。”祖特费尔德说,“在这方面,我们认为,要让公众接受这些系统,透明度和可理解性十分重要。换句话讲,人们可能更喜欢透明和易于理解的系统,而不是更加复杂的黑盒子系统。我们希望,人们能理解给机器灌输道德标准的必要性,着重讨论采取何种方法,以及这样的系统应该如何做出决定。若是这些都做到了,每辆汽车都将做出同样的决定,如果模型有一个良好的共同基础,就可以改善公共安全。”

祖特费尔德的实验反映出,要找到虚拟主体的“共同道德基础”,实非易事。媒体和社交网络上有着太多的政治和社会分歧,“共同道德基础”的想法就好似在深深的沙子中行走——如果你脚下的地面突然塌陷,请不要感到惊讶。

在只有一秒反应时间的测试场景中,作为障碍物的一名女性常常被撞,尽管模型显示她的生命价值更高。这种判断上的错误,仅仅是在实验中常常出现,但并没有实质性地伤害到某个人。但在现实中,如果你犯了这样的错误,那可不是撞了一堆像素那么简单。

在四秒反应时间的场景中,这些错误基本消失,j2直播,但取而代之的是“不作为”现象。被迫在两个障碍物之间作出选择时,受试者留在原车道的倾向变得强烈了许多。虽然有了更多时间去思考,但他们在最大程度减少生命损失方面,反而做得更少,更多的是想推卸责任。他们留在原车道,根本不去选择。

向这样的角色模型学习时,算法应不应该复制人类的道德?或者,如果算法能够克服人类的道德缺陷,它是否应该摈弃这些缺陷?

人类是好的道德榜样吗?

对算法进行训练的过程,就是研究重复性和多数人思想的过程。但一遍又一遍做同样的事,得到同样的结果,这更符合爱因斯坦对于疯狂的定义,而不是对美好的追求。

“人类有能力学习,有能力培养道德。但算法只能以数字形式演变。”剑桥大学生存风险研究中心的伦理学家西蒙·比尔德(Simon Beard)说,“我总是在想,直播,如果我们可以把人工智能(AI)做得更好,我们为什么不努力做得更好呢?或者,我们为什么不问问自己,如果我们可以做得更好,我们会怎么做?而不只是把我们真正做的事情变成模型?”

人类不是完美的,但算法可以做到。自动驾驶汽车不会一边开车一边打电话,也不会对着后视镜整理发型。在车祸即将发生时,自动驾驶汽车的反应速度之快,就连反应最敏捷的人也望尘莫及。“我们无法测试我们在那些情况下会怎么做。”比尔德说,“仅仅因为某件事是我们能力范围之内的最佳选择,并不意味着AI也应该这么做。”

我们知道,生命价值模型反映了实用主义理论——死的人越少越好。足够简单明了。但最大程度地减少生命损失绝不是一个非黑即白的道德命题。

wzatv:若把性命托付给人工智能,它应该遵守人类的道

“一辆电车沿着轨道驶来,眼看着就要撞死五个人。”比尔德解释说,“这时,你可以把一个陌生人推下桥,挡住电车,救那五个人,但被你推下去的那个人会死。这种情况下,你显然不想最大程度地减少死亡人数。几乎所有人都会说,你不能把那个人推下去,这是不对的。电车将会撞死那五个人,这非常不幸,但哲学家往往认为,出于某种原因,把那个人推下桥,这种行为越界了。”

把某个人推下桥,你不会因此成为好人。悲剧往往没有给人留下选择的余地,但通过不断做出艰难的决定,我们大多数人将得到成长。而算法做不到这一点,至少是在道德层面上做不到。虽然它能学习,但它无法成长,也无法产生负罪感。它会把每次碰撞都视为它的第一次,每次只接受不同的数据点。

然后是智慧的问题,或者说,缺乏群体智慧。“仅仅因为很多人觉得某件事是对的,未必意味着它就是对的。”比尔德说,“我们很早就知道这一点了。不能因为其他所有人都在做一件事,就断定它是对的。如果60%的人在做一件事,而40%的人在做另一件事,你必须好好想想这意味着什么。”

算法的道德规范将不得不受限于严格控制的场景,回归到最大程度减少生命损失的实用主义模型,而对现代哲学家来说,这是一个思想雷区。在碰撞不可避免的情况下,自动驾驶汽车可以设法减少对人的伤害,但采用它们自己的道德体系后,就会破坏责任机制。一旦发生车祸,自动驾驶汽车是否须支付赔偿?是否应成为法庭被告?

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容