围棋有着1^171(1后面171个零)种可能性,计算机证明了自己可以在这个方面战胜人类,但道路驾驶,情况更为复杂,不确定因素十分多,突发事件也非常多,而且无人驾驶牵扯人身安全,所以其难度不比围棋低。 目前Google和百度都在积极地进行无人驾驶的实验。
前段时间百度宣布在公共道路测试了其无人驾驶系统,并未发生任何事故,安全完成测试。 其实在Google和百度这些互联网公司研究无人驾驶技术之前,各大汽车传统主机厂也在这方面进行了很多探索。
无人驾驶一直看起来十分高大上,似乎没有出现过任何差错,然而前几日谷歌无人驾驶的首次事故将其拉下神坛。 这让人不禁反思,当车辆遇到车祸时,无人驾驶系统肩上负担起生命的时候,系统该作出何种选择?Top Gear主持人Jeremy Clarkson在测试宝马无人驾驶系统时也提过这样的问题:如果无人驾驶系统遭遇车祸,一辆大货车翻倒在路中央,这时制动已经来不及,可以选择冲上人行道,但人行道上有行人,如果选择撞卡车,那么车子里面的你将面临生命危险,而如果选择冲上人行道,你的性命得以保全,而要牺牲行人的生命。 计算机在做这样的选择时,就很有可能要参考“机器人三定律”。这个概念最早在1942年由阿西莫夫提出。
机器人学三大法则: 第一法则:机器人不得伤害人类,或坐视人类受到伤害; 第二法则:除非违背第一法则,机器人必须服从人类的命令; 第三法则:在不违背第一及第二法则下,机器人必须保护自己。 虽然截至2006年,三定律在现实机器人工业中没有应用,但很多人工智能和机器人领域的技术专家也认同这个准则,随着技术的发展,三定律可能成为未来机器人的安全准则。
那么回到本港台直播们之前的问题,这个时候无人驾驶系统做出任何一个选择都会违背第一条法则,所以这种情况下计算机无法做出选择,这也是三大法则的一个漏洞。 为了弥补这个漏洞,后来又出现了补充的“机器人零定律”: 第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。 这里提到了整体利益,那么无人驾驶系统这个时候就会做出选择,哪一方对人类整体利益小,就应该牺牲哪一方,而整体利益这种连人类自己都搞不清的概念,机器人怕是也不那么容易搞定。 这里引用威尔史密斯拍摄《本港台直播,机器人》是说过的话作为结尾:“机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。” (责任编辑:本港台直播) |