在统计学中有两个重要概念:False Positive 和 False Negative,翻译过来就是“误报”和“漏报”:误报就是指明明是正确的东西,被报告成错误;漏报则是明明是错误的东西,却漏过了。 打个比方,就好比你有一个杀毒软件,漏报就是有个病毒没发现,被漏过了,这在靠病毒关键词数据去寻找病毒的方式非常常见——一个新病毒很容易就感染成千上万台电脑。而误报则是把用户的正常文件当成病毒给删除了,这会导致严重的信任问题。因为误报行为相对漏报而言更加明显,容易被用户感知到,且一旦出现,可能会造成较大的影响,赛门铁克的误杀事件就是一个典型的例子。 同样在自动驾驶领域这是非常严肃的区别,继续借用Amnon Shashua 博士的Mobileye例子来说明为什么有区别:[5] 漏报False Negative:系统失灵,系统延迟生效,不准确的测量等 误报False Positive:错误的紧急刹车,错误的转弯等 Amnon博士说自动驾驶的漏报就像杀毒软件漏报一样是不可能完全避免的,实现世界中总会有极端的边界状况出现,去挑战已有的技术,让技术失效,但是系统每次更新都会加强和完善,去修复错误,变得越来越好。说完了漏报,他接着强调了误报对自动驾驶是个更加严重的问题:轻则召回,重则损失上亿还得背负骂名,甚至一蹶不起。想象一下你在正常自动驾驶行驶时汽车感应到前面一个小石头当成一面墙,然后紧急刹车会事什么状况。再例如最近沸沸扬扬的高田安全气囊召回:丰田因安全气囊隐患在美新召回158万辆汽车中华人民共和国商务部网站 就是误报导致本该救人的设备反而成了致命凶手。
如果举例来说,自动驾驶的漏报可能是车前面有1000种不同大小,材质,形状的路障。测试时发现999个都顺利刹车,有1种失败,这1种就是漏报;而误报可能是车侦测到前方有一个小易拉罐,确误认为是无法通过的路障,紧急刹车导致追尾乃至严重事故。所以在自动驾驶领域,漏报是可以理解的,没有任何系统可议做到100%完美,但是误报往往就是人命关天的大事,说明系统本身有缺陷,轻则召回,重则厂商会承担严重的法律责任。 那么我们来看这次Josh Brown的事故是哪种呢? 正是 漏报(False Negative),Tesla的自动辅助驾驶把横向而过的卡车当成了爬坡路上的路牌,以为车辆能顺利通过,结果车从卡车底部穿过,Josh Brown当场丧命,作为一次致死的事故,在高速上转头的卡车司机理所当然承担所有责任:
所以前面说媒体喜欢标题党,本来是一次自动辅助驾驶未能避免的车祸,被说成是自动辅助驾驶导致的车祸,一字之差,实际内容相差十万八千里。 在Tesla当时的自动辅助驾驶软件看来,卡车的车厢就像是这个下潜隧道的桥面,远看似乎能通过,实际是不行的:
所以我们对这起事故已经有了定性: 这是Tesla自动辅助驾驶时,由于系统没能正确识别横向来的卡车,自动辅助驾驶中的紧急刹车功能没能正常启用导致的。而紧急刹车没有启用是因为自动驾驶系统没有发送开启指令,自动驾驶系统没有发送指令是因为给予当时摄像头采集的画面,误判横行而过的卡车是横在路上的路牌。 这里面暴露了Mobileye技术的几个 不足: Mobileye的摄像头接受的是光的反射,如果摄像头效果受影响,例如在黑暗场景中没有了光线,那么识别能力大打折扣。 Mobileye的摄像头获得的是2D平面数据,需要图像识别的加工才能得到有价值的3D场景。 Mobileye的摄像头方案对道路场景的变化反应有限,全靠即时的系统自主判定。 Mobileye的摄像头数据获取是一种被动的方式,它搜集的数据都是已经发生的事,并且还有延迟 所以这起车祸时,摄像头刚好遇到太阳下山时强烈的背光导致识别能力不足,收集到的数据不完备,而这不完备的2D数据又经过图像识别加工成错误的3D场景,让车误判了前方的路况,从而酿成惨祸。 (责任编辑:本港台直播) |