我们不会把整个自动驾驶完全交给深度学习(神经网络),因为对我们安全性有极大的隐患。比如,如果Comma.ai应用深度学习出现了事故,没有任何办法查找问题,只能继续这样直至事故样本(负样本)量积累足够,但每次负样本意味着一次交通事故,或交通事故隐患,所以现在Comma.ai的产品是被美国高速公路安全管理局禁止出售的。 自动驾驶的法规和限制 1)在雷达方面有一些芯片的禁售。自动驾驶很多传感器,精度越来越精,之前一般应用在军事上的,比如战斗机;目前一个核心的传感器,atv直播,比如说雷达芯片,国内是禁售的,刚刚放开了NXP。 2)雷达的开放频段。因为我们现在用的毫米波雷达也是一个频率比较高的雷达,这个频率国家也是有很多的限制,目前很难引入到国内来。 3)CMOS芯片禁售。尤其是夜视成象的,这种一般都是在原来的战斗机上使用的,一直国内禁售,现在也刚刚开始放开。 4)视觉SLAM牌照。很多做SLAM的就涉及到采集街景,就需要国内的高清地图牌照,国家管控特别严。 5)新能源车牌照。自动驾驶第一个问题是,如何跟这样新能源的主机厂进行合作,他们的牌照对于我们整个系统有限制。 自动驾驶的系统构成 自动驾驶系统主要由传感器、控制器、执行器来构成,这跟任何的汽车电子系统都是一致的。 传感器:摄像头、激光雷达、毫米波雷达、超声波雷达、高清地图,或者是一些地图APP、V2V/V2X。 控制器:分为我们实现自动驾驶的软件算法和我们要搭载软件算法的硬件平台。 执行器:就是制动、转向,以及我们VCU或者发动机控制的ECU。 有以下三点理解: 1)执行器是属于“车”的部分,就是说我们自动驾驶真正落地的时候,一定要考虑到的部分,目前是传统供应商巨头已经成熟的优势领域,难以切入。 2)传感器和控制器是自动驾驶领域创业的重点。 3)控制器供应商作为Tier 1,因为它会整合所有的系统;传感器供应商作为Tier 2,因为它只完成自动驾驶中间的一部分。 传感器的区别和限制 第一,在物体检测上: 1)方位检测。雷达和激光雷达对于位置的距离和方位的测量,一般来说是比较精的,摄像头在这方面差一些。 2)速度检测,毫米波雷达会好一点,激光雷达和图像识别相对来讲差一点。 3)应用场景,毫米波雷达在大雨、大雪时,目前都是可以的;激光雷达由于在雾霾中,它跟光衍射的频率基本上是一致的,所以在大雨、大雾天,它有一定的限制;摄像头会更差一些,比如夜晚你就没有办法使用了。 第二,在物体分类上,像物体的形状、整个属性,摄像头可以识别出来。 第三,在目标追踪上,雷达会稍微领先一点,计算机视觉在做物体跟踪时,效果也特别的好。 第四,在道路检测上,这是唯一一个雷达干不了的事,一定要通过摄像头来完成。 在这种情况下,对于自动驾驶的精确定位来讲,我们现在有几种办法: 1)用激光雷达做自定位,这种激光雷达成本比较高,短期内不会应用这种办法。 2)RTK技术,就是一种差分基站,它可以通过接收端让我们做到高精度的定位,但是目前国内也没有放开。 3)通过计算机视觉来识别,我们道路上固定的标记,来反算我现在的精确位置,这是目前高清地图和自定位里面的主流技术,它也需要依靠视觉。 4)当所有的传感器都不能达到我们全部的需求,最后把整个传感器的优势结合在一起,达到我们对整个环境改变的要求,完成自动驾驶的一些算法,是我们现在非常非常重要的技术。 最后,雷达是产品安全性的底线,摄像头是我们用户体验的上限。 1)因为摄像头有很多的漏检、误检,一旦真正采用后,会导致很多安全隐患。 2)而雷达正相反,如果这个地方有一个物体,它一定会检查出来,当然它会有一些误报。 CV(计算机视觉)和大数据的作用和局限 目前基本上就是一个CV和大数据的“万能论”,主要有以下几种: 1)计算机视觉目前在很多领域已经达到、超过人眼能力了。 2)计算机视觉会越来越趋向于、超过于人的视觉能力。 3)计算机视觉的硬件平台都是电子元器件,成本会越来越低,速度会越来越快。 4)CV和大数据一旦解决了对环境感知的问题,自动驾驶就水到渠成了。 而汽车行业的“潜规则”,我们有以下几点理解: 1)做自动驾驶时,我们对前方车辆的识别,究竟和我们每天早晚上下班打卡时,人脸识别的性质是不是一样的? 在自动驾驶时,一旦发生问题就是一次事故,所以这个识别一定要达到100%,否则就会成为一个大的安全隐患。 (责任编辑:本港台直播) |