买买买,晒晒晒。 买初创买专利买人才,晒技术晒路试晒愿景。 2020 和 2021,这两个在 2016 年下半年和 2017 年开年不断被提到了两个关键年份,成了无数汽车和科技公司预测的自动驾驶落地之年。 如果把自动驾驶解析成最简单的几块,应该包括:感知、决策、控制。而最高级别的自动驾驶,就是人们希望自动驾驶车能够像一名老司机一样,只要告诉目的地,车辆就能带你到你想要去的地方,乘客无需做出任何驾驶决策和指导。 但人们往往不会认为机器是和人类一样的东西,那么对于人们来说,全自动驾驶车恐怕就是一辆不需要车夫的高级马车,而目前市面上常见的驾驶辅助车型,就是仍需要车夫把住缰绳的普通马车。
举个例子:一辆马车在路面上行驶,奔跑的马会分辨路面和障碍,躲开障碍沿着路走,遇到阻拦自动停下,直播,经过多次训练熟悉路线的聪明马无需车夫引导就能自己到达目的地,没有那么聪明的马尽管需要车夫偶尔调整方向,也不至于自己撞强搞个车毁人亡。 这其中的关键在于感知。这是个复合词,包括“感”和“知”,也就是说,要实现感知,首先要发现目标,然后还要知道目标是什么。
自动驾驶中的感知是个比较容易解释的概念,通过摄像头、毫米波雷达、激光传感器等部件,绘制车辆周围的 3 维环境,再通过视觉识别技术来确定周围的物体是什么,哪些是可行驶道路,哪些是车,哪些是无用的道路成分。
然而有这样一个问题:人类,甚至说是一匹马这样的生物,所拥有的感知能力都是多维的。在驾驶过程中,不仅仅是视觉,嗅觉、听觉、触觉都会参与到对环境的感知之中,我们在开车时听到后方车辆的喇叭声就知道自己需要避让,闻到车辆内外的焦味,就会让自己警惕车内外的安全情况,开窗的话也可以随着风声听到后方车辆慢慢赶上或越来越远,把手伸出窗外,也完全可以根据风阻大概判断速度的变化。
目前的自动驾驶车,更像是一个视力不错但丧失了其与感官的智障,仅仅能看到,但是看到了后,还经常不能够识别出物体是什么。以特斯拉为例,2016 年那起 Autopilot 致死事故,就是由于车辆摄像头虽然看到了前方突然横过来的大卡车,“感”做到了,但“知”没有做到,当时 Autopilot 摄像头采集的画面,误判横行而过的卡车是横在路上的路牌,于是系统就没有启动刹车。
这么来看,现在高级的驾驶辅助,可能真的没有一辆马车更加“智能”。 说回到刚被巨款收购的 Mobileye,作为驾驶辅助和自动驾驶视觉识别领域的领导者,Mobileye 将道路感知分为了三部分:物体识别、行驶路径识别和可行驶区域识别。
拿上图做个例子,圈出的部分就是 Mobileye 单目摄像头所识别出的物体。首先要知道的是,这已经是个非常黑科技的技术了,因为单摄像头的识别能力在硬件层面上,只是二维的图像,但 Mobileye 经过处理,已经能够在视觉识别时勾勒出物体的轮廓,将感测的维度从 2 维调整到了 3 维,这已经是有一部分感知中的“知”的体现了。
(2 维平面视觉识别) 将传统 2 维的图像识别多跟踪几帧,绘制出 3 维的环境信息后,交给自动驾驶大脑的信息量就完全不同了,传统 2 维信息是只能知道物体的大概位置和正面面积,但是拓展到 3 维后,车辆方向、车辆体积、具体位置都有了。 不要急,这只是识别出物体,最为关键的可行驶路径识别和可行驶区域还没有确定,这才是感知最为重要的地方。 (责任编辑:本港台直播) |