贾兆寅,现为滴滴出行前沿业务技术负责人。上海交通大学本科毕业、康纳尔大学博士,曾于 Google 工作三年半,博士期间主要对感知技术等领域做研究,包括了基于计算机视觉的具体算法,比如说物体识别、三维重建。3 月16 日,贾兆寅博士对无人驾驶技术做了基础性的详细的讲解。 爱范儿(微信号:ifanr)在获得授权的情况下,对内容做了不改变原意的删减处理。文章较长,但分享者提供的信息全面且易懂,想了解智能驾驶技术的读者可以此做基础性学习。 全文阅读大约需要 15 分钟。 无人驾驶的历史无人驾驶研究大概是 2000 年从北美开始的,当时是斯坦福大学等名校参加一个名为 “DARPA” 的无人车挑战赛。这些学校的团队设计的无人车在封闭的道路上跑完全程,第一个冲过终点线的就是第一名。 DARPA 里面有一些比较有意思的事情发生,比如说麻省理工学院和康奈尔大学两个学校的无人车有一次发生了碰撞——应该算是无人驾驶界的第一次事故。
上面的图片就是 MIT 和 Cornell 一起写的一篇报告,这个报告上面就写了无人车当时相撞的情景,他们也详细分析了为什么会发生这起事故,具体来说就是无人驾驶一些比较关键的,也是困难的一些技术,比如说障碍物感知,物体识别以及路径规划,在各个方面都会有一些瑕疵导致事故发生。这应该也可以说是无人驾驶界的第一次事故。 正因为这场比赛的举办,从 2013 年开始,很多著名厂商开始跟进无人驾驶。比如说特斯拉开始做 Autopilot,还有一些创业公司像 Cruise Automation(后来被 GM 收购)。 无人驾驶也在很多领域进行了开展,比如最直接的接送乘客就是无人驾驶非常重要的商用领域;车厂也希望通过智能驾驶来让每一辆车的行车体验更好;包括像特斯拉也主打 Autopilot ,来让驾驶体验变得更好、更安全。 在不同发展时期,大家的技术手段会有不一样的变化。像最开始的时候可能比如说激光雷达(Lidar)会是一个主流。 但是近年由于深度学习以及视觉技术上的突破,摄像头开始流行起来,j2直播,同时汽车上也增加了新的传感器。在这几年过程中,包括计算机深度学习以及新的算法的出现,让整个智能驾驶的发展有了新进展。 摄像头 我们最常见的传感器就是照相机,包括像我们手机或者是监控,这些都是一些照相机,照相机的优点是它价格非常便宜,同时因为它捕捉的是可见光,它可以得到非常丰富的细节特征。 照相机还有一个比较大的优势,就是它的频率相对于其他传感器来说是非常高的,一般的正常照相机都应该是 30 到 60HZ,在智能驾驶中比如说高速移动的物体上,在这种频率上来进行感知、识别是没什么困难的。 所以现在很多智能驾驶的平台都会装上摄像头,也会装上多个摄像头,包括前向、侧向、后向,每个摄像头都会记录,最后形成 360 度信息。根据摄像头的输入,再加上一些人工智能的算法,可以得到一些对周围物体的感知,基于这些感知再做后一步工作,比如说路径规划等等。 摄像头还有一个好处。现在高清摄像头相对来说价格比较低廉,且相对于其他传感器来说,它可以看的非常远,比如说在没有障碍物遮挡的情况下,能够看到一米米、两百米以外的物体,这样对于整个智能驾驶的感知来说,已经是一个足够的距离,也是一个非常好的感知的距离。 摄像头怎么感知距离 摄像头来说,一般来说有几种方案来感知距离,比较传统的可能就是用双目摄像头来做,通过两个摄像头来检测比如说同一个物体,如果你知道这个物体在两个摄像头里面具体的图片中的位置,那如果两个摄像头中间有一些距离,你可以知道这个位置的时差,通过这个视差再加上一些几何上的过程,你可以知道具体物体的位置。 但是,比较明显的就是双目摄像头来进行深度的检测,那它会制约于几个因素,第一个因素就是两个摄像头至今的距离,可以想象就像人的双眼一样,两个摄像头之间的距离越大,可以检测的物体的深度就可以检测的越准,可以越深,越远的物体也可以知道它相对于智能汽车的位置,当然在车上不可能无限扩展摄像头的位置,所以它始终局限于车载的物理的限制。 (责任编辑:本港台直播) |