另外一个就是双目摄像头来测量深度会局限在具体的匹配的算法,如果两个摄像头里面会出现两张图片,那怎么样把这两张图片相同的物体能够联系起来,然后通过这种对应的算法得到视差,这也是一个算法上的问题,如果这个算法出现一些偏差的话,它还是会出现一定的误差。 但是总体来说,双目摄像头在现在的这种算法上还是做的比较准确的,特别是在十米、二十范围为内可以做到比较好的一个感知。当然就像所有摄像头一样,它是受到外在光照条件的影响,比如说当黑夜或者光照比较弱的情况下,他可能需要其他的算法来补充双目摄像头的深度测量。 另外还说,还有一些只需要一个摄像头来猜测物体距离的,这样的话,一般都是基于一些几何上的假设,比如说如果我已经能够检测出路面了,那我可以想象路面是一个比较大的平面,相对来说我就知道这个路面上具体的每个位置,相对来说与我的距离是什么样子。 所以基于一个摄像头,你也可以做一些就是几何或者是学习出来物体距离个人到底有多远,包括在自动驾驶的过程中,因为本身的机器人是在移动的,所以还有一些既使是单目摄像头也可以得到一些时长,也可以得到物体相对来说的距离。 不过我们也可以看到,这些距离更多是在软件算法上面的实现,相对来说激光雷达是直接从硬件物理层就可以给我们一个物体深度的距离。所以就可以节省很多软件算法上面的这种开发。 传感器 传感器就是我们所说的激光雷达,一般就叫雷达。雷达的工作原理是发射出一束激光,激光并不是可见光,是肉眼看不见的,一般是红外。 激光碰到物体以后会反射回来,然后再测量这个激光从发射到反射中间渡过的时间,这样的话可以具体知道这个物体的深度。 一根激光可以得到一个点的深度,如果多个激光就可以得到多个点的深度,所以这就是平时说得,比如说多少线的激光雷达。 现在主流的 Lidar 最多是 64 线的雷达,可以在同一时刻得到 64 个点的回馈,主流的雷达又像扇子一样,你可以想象每一个激光是一个激光束,它把激光树排成像扇子一样,这个扇子以轴为圆心进行了 360 度的旋转,这样就可以每一个激光线就形成了一道环,64 个激光线就会形成 64 道环,最后就形成了 360 度图像。
雷达不仅可以测算物体深度,还可以测算出反射过来激光信号的强度,根据激光信号的强度就可以得到一些其他的信息。 雷达相比摄像头有个不足之处,就是它虽然可以提供比较多的深度,但是它在现在最好的雷达上面也只有 64 条线,它的分辨率相对于比如说高精摄像头来说远远不够,很难表现出这个物体上比较丰富的变化。 比如说,人在几十米开外的地方,这个人就只有 50 个点到 100 个点在上面,所以它可以有人的大体的轮廓,但是比如说面部上面的这种深度的变化,或者一些人具体的细节就很难保证能够做好。 毫米波雷达 上面说过,传感器就是激光,还有一种雷达是毫米波雷达。 它根据多普勒效应来检测物体的位置以及速度,不仅可以得到物体的位置,也可以知道物体行驶的速度,包括速度的方向和速度的大小。 毫米波雷达也可以检测非常远的物体,比如说在一两百米开外的汽车,也会有很强雷达的反射信号。 毫米波雷达还可以穿透一般的障碍物,比如说透过一些树或者草,很多智能汽车上面也是配备了雷达。 毫米波雷达的劣势也是比较明显。第一因为是基于雷达的反射得到的信号,它的位置以及速度,特别是位置的信息相对来说是比较模糊的。 相对于激光雷达以及照相机来说,它只能得到一个大概的位置的信号,然后这个误差可能在米这个范围内,特别是远距离的误差。 其次是毫米波雷达对于非金属的反射相对来说是比较糟糕的,比如说行人或者是小动物,它可能反射就不是那么灵敏,或者反射的信号就不是那么好。 第三点就是毫米波雷达必须是双方有一个相互速度才能够检测出物体的位置,因为它是基于多普勒效应的传感器,如果双方都是静止的话,它就很难检测出物体,所以它对静态的障碍物是比较吃力的。 上面这两种基本上是无人驾驶领域常用的传感器,那对于智能驾驶来说还会有一些其他的传感器,比如说 GPS 可以获得精确定位,IMU 能帮助了解车头的朝向,车辆行驶速度,以及车的加速度转角什么的。所以 IMU 跟 GPS 也是比较重要的传感器。 摄像头与激光雷达的互补 单纯依靠光学摄像头的距离感应系统会受到各种因素(比如天气)的影响,比如说 夜间,单纯的靠一个摄像头或者双目摄像头来测量距离就会比较吃力。 (责任编辑:本港台直播) |