ToF(time of flight)也是一种被炒的火热的深度获取方法,主要分为脉冲式和相位式两种。这是一种相位式tof的原理,通过采集四个采样点的相位,解算时间差,获得对应pixel的深度信息。 传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息。 相位法可以减轻背景光对于深度提取的影响,但是受这种四个采样点分时曝光的限制,它对于动态物体的效果要比脉冲式差一些。脉冲式是一种更常见的tof测距方法,从传统的工业雷达,到现在炒的比较火的面振tof都大量存在它的踪影。 除了以上结构光、tof和普通相机以外,还有一种有趣的摄像头叫eventcamera。 他检测的是变化的像素,大大缩减了输出的数据量,轻轻松松实现类似光流的算法而且具有极高的输出频率。学术界也有人在使用它在做slam,大家可以去搜索相关的论文看看。 这里找到了一个dyson360的一个有趣的vSLAM展示,通过采集全景镜头的视频数据,只有640*480的分辨率,实现了很有趣的vSLAM定位。 SLAM算法在实现的时候主要要考虑以下4个方面: 1、地图表示问题比如dense和sparse都是它的不同表达方式,这个需要根据实际场景需求去抉择。 2. 信息感知问题,需要考虑如何全面的感知这个环境,RGBD摄像头FOV通常比较小,但激光雷达比较大。我们也做过一个类似dyson的方案,能够实现很低成本,小体积的机器人定位。 3. 数据关联问题,不同的sensor的数据类型、时间戳、坐标系表达方式各有不同,需要统一处理 4. 定位与构图问题,就是指怎么实现位姿估计和建模,这里面涉及到很多数学问题,物理模型建立,状态估计和优化。 我们也做过一个类似dyson的方案,能够实现很低成本,小体积的机器人定位。 vSLAM里面还要考虑的有回环检测问题,探索问题(exploration),以及绑架问题(kidnapping)。 vSLAM在算法部分,对数学的基础要求比较高,对概率统计、最小二乘估计、随机梯度下降(或者高斯牛顿、LM)、线性系统建模与估计、非线性系统的概念和优化都得有较深的理解,同时也得有一个open的视野,熟练的编程能力,来实现效率更高的算法。 在团队配置上,j2直播,更需要要更种各样的人,算法工程师、嵌入式工程师、光学工程师、传感器工程师、算法优化工程师、结构工程师、机电工程师以及丰富的产品测试安排。 比如这就是几周前我们对IMU进行的一系列测试的一部分,受温漂影响,IMU的输出会随着芯片温度上升零偏发生漂移。这就会给一些绝对的姿态参考造成很大的问题,需要通过温度试验摸出imu的噪声误差一致性,从而进行有效的补偿。 整个SLAM大概可以分为前端和后端,前端做配准,研究不同帧之间的变换关系。 首先提取每帧图像特征点,利用相邻帧图像,进行特征点匹配,然后利用RANSAC去除大噪声,然后进行ICP匹配,同时可以利用IMU提供的姿态信息进行滤波融。 这是我们的传感器配合上我们6dof Visual Inertial SLAM算法的一个简单展示。 (责任编辑:本港台直播) |