高翔《视觉SLAM十四讲》第七章视觉里程计3d-2d位姿估计代码详解与理论解析
高翔《视觉SLAM十四讲》第七章代码详解与理论解析
一、三维空间位姿估计核心算法实现
在视觉SLAM领域,3D - 2D位姿估计是确定相机在三维空间中位置和姿态的关键技术。本部分将详细解析其工程实现框架,同时说明代码模块的划分逻辑。
代码整体结构清晰,各模块分工明确,主要包含特征匹配、3D点构建、PnP问题求解以及位姿优化等部分。算法流程从读取两幅图像和对应的深度图开始,通过特征匹配模块找出两幅图像中的匹配特征点。接着,利用深度图信息将匹配点中的一部分转换为三维点,构建3D - 2D的对应关系。
在特征匹配模块,使用ORB特征提取和描述子匹配算法,通过FAST角点检测和BRIEF描述子生成,结合汉明距离进行特征点的匹配和筛选,确保匹配的准确性。
3D点构建模块根据深度图和相机内参,将像素坐标转换为相机坐标系下的三维坐标,为后续的PnP问题求解提供数据基础。
PnP问题求解是核心环节,代码中采用了OpenCV的solvePnP函数,可选择不同的求解方法,如EPNP、DLS等。求解得到的旋转向量通过Rodrigues公式转换为旋转矩阵。
最后,为了进一步优化位姿估计结果,代码实现了高斯牛顿法和g2o图优化两种位姿优化方法。通过迭代计算,不断减小重投影误差,提高位姿估计的精度。
整个工程实现框架通过模块化设计,将复杂的3D - 2D位姿估计问题分解为多个子问题,每个模块独立实现特定功能,相互协作完成最终的位姿估计任务。这种设计方式不仅提高了代码的可读性和可维护性,也方便了算法的扩展和优化。
二、特征匹配模块实现原理
1.ORB特征提取与初始化
在特征匹配模块中,ORB(Oriented FAST and Rotated BRIEF)特征提取与初始化是关键步骤。首先是FAST角点检测,它通过比较像素点与其周围邻域像素的亮度,快速判断该点是否为角点。若某像素点周围一定数量的连续邻域像素亮度与该点差异超过设定阈值,则判定为角点。这种方法计算速度快,能高效地在图像中找出角点。
ORB描述子生成基于BRIEF描述子,并加入了旋转不变性。它通过在角点周围的邻域内随机选取像素对,比较像素对的亮度大小,形成二进制描述符。为了实现旋转不变性,会根据角点的主方向对描述符进行旋转。
图像金字塔构建原理是将原始图像进行不同尺度的下采样,形成一系列不同分辨率的图像。这样可以在不同尺度上检测特征点,提高特征的尺度不变性。
在OpenCV中,通过ORB::create()创建特征检测器和描述符提取器,然后调用detect()方法检测角点,compute()方法计算描述子,完成特征提取与初始化。
2.描述子匹配与汉明距离
描述子匹配采用暴力匹配算法,其核心思想是对两幅图像的描述子进行两两比较,找出最匹配的特征点对。在ORB特征中,使用汉明距离来衡量两个描述子的相似度。汉明距离是指两个二进制串中不同位的数量,距离越小表示两个描述子越相似。
暴力匹配算法实现过程如下:对于第一幅图像的每个描述子,计算它与第二幅图像中所有描述子的汉明距离,将距离最小的描述子作为匹配结果。
匹配结果筛选条件如下:
-
找出所有匹配之间的最小距离min_dist和最大距离max_dist。
-
当描述子之间的距离大于两倍的最小距离时,即认为匹配有误。但为了避免最小距离过小的情况,设置一个经验值30作为下限。
-
只保留距离小于等于max(2 * min_dist, 30.0)的匹配结果,从而筛选出可靠的特征点对。
3.深度图转换与3D点构建
深度图转换与3D点构建是将像素坐标转换为相机坐标系下三维坐标的过程。首先,需要了解相机模型参数,主要包括相机内参矩阵 K K K,其形式为 [ f x 0 c x 0 f y c y 0 0 1 ] \begin{bmatrix}f_x & 0 & c_x\\ 0 & f_y & c_y\\ 0 & 0 & 1\end{bmatrix} fx000fy0cxcy1 ,其中 f x f_x fx、 f y f_y fy是焦距, c x c_x cx、 c y c_y cy是主点坐标。
深度图坐标转换公式推导基于针孔相机模型。设像素坐标为 ( u , v ) (u, v) (u,v),深度值为 d d d,相机坐标系下的三维坐标为 ( X , Y , Z ) (X, Y, Z) (X,Y,Z)。根据针孔相机模型,有 u = f x X Z + c x u = f_x\frac{X}{Z}+c_x u=fxZX+cx, v = f y Y Z + c y v = f_y\frac{Y}{Z}+c_y v=fy