多传感器融合定位十四-基于图优化的定位方法

  • 1. 基于图优化的定位简介
    • 1.1 核心思路
    • 1.2 定位流程
  • 2. 边缘化原理及应用
    • 2.1 边缘化原理
    • 2.2 从滤波角度理解边缘化
  • 3. 基于kitti的实现原理
    • 3.1 基于地图定位的滑动窗口模型
    • 3.2 边缘化过程
  • 4. lio-mapping 介绍
    • 4.1 核心思想
    • 4.2 具体流程
      • 4.2.1 各类因子
      • 4.2.2 滑窗模型
      • 4.2.3 边缘化
      • 4.2.4 添加新帧

Reference:

  1. 深蓝学院-多传感器融合
  2. 多传感器融合定位理论基础

文章跳转:

  1. 多传感器融合定位一-3D激光里程计其一:ICP
  2. 多传感器融合定位二-3D激光里程计其二:NDT
  3. 多传感器融合定位三-3D激光里程计其三:点云畸变补偿
  4. 多传感器融合定位四-3D激光里程计其四:点云线面特征提取
  5. 多传感器融合定位五-点云地图构建及定位
  6. 多传感器融合定位六-惯性导航原理及误差分析
  7. 多传感器融合定位七-惯性导航解算及误差分析其一
  8. 多传感器融合定位八-惯性导航解算及误差分析其二
  9. 多传感器融合定位九-基于滤波的融合方法Ⅰ其一
  10. 多传感器融合定位十-基于滤波的融合方法Ⅰ其二
  11. 多传感器融合定位十一-基于滤波的融合方法Ⅱ
  12. 多传感器融合定位十二-基于图优化的建图方法其一
  13. 多传感器融合定位十三-基于图优化的建图方法其二
  14. 多传感器融合定位十四-基于图优化的定位方法
  15. 多传感器融合定位十五-多传感器时空标定(综述)

1. 基于图优化的定位简介

1.1 核心思路

核心思路是把融合方法从滤波换成图优化,其元素不再是简单的惯性解算,而是预积分。
一个暴力的模型可以设计为:

缺陷:随着时间的进行,图模型会越来越大,导致无法达到实时性。

解决方法:不断删除旧的帧,只优化最新的几帧,即维持一个滑动窗口
模型如下:

问题:直接从模型中删除,等于损失了信息。
解法:通过模型把旧帧的约束传递下来,即边缘化(后面讲具体细节)。

1.2 定位流程


整个流程:不断往滑窗里添加新信息,并边缘化旧信息。
需要注意的是:

  1. 正常行驶时,不必像建图那样,提取稀疏的关键帧;
  2. 停车时,需要按一定策略提取关键帧,但删除的是次新帧,因此不需要边缘化。

2. 边缘化原理及应用

2.1 边缘化原理

优化问题具有如下通用形式:
H X = b H X=b HX=b并可拆解成如下形式:
[ H m m H m r H r m H r r ] [ X m X r ] = [ b m b r ] \left[\begin{array}{cc} H_{m m} & H_{m r} \\ H_{r m} & H_{r r} \end{array}\right]\left[\begin{array}{c} X_m \\ X_r \end{array}\right]=\left[\begin{array}{l} b_m \\ b_r \end{array}\right] [Hmm​Hrm​​Hmr​Hrr​​][Xm​Xr​​]=[bm​br​​]拆解的目的是通过一系列操作,把 X m X_m Xm​ 从状态量里删除掉,并把它的约束保留下来。
在滑窗模式里,这个 X m X_m Xm​ 即为要边缘化掉的量。
回顾舒尔补:
给定矩阵
M = [ A B C D ] M=\left[\begin{array}{ll} \mathrm{A} & \mathrm{B} \\ \mathrm{C} & \mathrm{D} \end{array}\right] M=[AC​BD​]它可以通过如下变换,变成上三角矩阵,即:
[ I 0 − C A − 1 I ] [ A B C D ] = [ A B 0 Δ A ] \left[\begin{array}{cc} \mathrm{I} & 0 \\ -\mathrm{CA}^{-1} & \mathrm{I} \end{array}\right]\left[\begin{array}{cc} \mathrm{A} & \mathrm{B} \\ \mathrm{C} & \mathrm{D} \end{array}\right]=\left[\begin{array}{cc} \mathrm{A} & \mathrm{B} \\ 0 & \Delta \mathrm{A} \end{array}\right] [I−CA−1​0I​][AC​BD​]=[A0​BΔA​]其中, Δ A = D − C A − 1 B \Delta \mathrm{A}=\mathrm{D}-\mathrm{CA}^{-1} \mathrm{~B} ΔA=D−CA−1 B 称为 A \mathrm{A} A 关于 M \mathrm{M} M 的舒尔补。

拆解后的优化问题,可通过舒尔补对矩阵三角化, 即:
[ I 0 − H r m H m m − 1 I ] [ H m m H m r H r m H r r ] [ X m X r ] = [ I 0 − H r m H m m − 1 I ] [ b m b r ] \begin{aligned} & {\left[\begin{array}{cc} I & 0 \\ -H_{r m} H_{m m}^{-1} & I \end{array}\right]\left[\begin{array}{cc} H_{m m} & H_{m r} \\ H_{r m} & H_{r r} \end{array}\right]\left[\begin{array}{c} X_m \\ X_r \end{array}\right] } \\ = & {\left[\begin{array}{cc} I & 0 \\ -H_{r m} H_{m m}^{-1} & I \end{array}\right]\left[\begin{array}{l} b_m \\ b_r \end{array}\right] } \end{aligned} =​[I−Hrm​Hmm−1​​0I​][Hmm​Hrm​​Hmr​Hrr​​][Xm​Xr​​][I−Hrm​Hmm−1​​0I​][bm​br​​]​
进一步化简得,
[ H m m H m r 0 H r r − H r m H m m − 1 H m r ] [ X m X r ] = [ b m b r − H r m H m m − 1 b m ] \begin{aligned} & {\left[\begin{array}{cc} H_{m m} & H_{m r} \\ 0 & H_{r r}-H_{r m} H_{m m}^{-1} H_{m r} \end{array}\right]\left[\begin{array}{c} X_m \\ X_r \end{array}\right] } \\ = & {\left[\begin{array}{c} b_m \\ b_r-H_{r m} H_{m m}^{-1} b_m \end{array}\right] } \end{aligned} =​[Hmm​0​Hmr​Hrr​−Hrm​Hmm−1​Hmr​​][Xm​Xr​​][bm​br​−Hrm​Hmm−1​bm​​]​此时,可以利用等式第 2 2 2 行直接得到:
( H r r − H r m H m m − 1 H m r ) X r = b r − H r m H m m − 1 b m \left(H_{r r}-H_{r m} H_{m m}^{-1} H_{m r}\right) X_r=b_r-H_{r m} H_{m m}^{-1} b_m (Hrr​−Hrm​Hmm−1​Hmr​)Xr​=br​−Hrm​Hmm−1​bm​
其含义为:此时可以不依赖 X m X_m Xm​ 求解出 X r X_r Xr​,若我们只关心 X r X_r Xr​ 的值,则可以把 X m X_m Xm​ 从模型里删除。

2.2 从滤波角度理解边缘化

kalman滤波是此前已经熟悉的,从边缘化的角度重新看一遍滤波器的推导,更有利于深入 理解。
运动模型与观测模型分别为:
x k = A k − 1 x k − 1 + v k + w k y k = C k x k + n k \begin{aligned} & \mathbf{x}_k=\mathbf{A}_{k-1} \mathbf{x}_{k-1}+\mathbf{v}_k+\mathbf{w}_k \\ & \mathbf{y}_k=\mathbf{C}_k \mathbf{x}_k+\mathbf{n}_k \end{aligned} ​xk​=Ak−1​xk−1​+vk​+wk​yk​=Ck​xk​+nk​​
其中 k = 1 … K k=1 \ldots K k=1…K状态量的求解,可以等效为如下模型:
x ^ = arg ⁡ min ⁡ x J ( x ) \hat{\mathbf{x}}=\arg \min _{\mathbf{x}} J(\mathbf{x}) x^=argxmin​J(x)其中:
J ( x ) = ∑ k = 0 K ( J v , k ( x ) + J y , k ( x ) ) J v , k ( x ) = { 1 2 ( x 0 − x ˇ 0 ) T P ˇ 0 − 1 ( x 0 − x ˇ 0 ) , k = 0 1 2 ( x k − A k − 1 x k − 1 − v k ) T × Q k − 1 ( x k − A k − 1 x k − 1 − v k ) , k = 1 … K J y , k ( x ) = 1 2 ( y k − C k x k ) T R k − 1 ( y k − C k x k ) , k = 0 … K \begin{aligned} & J(\mathbf{x})=\sum_{k=0}^K\left(J_{v, k}(\mathbf{x})+J_{y, k}(\mathbf{x})\right) \\ & J_{v, k}(\mathbf{x})=\left\{\begin{array}{c} \frac{1}{2}\left(\mathbf{x}_0-\check{\mathbf{x}}_0\right)^T \check{\mathbf{P}}_0^{-1}\left(\mathbf{x}_0-\check{\mathbf{x}}_0\right), k=0 \\ \frac{1}{2}\left(\mathbf{x}_k-\mathbf{A}_{k-1} \mathbf{x}_{k-1}-\mathbf{v}_k\right)^T \\ \times \mathbf{Q}_k^{-1}\left(\mathbf{x}_k-\mathbf{A}_{k-1} \mathbf{x}_{k-1}-\mathbf{v}_k\right), k=1 \ldots K \end{array}\right. \\ & J_{y, k}(\mathbf{x})=\frac{1}{2}\left(\mathbf{y}_k-\mathbf{C}_k \mathbf{x}_k\right)^T \mathbf{R}_k^{-1}\left(\mathbf{y}_k-\mathbf{C}_k \mathbf{x}_k\right), \quad k=0 \ldots K \end{aligned} ​J(x)=k=0∑K​(Jv,k​(x)+Jy,k​(x))Jv,k​(x)=⎩ ⎨ ⎧​21​(x0​−xˇ0​)TPˇ0−1​(x0​−xˇ0​),k=021​(xk​−Ak−1​xk−1​−vk​)T×Qk−1​(xk​−Ak−1​xk−1​−vk​),k=1…K​Jy,k​(x)=21​(yk​−Ck​xk​)TRk−1​(yk​−Ck​xk​),k=0…K​将上述模型整理为更简洁的形式,令:
z = [ x ˇ 0 v 1 ⋮ v K y 0 y 1 ⋮ y K ] , x = [ x 0 ⋮ x K ] \mathbf{z}=\left[\begin{array}{c} \check{\mathbf{x}}_0 \\ \mathbf{v}_1 \\ \vdots \\ \mathbf{v}_K \\ \hline \mathbf{y}_0 \\ \mathbf{y}_1 \\ \vdots \\ \mathbf{y}_K \end{array}\right], \quad \mathbf{x}=\left[\begin{array}{c} \mathbf{x}_0 \\ \vdots \\ \mathbf{x}_K \end{array}\right] z= ​xˇ0​v1​⋮vK​y0​y1​⋮yK​​​ ​,x= ​x0​⋮xK​​ ​ H = [ 1 − A 0 1 ⋱ ⋱ − A K − 1 1 C 0 C 1 ⋱ C K ] W = [ P ˇ 0 Q 1 ⋱ Q K R 0 R 1 R K ] \begin{aligned} & \mathbf{H}=\left[\begin{array}{cccc} \mathbf{1} & & & \\ -\mathbf{A}_0 & \mathbf{1} & & \\ & \ddots & \ddots & \\ & & -\mathbf{A}_{K-1} & \mathbf{1} \\ \hline \mathbf{C}_0 & \mathbf{C}_1 & & \\ & & \ddots & \\ & & & \mathbf{C}_K \end{array}\right] \\ & \mathbf{W}=\left[\begin{array}{llll|lll} \check{\mathbf{P}}_0 & & & & & & \\ & \mathbf{Q}_1 & & & & & \\ & & \ddots & & & \\ & & & \mathbf{Q}_K & & & \\ \hline & & & & \mathbf{R}_0 & & \\ & & & & & \mathbf{R}_1 & \\ & & & & & \mathbf{R}_K \end{array}\right] \\ & \end{aligned} ​H= ​1−A0​C0​​1⋱C1​​⋱−AK−1​⋱​1CK​​​ ​W= ​Pˇ0​​Q1​​⋱​QK​​R0​​R1​RK​​​​ ​​此时,目标函数可以重新表示为:
J ( x ) = 1 2 ( z − H x ) T W − 1 ( z − H x ) J(\mathbf{x})=\frac{1}{2}(\mathbf{z}-\mathbf{H x})^T \mathbf{W}^{-1}(\mathbf{z}-\mathbf{H x}) J(x)=21​(z−Hx)TW−1(z−Hx)求解其最小值,即令其一阶导为零:
∂ J ( x ) ∂ x T ∣ x ^ = − H T W − 1 ( z − H x ^ ) = 0 \left.\frac{\partial J(\mathbf{x})}{\partial \mathbf{x}^T}\right|_{\hat{\mathbf{x}}}=-\mathbf{H}^T \mathbf{W}^{-1}(\mathbf{z}-\mathbf{H} \hat{\mathbf{x}})=\mathbf{0} ∂xT∂J(x)​ ​x^​=−HTW−1(z−Hx^)=0即:
( H T W − 1 H ) x ^ = H T W − 1 z \left(\mathbf{H}^T \mathbf{W}^{-1} \mathbf{H}\right) \hat{\mathbf{x}}=\mathbf{H}^T \mathbf{W}^{-1} \mathbf{z} (HTW−1H)x^=HTW−1z然而,这是批量求解模型,当只关心当前时刻(k时刻)状态时,应改为滤波模型。
假设上一时刻后验为:
{ x ^ k − 1 , P ^ k − 1 } \left\{\hat{\mathbf{x}}_{k-1}, \hat{\mathbf{P}}_{k-1}\right\} {x^k−1​,P^k−1​}
目标是得到当前时刻后验:
{ x ^ k − 1 , P ^ k − 1 , v k , y k } ↦ { x ^ k , P ^ k } \left\{\hat{\mathbf{x}}_{k-1}, \hat{\mathbf{P}}_{k-1}, \mathbf{v}_k, \mathbf{y}_k\right\} \mapsto\left\{\hat{\mathbf{x}}_k, \hat{\mathbf{P}}_k\right\} {x^k−1​,P^k−1​,vk​,yk​}↦{x^k​,P^k​}由于马尔可夫性,仅与前一时刻有关,因此令:
z k = [ x ^ k − 1 v k y k ] H k = [ 1 − A k − 1 1 C k ] W k = [ P ^ k − 1 Q k R k ] \begin{aligned} \mathbf{z}_k & =\left[\begin{array}{c} \hat{\mathbf{x}}_{k-1} \\ \mathbf{v}_k \\ \mathbf{y}_k \end{array}\right] \\ \mathbf{H}_k & =\left[\begin{array}{ccc} \mathbf{1} & \\ -\mathbf{A}_{k-1} & 1 \\ & \mathbf{C}_k \end{array}\right] \\ \mathbf{W}_k & =\left[\begin{array}{ccc} \hat{\mathbf{P}}_{k-1} & \\ & \mathbf{Q}_k & \\ & & \mathbf{R}_k \end{array}\right] \end{aligned} zk​Hk​Wk​​= ​x^k−1​vk​yk​​ ​= ​1−Ak−1​​1Ck​​ ​= ​P^k−1​​Qk​​Rk​​ ​​则模型的解为:
( H k T W k − 1 H k ) x ^ = H k T W k − 1 z k \left(\mathbf{H}_k^T \mathbf{W}_k^{-1} \mathbf{H}_k\right) \hat{\mathbf{x}}=\mathbf{H}_k^T \mathbf{W}_k^{-1} \mathbf{z}_k (HkT​Wk−1​Hk​)x^=HkT​Wk−1​zk​
其中:
x ^ = [ x ^ k − 1 ′ x ^ k ] \hat{\mathbf{x}}=\left[\begin{array}{c} \hat{\mathbf{x}}_{k-1}^{\prime} \\ \hat{\mathbf{x}}_k \end{array}\right] x^=[x^k−1′​x^k​​] x ^ k − 1 \hat{\mathbf{x}}_{k-1} x^k−1​ 和 x ^ k − 1 ′ \hat{\mathbf{x}}_{k-1}^{\prime} x^k−1′​ 有本质区别,下图可以明确展示:

在此基础上,求解模型可以展开为:
[ P ^ k − 1 − 1 + A k − 1 T Q k − 1 A k − 1 − A k − 1 T Q k − 1 − Q k − 1 A k − 1 Q k − 1 + C k T R k − 1 C k ] [ x ^ k − 1 ′ x ^ k ] = [ P ^ k − 1 − 1 x ^ k − 1 − A k − 1 T Q k − 1 v k Q k − 1 v k + C k T R k − 1 y k ] \left[\begin{array}{cc} \hat{\mathbf{P}}_{k-1}^{-1}+\mathbf{A}_{k-1}^T \mathbf{Q}_k^{-1} \mathbf{A}_{k-1} & -\mathbf{A}_{k-1}^T \mathbf{Q}_k^{-1} \\ -\mathbf{Q}_k^{-1} \mathbf{A}_{k-1} & \mathbf{Q}_k^{-1}+\mathbf{C}_k^T \mathbf{R}_k^{-1} \mathbf{C}_k \end{array}\right]\left[\begin{array}{c} \hat{\mathbf{x}}_{k-1}^{\prime} \\ \hat{\mathbf{x}}_k \end{array}\right]=\left[\begin{array}{c} \hat{\mathbf{P}}_{k-1}^{-1} \hat{\mathbf{x}}_{k-1}-\mathbf{A}_{k-1}^T \mathbf{Q}_k^{-1} \mathbf{v}_k \\ \mathbf{Q}_k^{-1} \mathbf{v}_k+\mathbf{C}_k^T \mathbf{R}_k^{-1} \mathbf{y}_k \end{array}\right] [P^k−1−1​+Ak−1T​Qk−1​Ak−1​−Qk−1​Ak−1​​−Ak−1T​Qk−1​Qk−1​+CkT​Rk−1​Ck​​][x^k−1′​x^k​​]=[P^k−1−1​x^k−1​−Ak−1T​Qk−1​vk​Qk−1​vk​+CkT​Rk−1​yk​​]利用舒尔补,等式两边左乘如下矩阵,便可以直接求解出 x ^ k \hat{\mathbf{x}}_k x^k​ ,且不需求解 x ^ k − 1 ′ \hat{\mathbf{x}}_{k-1}^{\prime} x^k−1′​
[ 1 0 Q k − 1 A k − 1 ( P ^ k − 1 − 1 + A k − 1 T Q k − 1 A k − 1 ) − 1 1 ] \left[\begin{array}{cc} \mathbf{1} & \mathbf{0} \\ \mathbf{Q}_k^{-1} \mathbf{A}_{k-1}\left(\hat{\mathbf{P}}_{k-1}^{-1}+\mathbf{A}_{k-1}^T \mathbf{Q}_k^{-1} \mathbf{A}_{k-1}\right)^{-1} & \mathbf{1} \end{array}\right] [1Qk−1​Ak−1​(P^k−1−1​+Ak−1T​Qk−1​Ak−1​)−1​01​]可得:
P ^ k − 1 x ^ k = P ˇ k − 1 ( A k − 1 x ^ k − 1 + v k ) + C k T R k − 1 y k \hat{\mathbf{P}}_k^{-1} \hat{\mathbf{x}}_k=\check{\mathbf{P}}_k^{-1}\left(\mathbf{A}_{k-1} \hat{\mathbf{x}}_{k-1}+\mathbf{v}_k\right)+\mathbf{C}_k^T \mathbf{R}_k^{-1} \mathbf{y}_k P^k−1​x^k​=Pˇk−1​(Ak−1​x^k−1​+vk​)+CkT​Rk−1​yk​其中:
P ˇ k = Q k + A k − 1 P ^ k − 1 A k − 1 T P ^ k = ( P ˇ k − 1 + C k T R k − 1 C k ) − 1 \begin{aligned} & \check{\mathbf{P}}_k=\mathbf{Q}_k+\mathbf{A}_{k-1} \hat{\mathbf{P}}_{k-1} \mathbf{A}_{k-1}^T \\ & \hat{\mathbf{P}}_k=\left(\check{\mathbf{P}}_k^{-1}+\mathbf{C}_k^T \mathbf{R}_k^{-1} \mathbf{C}_k\right)^{-1} \end{aligned} ​Pˇk​=Qk​+Ak−1​P^k−1​Ak−1T​P^k​=(Pˇk−1​+CkT​Rk−1​Ck​)−1​以上过程,核心即为边缘化,因此滤波(IEKF)可以看做长度为 1 1 1 的滑动窗口。

3. 基于kitti的实现原理

3.1 基于地图定位的滑动窗口模型

  1. 窗口优化模型构成
    在图优化模型中,优化模型也可写成如下形式:
    J ⊤ Σ J δ x = − J ⊤ Σ r \mathbf{J}^{\top} \boldsymbol{\Sigma} \mathbf{J} \delta \boldsymbol{x}=-\mathbf{J}^{\top} \boldsymbol{\Sigma} \mathbf{r} J⊤ΣJδx=−J⊤Σr其中:

    • r r r 是残差;
    • J J J 是残差关于状态量的雅可比;
    • ∑ \sum ∑ 是信息矩阵。

    在kitti工程中,基于地图定位的滑动窗口,其残差包括:

    • 地图匹配位姿和优化变量的残差
    • 激光里程计相对位姿和优化变量的残差
    • IMU预积分和优化变量的残差
    • 边缘化形成的先验因子对应的残差

    此处先介绍前 3 3 3 项,第 4 4 4 项待边缘化后介绍。

  2. 地图匹配位姿和优化变量的残差
    该残差对应的因子为地图先验因子。
    一个因子仅约束一个位姿,其模型如下:

    残差关于优化变量的雅可比,可视化如下:

    因此,对应的Hessian矩阵的可视化为:

  3. 激光里程计相对位姿和优化变量的残差
    该残差对应的因子为激光里程计因子。
    一个因子约束两个位姿,其模型如下:

    残差关于优化变量的雅可比,可视化如下:

    因此,对应的 Hessian 矩阵可视化为:

  4. IMU预积分和优化变量的残差
    该残差对应的因子为IMU因子。
    一个因子约束两个位姿,并约束两个时刻 IMU 的速度与 bias。

    残差关于优化变量的雅可比,可视化如下:

    因此,对应的 Hessian 矩阵可视化为:

  5. 完整模型
    完整 Hessian 矩阵,即为以上各因子对应矩阵的累加。

    上述过程用公式可表示为:
    J ⊤ Σ J ⏟ H δ x = − J ⊤ Σ r ⏟ b  \underbrace{\mathbf{J}^{\top} \boldsymbol{\Sigma} \mathbf{J}}_{\mathbf{H}} \delta \boldsymbol{x}=\underbrace{-\mathbf{J}^{\top} \boldsymbol{\Sigma} \boldsymbol{r}}_{\text {b }} H J⊤ΣJ​​δx=b  −J⊤Σr​​其中:
    r = [ r Y 0 r Y 1 r Y 2 r L 0 r L 1 r M 0 r M 1 ] \boldsymbol{r}=\left[\begin{array}{l} \boldsymbol{r}_{Y 0} \\ \boldsymbol{r}_{Y 1} \\ \boldsymbol{r}_{Y 2} \\ \boldsymbol{r}_{L 0} \\ \boldsymbol{r}_{L 1} \\ \boldsymbol{r}_{M 0} \\ \boldsymbol{r}_{M 1} \end{array}\right] r= ​rY0​rY1​rY2​rL0​rL1​rM0​rM1​​ ​ J = ∂ r ∂ δ x = [ ∂ r 0 ∂ δ 0 ∂ r 1 ∂ δ x ∂ r 2 ∂ δ x ∂ r L 0 ∂ δ x ∂ r L 1 ∂ δ x ∂ r M 0 ∂ δ x ∂ r M 1 ∂ δ x ] = [ J 1 J 2 J 3 J 4 J 5 J 6 J 7 ] J ⊤ = [ J 1 ⊤ J 2 ⊤ J 3 ⊤ J 4 ⊤ J 5 ⊤ J 6 ⊤ J 7 ⊤ ] \begin{aligned} & \mathbf{J}=\frac{\partial \mathbf{r}}{\partial \delta x}=\left[\begin{array}{c} \frac{\partial \mathbf{r}_0}{\partial \delta_0} \\ \frac{\partial \mathbf{r}_1}{\partial \delta x} \\ \frac{\partial \mathbf{r}_2}{\partial \delta x} \\ \frac{\partial \mathbf{r}_{L 0}}{\partial \delta x} \\ \frac{\partial \mathbf{r}_{L 1}}{\partial \delta x} \\ \frac{\partial \mathbf{r}_{M 0}}{\partial \delta x} \\ \frac{\partial \mathbf{r}_{M 1}}{\partial \delta x} \end{array}\right]=\left[\begin{array}{l} \mathbf{J}_1 \\ \mathbf{J}_2 \\ \mathbf{J}_3 \\ \mathbf{J}_4 \\ \mathbf{J}_5 \\ \mathbf{J}_6 \\ \mathbf{J}_7 \end{array}\right] \\ & \mathbf{J}^{\top}=\left[\begin{array}{lllllll} \mathbf{J}_1^{\top} & \mathbf{J}_2^{\top} & \mathbf{J}_3^{\top} & \mathbf{J}_4^{\top} & \mathbf{J}_5^{\top} & \mathbf{J}_6^{\top} & \mathbf{J}_7^{\top} \end{array}\right] \end{aligned} ​J=∂δx∂r​= ​∂δ0​∂r0​​∂δx∂r1​​∂δx∂r2​​∂δx∂rL0​​∂δx∂rL1​​∂δx∂rM0​​∂δx∂rM1​​​ ​= ​J1​J2​J3​J4​J5​J6​J7​​ ​J⊤=[J1⊤​​J2⊤​​J3⊤​​J4⊤​​J5⊤​​J6⊤​​J7⊤​​]​矩阵乘法写成累加形式为:
    ∑ i = 1 7 J i ⊤ Σ i J i δ x = − ∑ i = 1 7 J i ⊤ Σ i r i \sum_{i=1}^7 \mathbf{J}_i^{\top} \boldsymbol{\Sigma}_i \mathbf{J}_i \delta \boldsymbol{x}=-\sum_{i=1}^7 \mathbf{J}_i^{\top} \boldsymbol{\Sigma}_i \mathbf{r}_i i=1∑7​Ji⊤​Σi​Ji​δx=−i=1∑7​Ji⊤​Σi​ri​此累加过程,即对应前面可视化时各矩阵叠加。

3.2 边缘化过程

  1. 移除老的帧
    假设窗口长度为3,在加入新的帧之前,需要先边缘化掉老的帧,即下图方框中的变量。
    用前述公式,可以表示为:
    ( H r r − H r m H m m − 1 H m r ) δ x r = b r − H r m H m m − 1 b m \left(H_{r r}-H_{r m} H_{m m}^{-1} H_{m r}\right) \delta x_r=b_r-H_{r m} H_{m m}^{-1} b_m (Hrr​−Hrm​Hmm−1​Hmr​)δxr​=br​−Hrm​Hmm−1​bm​但是在实际代码中,会把它拆成两步实现。

    第一步:使用和要边缘化掉的量无关的因子,构建剩余变量对应的 Hessian 矩阵。

    上标 a a a 代表是第一步中的变量,包含 Hessian 矩阵的完整表达式为:
    H r r a δ x r = b r a H_{r r}^a \delta x_r=b_r^a Hrra​δxr​=bra​第二步:挑出和要边缘化掉的量相关的因子,构建待边缘化的 Hessian 矩阵,并使用舒尔补做边缘化。

    上标 b b b 代表是第二步中的变量,包含 Hessian 矩阵的完整表达式为:
    [ H r r b − H r m b ( H m m b ) − 1 H m r b ] δ x r = b r b − H r m b ( H m m b ) − 1 b m b \left[H_{r r}^b-H_{r m}^b\left(H_{m m}^b\right)^{-1} H_{m r}^b\right] \delta x_r=b_r^b-H_{r m}^b\left(H_{m m}^b\right)^{-1} b_m^b [Hrrb​−Hrmb​(Hmmb​)−1Hmrb​]δxr​=brb​−Hrmb​(Hmmb​)−1bmb​这一步形成的约束(上式)就叫先验因子,它包含了边缘化掉的量对剩余变量的约束关系。
    最终使用的是两步的叠加,Hessian 矩阵叠加的可视化如下:

    对应的完整公式为:
    H r r δ x r = b r H_{r r} \delta x_r=b_r Hrr​δxr​=br​其中:
    H r r = H r r a + H r r b − H r m b ( H m m b ) − 1 H m r b b r = b r a + b r b − H r m b ( H m m b ) − 1 b m b \begin{gathered} H_{r r}=H_{r r}^a+H_{r r}^b-H_{r m}^b\left(H_{m m}^b\right)^{-1} H_{m r}^b \\ b_r=b_r^a+b_r^b-H_{r m}^b\left(H_{m m}^b\right)^{-1} b_m^b \end{gathered} Hrr​=Hrra​+Hrrb​−Hrmb​(Hmmb​)−1Hmrb​br​=bra​+brb​−Hrmb​(Hmmb​)−1bmb​​边缘化之后,模型如下:

    注意:边缘化先验因子只有在第一次边缘化之前是不存在的,完成第一次边缘化之后就一直存在,并且随着后续新的边缘化进行,其内容不断更新。

  2. 添加新的帧
    添加新的帧之后,模型如下:

    此处直接给出新的 Hessian 矩阵可视化结果:

    此后,随着定位过程的进行,便不断循环“边缘化老帧->添加新帧”的过程,从而维持窗口长度不变。
    该过程的代码实现可参考后面 lio-mapping 的实现,理解后者便很容易实现前者。

4. lio-mapping 介绍

4.1 核心思想


基于滑动窗口方法,把雷达线/面特征、IMU 预积分等的约束放在一起进行优化。

  1. 多传感器融合定位十四-基于图优化的定位方法相关推荐

    1. 深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展

      论文研读--Deep Learning Sensor Fusion for Autonomous Vehicle Perception and Localization: A Review 深度学习传 ...

    2. 论文简述 | 融合关键点和标记的基于图优化的可视化SLAM

      点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 1 摘要 同步定位与建图在移动机器人自主导航中起着重要的作用.大多数视觉SLAM方法使用关键点进行跟踪 ...

    3. SAP UI5 应用开发教程之六十四 - 基于 OData V4 的 SAP UI5 表格控件如何实现 filter(过滤) 和 sort(排序)功能试读版

      一套适合 SAP UI5 初学者循序渐进的学习教程 教程目录 SAP UI5 本地开发环境的搭建 SAP UI5 应用开发教程之一:Hello World SAP UI5 应用开发教程之二:SAP U ...

    4. 14_JavaScript数据结构与算法(十四)图

      JavaScript 数据结构与算法(十四)图 图的概念 在计算机程序设计中,图也是一种非常常见的数据结构,图论其实是一个非常大的话题,在数学上起源于哥尼斯堡七桥问题. 什么是图? 图是一种与树有些相 ...

    5. 无人驾驶传感器融合系列(四)——毫米波雷达测距原理(77GHz FMCW)

      无人驾驶传感器融合系列(四)--毫米波雷达测距原理(77GHz FMCW) 本章摘要:介绍什么是调频连续波(FMCW),它是如何进行测距的,测距分辨率分析,测距范围分析. 调频连续波测距的基本原理: ...

    6. 计算机视觉大型攻略 —— SLAM(2) Graph-based SLAM(基于图优化的算法)

      前面介绍了基于EKF的SLAM算法.EKF算法由于状态向量,协方差矩阵的大小随着特征点(路标)的增长而迅速增长,导致其不太适合大场景的应用.本文描述基于图优化的SLAM算法.目前由于SLAM图的稀疏性 ...

    7. 激光slam学习笔记——基于图优化的激光slam方法

      激光slam学习笔记--基于图优化的激光slam方法 1.slam基础 整体来说,在激光slam中,滤波器的误差要小于图优化的误差. 图优化通俗点说就是里程计计算的位姿与观测到的位姿之间会形成一个误差 ...

    8. 基于颜色直方图优化的图像增强方法

      最近改图像颜色迁移的论文,审稿人要求补充基于直方图优化的方法细节.趁此机会,我重新下载了相关文献,决定重新学习下该类方法,并把一些细节记录在本篇博客中,供交流学习. 目录 1. 前言 2. 背景知识 ...

    9. 一种基于凸优化的图像去噪方法演示

      本文介绍一种基于凸优化的图像去噪方法. 该方法采用L1范数来衡量图像的平滑度,即能滤除澡声,又能最大限度地保存图像的边缘. 模型如下: 其中f(x)为差分矩阵,存放了X每个元素与其4邻域的差值. I为 ...

    最新文章

    1. android string 转成json对象_Android开发:生成桌面快捷方式是这样做的
    2. eclipse 面包屑开关 / 查看class再哪个jar中
    3. Linux环境下设置IPDNSGateway
    4. android消息响应实验报告,android实验一实验报告-20210401011015.docx-原创力文档
    5. amber 口译_口译员设计模式示例
    6. BZOJ3245: 最快路线 拆点dijkstra
    7. dataframe合并两个表_Pandas 数据处理 | 怎么对多个数据表合并,你了解么?
    8. 【软件测试】软件调试基本技巧与策略
    9. mac securecrt程序无响应_在Mac上查看和终止进程的方法
    10. lvm快照备份mysql
    11. JS的作用域和作用域链
    12. zabbix通过UNIXODBC连接数据库
    13. 浅谈“从神经网络——迁移学习引发的一系列的思考”
    14. 苹果CMSv10系统标签,仿站必备
    15. 用 js判断 一个数是否是素数(质数)_Javascript 判断一个数是不是素数
    16. 2022机器学习好网站大收藏
    17. 真实性能大揭秘 热门移动显卡横向测试
    18. 报表工具——开源还是商用
    19. 小学计算机画图课件第一册,第一册信息技术课件-第三章 第1课 认识“画图”软件 甘少版(共12张PPT)...
    20. 模拟django-simple-captcha实现中文验证码、数字及字母验证码、计算题验证码功能

    热门文章

    1. 研究生学人工智能有未来吗?点击快速了解就业前景
    2. MTK 智能手机平台原生应用介绍
    3. vue初始安装及项目初启动
    4. 2023年JAVA JDK8的安装与配置(附JAVA8安装包)
    5. 【天光学术】财务会计论文:家电连锁零售企业财务分析方法与注意问题(节选)
    6. 作为 CIO,构建一个商业智能 BI 分析平台应该重点关注什么?
    7. 设置vlan虚拟局域网
    8. 618闭着眼睛买都不会错的三款好物!当贝投影最推荐?!
    9. python 10行代码生成词云图片(基础词云、形状词云)
    10. Mixly16:震动报警器