基于B站老王的贝叶斯滤波、卡尔曼滤波、粒子滤波 Bilibili

文章目录

  • 第三部分:随机过程的贝叶斯滤波BF
  • 第四部分:卡尔曼滤波KF

第三部分:随机过程的贝叶斯滤波BF

  1. 随机过程包含一系列随机变量 X 0 , X 1 , Y 1 , X 2 , Y 2 . . . X k , Y k X_0,X_1,Y_1,X_2,Y_2...X_k,Y_k X0​,X1​,Y1​,X2​,Y2​...Xk​,Yk​,有一个初值 x 0 x_0 x0​,有k个观测值 y 1 , y 2 , . . . , y k y_1,y_2,...,y_k y1​,y2​,...,yk​

    怎么办

    • 所有的 X 0 , . . . , X k X_0,...,X_k X0​,...,Xk​的先验概率都靠猜:过于依赖观测,放弃了预测信息。放弃了前后状态间的关系如 x k = x k − 1 + Q k x_k=x_{k-1}+Q_k xk​=xk−1​+Qk​ 。
    • 只有 X 0 X_0 X0​的概率是猜的, X 1 , . . . , X k X_1,...,X_k X1​,...,Xk​的先验概率靠递推(预测) √ \surd √

    怎么做

    • 状态方程+观测方程(建模)

    状态方程:描述 X k X_k Xk​和 X k − 1 X_{k-1} Xk−1​是什么关系 X k = f ( X k − 1 ) + Q k X_k=f(X_{k-1})+Q_k Xk​=f(Xk−1​)+Qk​, Q k Q_k Qk​:预测噪声
    如 X k = 1 2 g t 2 + Q → 一 阶 T y l o r 展 开 X k = X k − 1 + X ˙ k − 1 ( t k − t k − 1 ) + Q = X k − 1 + g t ( t k − t k − 1 ) + Q 如X_k=\frac{1}{2}gt^2+Q \mathop{\to} \limits ^{一阶Tylor展开} X_k=X_{k-1}+\dot X_{k-1}(t_k-t_{k-1})+Q=X_{k-1}+gt(t_k-t_{k-1})+Q 如Xk​=21​gt2+Q→一阶Tylor展开Xk​=Xk−1​+X˙k−1​(tk​−tk−1​)+Q=Xk−1​+gt(tk​−tk−1​)+Q
    状态方程可以建立的非常粗糙,只需要将方差Q调大,如 X k = X k − 1 + Q , Q ∼ N ( 0 , 1000 ) X_k=X_{k-1}+Q,Q\sim N(0,1000) Xk​=Xk−1​+Q,Q∼N(0,1000)。

    观测方程:反映了状态(温度、速度、角度)是如何引起传感器的读数, Y k = h ( X k ) + R k Y_k=h(X_k)+R_k Yk​=h(Xk​)+Rk​, R k R_k Rk​:观测噪声

    • 如状态:温度,观测:温度, Y k = X k + R k Y_k=X_k+R_k Yk​=Xk​+Rk​,温度+传感器误差。

    • 状态:位移,观测:角度, Y k = a r c s i n X k + R k Y_k=arcsinX_k+R_k Yk​=arcsinXk​+Rk​
      { x k = f ( x k − 1 ) + Q k 随 机 过 程 预 测 z k , j = h ( x k ) + R k 观 测 \left\{\begin{array}{l} \begin{aligned} x_k &= f(x_{k-1})+Q_k 随机过程预测\\ z_{k,j} &= h(x_k)+R_{k}观测 \end{aligned} \end{array}\right. {xk​zk,j​​=f(xk−1​)+Qk​随机过程预测=h(xk​)+Rk​观测​​

    怎么递推

    • 若无观测,设 X K = 2 X k − 1 X_K=2X_{k-1} XK​=2Xk−1​,首先设 X 0 ∼ N ( 0 , 1 ) X_0\sim N(0,1) X0​∼N(0,1),那么 X 1 = 2 X 0 ∼ N ( 0 , 2 2 ) , X 2 = 2 X 1 ∼ N ( 0 , 2 4 ) X_1=2X_0\sim N(0,2^2),X_2=2X_1\sim N(0,2^4) X1​=2X0​∼N(0,22),X2​=2X1​∼N(0,24),方差越来越大,上一步的先验概率作为下一步的先验概率。
    • 正确地递推:设 先 验 X 0 ∼ N ( 0 , 1 ) → 预 测 步 先 验 X 1 − ∼ N ( 0 , 2 2 ) → 用 观 测 y 1 = 0 和 贝 叶 斯 公 式 更 新 步 / 后 验 步 后 验 / 先 验 X 1 + ∼ N ( 0 , 0.8 ) → 再 预 测 先 验 X 2 − ∼ N ( 0 , 3.2 ) → 观 测 y 2 = 0.1 再 更 新 后 验 X 2 + . . . 先验X_0\sim N(0,1)\mathop{\to}\limits^{预测步}先验X_1^-\sim N(0,2^2)\mathop{\to}\limits^{用观测y_1=0和贝叶斯公式 更新步/后验步}后验/先验X_1^+\sim N(0,0.8)\mathop{\to}\limits^{再预测} 先验X_2^-\sim N(0,3.2)\mathop{\to}\limits^{观测y_2=0.1再更新}后验X_2^+... 先验X0​∼N(0,1)→预测步先验X1−​∼N(0,22)→用观测y1​=0和贝叶斯公式更新步/后验步后验/先验X1+​∼N(0,0.8)→再预测先验X2−​∼N(0,3.2)→观测y2​=0.1再更新后验X2+​...,上一步的后验概率作为下一步的先验概率。
      • 预测步:上一时刻的后验 → 状 态 方 程 \mathop{\to}\limits^{状态方程} →状态方程这一时刻的先验
      • 更新步:这一时刻的先验 → 观 测 方 程 \mathop{\to}\limits^{观测方程} →观测方程这一时刻的后验也是下一时刻的先验
  2. 贝叶斯滤波算法推导

    基础

    • 原料: { X k = f ( X k − 1 ) + Q k 随 机 过 程 Y k = h ( X k ) + R k 观 测 \left\{\begin{array}{l} \begin{aligned} X_k &= f(X_{k-1})+Q_k 随机过程\\ Y_k &= h(X_k)+R_{k}观测 \end{aligned} \end{array}\right. {Xk​Yk​​=f(Xk−1​)+Qk​随机过程=h(Xk​)+Rk​观测​​,其中 X k , X k − 1 , Y k , Q k , R k X_k,X_{k-1},Y_k,Q_k,R_k Xk​,Xk−1​,Yk​,Qk​,Rk​都是随机变量。
    • $\star ∗ ∗ 重 要 假 设 ∗ ∗ : **重要假设**: ∗∗重要假设∗∗:X_0,Q_1,…,Q_k,R_1,…,R_k$相互独立
    • 一系列观测值: y 1 , . . . y k y_1,...y_k y1​,...yk​
    • 设初值 X 0 ∼ f 0 ( x ) , Q k ∼ f Q k ( x ) , R k ∼ f R k ( x ) X_0\sim f_0(x),Q_k\sim f_{Q_k}(x),R_k\sim f_{R_k}(x) X0​∼f0​(x),Qk​∼fQk​​(x),Rk​∼fRk​​(x)
    • 重要定理:条件概率里的条件可以做逻辑推导 P ( X = 1 ∣ Y = 2 , Z = 3 ) = P ( X + Y = 3 ∣ Y = 2 , Z = 3 ) = P ( X + Y = 3 ∣ Y = 2 , Z − Y = 1 ) P(X=1|Y=2,Z=3)=P(X+Y=3|Y=2,Z=3)=P(X+Y=3|Y=2,Z-Y=1) P(X=1∣Y=2,Z=3)=P(X+Y=3∣Y=2,Z=3)=P(X+Y=3∣Y=2,Z−Y=1)

    预测步: f 1 − ( x ) = ∫ − ∞ ∞ f Q 1 [ x − f ( v ) ] f 0 ( v ) d v f^-_1(x)=\int _{-\infin} ^\infin f_{Q_1}[x-f(v)]f_0(v)dv f1−​(x)=∫−∞∞​fQ1​​[x−f(v)]f0​(v)dv

    更新步: f 1 + ( x ) = η f R 1 [ y 1 − h ( x ) ] f 1 − ( x ) f_1^+(x)=\eta f_{R_1}[y_1-h(x)]f_1^-(x) f1+​(x)=ηfR1​​[y1​−h(x)]f1−​(x)

    总结

    f 0 ( x ) → f 1 − ( x ) = ∫ − ∞ ∞ f Q 1 [ x − f ( v ) ] f 0 ( v ) d v → f 1 + ( x ) = η f R 1 [ y 1 − h ( x ) ] f 1 − ( x ) → f 2 − ( x ) = ∫ − ∞ ∞ f Q 2 [ x − f ( v ) ] f 1 + ( v ) d v → f 2 + ( x ) = η f R 2 [ y 2 − h ( x ) ] f 1 − ( x ) → f 2 − ( x ) → . . . f_0(x) \to f^-_1(x)=\int _{-\infin} ^\infin f_{Q_1}[x-f(v)]f_0(v)dv \to f_1^+(x)=\eta f_{R_1}[y_1-h(x)]f_1^-(x)\to f^-_2(x)=\int _{-\infin} ^\infin f_{Q_2}[x-f(v)]f_1^+(v)dv \to f_2^+(x)=\eta f_{R_2}[y_2-h(x)]f_1^-(x)\to f^-_2(x)\to ... f0​(x)→f1−​(x)=∫−∞∞​fQ1​​[x−f(v)]f0​(v)dv→f1+​(x)=ηfR1​​[y1​−h(x)]f1−​(x)→f2−​(x)=∫−∞∞​fQ2​​[x−f(v)]f1+​(v)dv→f2+​(x)=ηfR2​​[y2​−h(x)]f1−​(x)→f2−​(x)→...,其中 η \eta η不相等,但是不影响。

    f → X k = f ( X k − 1 ) + Q k f \to X_k=f(X_{k-1})+Q_k f→Xk​=f(Xk−1​)+Qk​, f 0 ( x ) f_0(x) f0​(x)是初始猜的pdf

    f 1 − , f 2 − f_1^-,f_2^- f1−​,f2−​是预测步的pdf,先验概率

    f 1 + , f 2 + f_1^+,f_2^+ f1+​,f2+​是更新步的pdf,后验概率也是下一步的先验概率

    f Q k , f R k f_{Q_k},f_{R_k} fQk​​,fRk​​是预测与观测误差的pdf

    可证: Q k Q_k Qk​与 X k − 1 X_{k-1} Xk−1​独立, X k X_k Xk​与 R k R_k Rk​独立

  3. 贝叶斯滤波完整算法

    • 设初值 X 0 X_0 X0​的pdf f 0 ( x ) f_0(x) f0​(x)
    • 预测步: f k − ( x ) = ∫ − ∞ ∞ f Q k [ x − f ( v ) ] f k − 1 + ( v ) d v f_k^-(x)=\int_{-\infin}^\infin f_{Q_k}[x-f(v)]f^+_{k-1}(v)dv fk−​(x)=∫−∞∞​fQk​​[x−f(v)]fk−1+​(v)dv
    • 更新步: f k + ( x ) = η k f R k [ y k − h ( x ) ] f k − ( x ) f_k^+(x)=\eta_k f_{R_k}[y_k-h(x)]f^-_k(x) fk+​(x)=ηk​fRk​​[yk​−h(x)]fk−​(x), η k = ( ∫ − ∞ ∞ f R k [ y k − h ( x ) ] f k − ( x ) d x ) − 1 \eta_k = (\int_{-\infin}^\infin f_{R_k}[y_k-h(x)]f_k^-(x)dx)^{-1} ηk​=(∫−∞∞​fRk​​[yk​−h(x)]fk−​(x)dx)−1
    • 对后验概率 f k + ( x ) f^+_k(x) fk+​(x)分布估计期望: X ^ k + = ∫ − ∞ ∞ x f k + ( x ) d x \hat X_k^+ =\int_{-\infin}^\infin xf_k^+(x)dx X^k+​=∫−∞∞​xfk+​(x)dx

    缺点:算 η \eta η,算期望涉及无穷积分,大多数情况下无解析解。

    解决

    • 做假设

      • 假设 f ( x k − 1 ) , h ( x k ) f(x_{k-1}),h(x_k) f(xk−1​),h(xk​)为线性, Q k , R k Q_k,R_k Qk​,Rk​是正态分布 ⇒ \Rightarrow ⇒ Kalman Filter, KF
      • 假设 f ( x k − 1 ) , h ( x k ) f(x_{k-1}),h(x_k) f(xk−1​),h(xk​)非线性, Q k , R k Q_k,R_k Qk​,Rk​是正态分布 ⇒ \Rightarrow ⇒ EKF,UKF
    • 直接对无穷积分做数值积分

      • 高斯积分
      • 蒙特卡洛Monte Karlo 积分,PF
      • 直方图滤波

第四部分:卡尔曼滤波KF

  1. 贝叶斯滤波基础上做假设

    • 假设 f ( x k − 1 ) , h ( x k ) f(x_{k-1}),h(x_k) f(xk−1​),h(xk​)为线性, f ( X k − 1 ) = F ⋅ X k − 1 , h ( X k ) = h ⋅ X k f(X_{k-1})=F\cdot X_{k-1},h(X_k)=h\cdot X_k f(Xk−1​)=F⋅Xk−1​,h(Xk​)=h⋅Xk​
    • Q k , R k Q_k,R_k Qk​,Rk​是正态分布, Q ∼ N ( 0 , Q ) , R ∼ N ( 0 , R ) Q\sim N(0,Q),R\sim N(0,R) Q∼N(0,Q),R∼N(0,R)
  2. 卡尔曼滤波流程

    • 设 X k − 1 ∼ N ( μ k − 1 + , σ k − 1 + ) X_{k-1}\sim N(\mu_{k-1}^+,\sigma_{k-1}^+) Xk−1​∼N(μk−1+​,σk−1+​)

    • 预测步
      f k − ( x ) = ∫ − ∞ ∞ f Q k [ x − f ( v ) ] f k − 1 + ( v ) d v = ∫ − ∞ ∞ ( 2 π Q ) − 1 / 2 e − ( x − F ⋅ v ) 2 Q ⋅ ( 2 π σ k − 1 + ) − 1 / 2 e − ( v − μ k − 1 + ) 2 2 σ k − 1 + d v ⇒ X k − ∼ N ( F μ k − 1 + , F 2 σ k − 1 + Q ) = 记 为 N ( μ k − , σ k − ) f_k^-(x)=\int_{-\infin}^\infin f_{Q_k}[x-f(v)]f^+_{k-1}(v)dv \\=\int_{-\infin}^\infin (2\pi Q)^{-1/2}e^{-\frac{(x-F\cdot v)}{2Q}}\cdot (2\pi\sigma_{k-1}^+)^{-1/2}e^{-\frac{(v-\mu_{k-1}^+)^2}{2\sigma_{k-1}^+}}dv\\ \Rightarrow X_k^-\sim N(F\mu^+_{k-1},F^2\sigma_{k-1}+Q)\mathop{=}\limits^{记为}N(\mu_k^-,\sigma^-_k) fk−​(x)=∫−∞∞​fQk​​[x−f(v)]fk−1+​(v)dv=∫−∞∞​(2πQ)−1/2e−2Q(x−F⋅v)​⋅(2πσk−1+​)−1/2e−2σk−1+​(v−μk−1+​)2​dv⇒Xk−​∼N(Fμk−1+​,F2σk−1​+Q)=记为N(μk−​,σk−​)
      解法:卷积、傅里叶变换 N ( μ , σ 2 ) → F . T e i μ t − σ 2 t 2 / 2 N(\mu,\sigma^2) \mathop{\to} \limits^{F.T} e^{i\mu t-\sigma^2t^2/2} N(μ,σ2)→F.Teiμt−σ2t2/2

      对比可得到与上一步之间的关系

      • μ k − = F μ k − 1 + \mu_k^-=F\mu_{k-1}^+ μk−​=Fμk−1+​ (1)
      • σ k − = F 2 σ k − 1 + + Q \sigma_{k}^-=F^2\sigma_{k-1}^++Q σk−​=F2σk−1+​+Q (2)
    • 更新步
      f k + ( x ) = η k f R k [ y k − h ( x ) ] f k − ( x ) = η ( 2 π R ) − 1 / 2 e − ( y k − h x ) 2 2 R ⋅ ( 2 π σ k − ) − 1 / 2 e − ( x − μ k − ) 2 2 σ k − ⇒ X k + ∼ N ( h σ k − y k + R μ k − h 2 σ k − + R , R σ k − h 2 σ k − + R ) = 记 为 N ( μ k + , σ k + ) η = ( ∫ − ∞ ∞ ( 2 π R ) − 1 / 2 e − ( y k − h x ) 2 2 R ⋅ ( 2 π σ k − ) − 1 / 2 e − ( x − μ k − ) 2 2 σ k − ) − 1 f_k^+(x)=\eta_k f_{R_k}[y_k-h(x)]f^-_k(x)\\ =\eta(2\pi R)^{-1/2}e^{-\frac{(y_k-hx)^2}{2R}} \cdot (2\pi\sigma_k^-)^{-1/2}e^{-\frac{(x-\mu_k^-)^2}{2\sigma_k^-}}\\ \Rightarrow X_k^+\sim N(\frac{h\sigma_k^-y_k+R\mu_k^-}{h^2 \sigma_k^-+R},\frac{R\sigma_k^-}{h^2\sigma_k^-+R}) \mathop{=} \limits^{记为} N(\mu_k^+,\sigma_k^+)\\ \eta = (\int_{-\infin}^\infin (2\pi R)^{-1/2}e^{-\frac{(y_k-hx)^2}{2R}} \cdot (2\pi\sigma_k^-)^{-1/2}e^{-\frac{(x-\mu_k^-)^2}{2\sigma_k^-}})^{-1} fk+​(x)=ηk​fRk​​[yk​−h(x)]fk−​(x)=η(2πR)−1/2e−2R(yk​−hx)2​⋅(2πσk−​)−1/2e−2σk−​(x−μk−​)2​⇒Xk+​∼N(h2σk−​+Rhσk−​yk​+Rμk−​​,h2σk−​+RRσk−​​)=记为N(μk+​,σk+​)η=(∫−∞∞​(2πR)−1/2e−2R(yk​−hx)2​⋅(2πσk−​)−1/2e−2σk−​(x−μk−​)2​)−1
      对比可得到与上一步之间的关系

  • μ k + = h σ k − h 2 σ k − + R ( y k − h μ k − ) + μ k − = μ k − + K ( y k − h μ k − ) \mu_k^+= \frac{h\sigma_k^-}{h^2\sigma_k^- +R}(y_k-h\mu_k^-)+\mu_k^- = \mu_k^- +K(y_k-h\mu_k^-) μk+​=h2σk−​+Rhσk−​​(yk​−hμk−​)+μk−​=μk−​+K(yk​−hμk−​) (3)

  • σ k − = ( 1 − h 2 σ k − h 2 σ k − + R ) σ k − = ( 1 − K h ) σ k − \sigma_k^-=(1-\frac{h^2\sigma^-_k}{h^2\sigma_k^-+R})\sigma_k^-=(1-Kh)\sigma_k^- σk−​=(1−h2σk−​+Rh2σk−​​)σk−​=(1−Kh)σk−​ (4)

  • 简化(3)(4),设卡尔曼增益 K = h σ k − h 2 σ k − + R K=\frac{h\sigma^-_k}{h^2\sigma_k^-+R} K=h2σk−​+Rhσk−​​ (5)

    当 R ≫ σ k − R \gg \sigma _k^- R≫σk−​时, K → 0 , μ k + = μ k − K \to 0, \mu_k^+=\mu_k^- K→0,μk+​=μk−​,即相信预测,观测误差太大观测远远不可信。

    当 R ≪ σ k − R \ll \sigma _k^- R≪σk−​, K → 1 h , μ k + = y k h ⇒ y k = h x k + R K\to \frac{1}{h},\mu_k^+=\frac{y_k}{h} \Rightarrow y_k=hx_k+R K→h1​,μk+​=hyk​​⇒yk​=hxk​+R,即相信观测,观测误差极小。

  1. 矩阵形式的卡尔曼滤波: μ k → μ ⃗ k \mu_k \to \vec \mu_k μk​→μ ​k​,均值向量; σ k → Σ k \sigma_k\to\Sigma_k σk​→Σk​协方差矩阵,F为矩阵,H为矩阵,Q,R为协方差矩阵, F 2 σ → F σ F T F^2\sigma \to F\sigma F^T F2σ→FσFT

    • μ ⃗ k − = F μ ⃗ k − 1 + \vec \mu_k^- =F \vec \mu_{k-1}^+ μ ​k−​=Fμ ​k−1+​
    • Σ ⃗ k − = F Σ k − 1 + F T + Q \vec \Sigma_k^- = F\Sigma_{k-1}^+ F^T+Q Σ k−​=FΣk−1+​FT+Q
    • K = Σ k − H T ( H Σ k − H T + R ) − 1 K = \Sigma_k^- H^T(H\Sigma_k^-H^T+R)^{-1} K=Σk−​HT(HΣk−​HT+R)−1
    • μ ⃗ k + = μ ⃗ k − + K ( y ⃗ k − H μ k − ) \vec \mu_k^+ = \vec \mu_k^- +K(\vec y_k-H\mu_k^-) μ ​k+​=μ ​k−​+K(y ​k​−Hμk−​)
    • Σ k + = ( I − K H ) Σ k − \Sigma_k^+=(I-KH)\Sigma_k^- Σk+​=(I−KH)Σk−​
  2. 马尔科夫性和观测独立性

    证明:若 { X k = f ( X k − 1 ) + Q k 预 测 Y k = h ( X k ) + R k 观 测 \left\{\begin{array}{l} \begin{aligned} X_k &= f(X_{k-1})+Q_k 预测\\ Y_k &= h(X_k)+R_{k}观测 \end{aligned} \end{array}\right. {Xk​Yk​​=f(Xk−1​)+Qk​预测=h(Xk​)+Rk​观测​​, X 0 , Q 1 , . . . , Q k , R 1 , . . . , R k X_0,Q_1,...,Q_k,R_1,...,R_k X0​,Q1​,...,Qk​,R1​,...,Rk​相互独立,则

    • 马尔科夫性: P ( X k < x k ∣ X k − 1 = x k − 1 , X k − 2 = x k − 2 , . . . , X 0 = x 0 ) = P ( X k = x k ∣ X k − 1 = x k − 1 ) P(X_k<x_k|X_{k-1}=x_{k-1},X_{k-2}=x_{k-2},...,X_0=x_0)=P(X_k=x_k|X_{k-1}=x_{k-1}) P(Xk​<xk​∣Xk−1​=xk−1​,Xk−2​=xk−2​,...,X0​=x0​)=P(Xk​=xk​∣Xk−1​=xk−1​),只与上一时刻状态有关。
    • 观测独立性: P ( Y k = y k ∣ X k = x k , X k − 1 = x k − 1 , . . . , X 0 = x 0 ) = P ( Y k = y k ∣ X k = x k ) P(Y_k=y_k|X_k=x_k,X_{k-1}=x_{k-1},...,X_0=x_0)=P(Y_k=y_k|X_k=x_k) P(Yk​=yk​∣Xk​=xk​,Xk−1​=xk−1​,...,X0​=x0​)=P(Yk​=yk​∣Xk​=xk​),观测只与此刻状态有关。
  3. 卡尔曼滤波的应用——编程

    • 有一个带噪声的信号,用KF滤波。
    • 传感器融合:已知 X = t 2 X=t^2 X=t2为信号,有两个不同的传感器对X进行观测,产生了 y a 1 , . . . , y a k , y b 1 , . . . , y b k y_{a1},...,y_{ak},y_{b1},...,y_{bk} ya1​,...,yak​,yb1​,...,ybk​,观测方程 Y a k = X k + R a k , Y b k = X k + R b k Y_{ak}=X_k+R_{ak},Y_{bk}=X_k+R_{bk} Yak​=Xk​+Rak​,Ybk​=Xk​+Rbk​,其中 R a k ∼ N ( 0 , 1 ) , R b k ∼ N ( 0 , 2 ) R_{ak}\sim N(0,1),R_{bk} \sim N(0,2) Rak​∼N(0,1),Rbk​∼N(0,2),求传感器融合后的 X ^ + = ∫ − ∞ ∞ x f + ( x ) d x \hat X^+=\int _{-\infin}^\infin xf^+(x)dx X^+=∫−∞∞​xf+(x)dx

【SLAM基础入门】贝叶斯滤波、卡尔曼滤波、粒子滤波笔记(2)相关推荐

  1. 【SLAM基础入门】贝叶斯滤波、卡尔曼滤波、粒子滤波笔记(1)

    贝叶斯滤波.卡尔曼滤波.粒子滤波 (https://www.bilibili.com/video/BV1HT4y1577g?spm_id_from=333.999.header_right.histo ...

  2. 粒子滤波 particle filter —从贝叶斯滤波到 粒子滤波—Part-III(重要性采样序贯重要性采样SIS)

    粒子滤波 particle filter -从贝叶斯滤波到粒子滤波-Part-III(重要性采样&序贯重要性采样SIS) 原创不易,路过的各位大佬请点个赞 机动目标跟踪/非线性滤波/传感器融合 ...

  3. 详解概率论基础: 从贝叶斯开始

    转自:机器之心,侵删 本文从最基础的概率论到各种概率分布全面梳理了基本的概率知识与概念,这些概念可能会帮助我们了解机器学习或开拓视野.这些概念是数据科学的核心,并经常出现在各种各样的话题上.重温基础知 ...

  4. 卡尔曼滤波/粒子滤波融合定位模拟器

    最近稍闲,稍微整理了一下以前的部分代码,虽然写得不够好,但是对于新手也许也有一定的分享价值.具体算法细节我就暂时不讲了,网上太多了. 所以分享这个我用JAVA写的一个模拟器.模拟定位和惯导(或者pdr ...

  5. 机器学习基础 朴素贝叶斯算法

    文章目录 一. 朴素贝叶斯算法简介 二.概率基础复习 1.概率定义 2.案例:判断女神对你的喜欢情况 3.联合概率.条件概率与相互独立 4.贝叶斯公式 4.1 公式介绍 4.2 案例计算 4.3 文章 ...

  6. 机器学习算法基础——朴素贝叶斯算法

    26.朴素贝叶斯算法原理 联合概率和条件概率 联合概率:包含多个条件,且所有条件同时成立的概率 记作:P(A,B) P(A,B)=P(A)P(B) 条件概率:就是事件A在另外一个事件B已经发生条件下的 ...

  7. 【机器学习基础】贝叶斯神经网络

    本系列为<模式识别与机器学习>的读书笔记. 一,混合密度网络 作为逆问题,考虑机械臂的运动学问题.正向问题(forward problem)是在给定连接角的情况下求解机械臂末端的位置,这个 ...

  8. 机器学习入门 --- 贝叶斯 - 中文新闻分类任务

    文本分析 停用词 语料中大量出现,但没有大的用处 Tf-idf 关键词提取 TF−IDF=词频(TF)∗逆文档频率(IDF)TF-IDF = 词频(TF)*逆文档频率(IDF)TF−IDF=词频(TF ...

  9. java 粒子滤波_粒子滤波 - gary_123 - 博客园

    跟着博主http://blog.csdn.net/heyijia0327/article/details/40899819一起学习 尽管利用高斯逼近能有效解决许多滤波问题,但当滤波分布为多模型或某些状 ...

最新文章

  1. 【一步步学小程序】3. 使用自定义组件(component)
  2. ASP .NET Core Web Razor Pages系列教程四:使用数据库进行交互(SqlServer 版)
  3. oracle ebs hr模块表,oracle ebs常用表结构及分类模块.doc
  4. ROADS POJ - 1724(限制条件的最短路)【邻接表+深搜】
  5. python安装与使用Ta-Lib,获取金融技术面特征
  6. 用 Python 爬取网易严选妹子内衣信息,探究妹纸们的偏好
  7. Windows10如何添加开机启动项
  8. 英语口语 每日一句 小红书TroyChina
  9. 模拟调节器和数字计算机如何实现PID控制,模拟PID 调节器设计及数字化实现
  10. 当 SegmentFault 遇上呼伦贝尔
  11. linux没有桌面安装svn,Linux下安装SVN简单教程
  12. python苹果手机照片导入电脑_iphone照片怎么导入电脑?四种方法汇总
  13. Java+webdriver的自动化测试框架搭建
  14. 408如何复习?浙大学长经验贴
  15. js获取当前时间,当前小时、分钟、秒,当前日期、星期数等总结
  16. [算法设计题] 双栈结构
  17. 渗透测试中用到的一些基本知识
  18. windows使用CMD命令窗口修改IP地址
  19. 2022年大数据工程师薪资和工作趋势
  20. SonarQube:开源的代码质量管理工具

热门文章

  1. android 三星手机拍照旋转90度,解决三星拍照上传照片被旋转90度,和三星相机崩溃...
  2. CorelDraw 平面设计软件 中文版免费下载激活快捷键详解
  3. (实例讲解)shell脚本报错 [: =: unary operator expected
  4. PeopleSoft查看所有translate value
  5. vue学习笔记 - 组件通信01
  6. C/C++中字符串指针使用的注意事项
  7. 在ARM微控制器上部署MATLAB/Simulink仿真模型
  8. 8723 蓝牙 linux,rtl8723wifi(蓝牙模块)模块移植
  9. SMSC2021 Day3Day4 部分题解
  10. 产品认证之EMC术语