matlab稀疏贝叶斯,基于变分稀疏贝叶斯学习的DOA估计
作为阵列信号处理技术的重要研究方向之一,信号到达角(DOA)估计被广泛应用到雷达、声呐等领域。以MUSIC[和ESPRIT[为代表的传统空间谱估计算法,实现简单,且空间分辨率高,但要求高信噪比以及多快拍数。随着压缩感知理论的提出与发展,将压缩感知理论应用到阵列信号处理中成为DOA估计算法新的研究方向,学者们提出了大量性能优越的DOA估计算法。其中最为经典的是由D.Malioutov等人提出的
${l_1}{\rm{ - SVD}}$算法,其首先通过空间网格划分的方式,构造了基于阵列流型的过完备基矩阵,然后利用奇异值(singular value decomposition, SVD)分解对阵列接收信号矩阵降维,最后利用二阶锥规划求解
${l_1}$范数优化问题,并估计出信号的DOA。随后,在
${l_1}{\rm{ - SVD}}$算法的基础上,学者们又先后提出了许多基于稀疏表示的DOA估计算法,用以解决宽带[、二维角度[、相干信号源[等DOA估计问题。基于稀疏表示的DOA估计算法多是通过求解
${l_1}$范数优化问题估计出信号的DOA,但是在求解
${l_1}$范数优化问题的过程中,正则化参数多是通过人工设置的方式选取。鉴于稀疏问题的求解完全可以放在贝叶斯估计框架中分析和表示,而且这种统计优化方法更容易被理解和接受。因此近几年一些学者也在不断开展基于稀疏贝叶斯学习的DOA估计研究工作,主要研究二维DOA估计[、空间网格划分失配[以及算法收敛速度
针对此问题,首先假设空间中存在一个均匀线阵用于接收空间窄带目标信号,对空间进行网格划分使得空间信号稀疏化,从而完成信号稀疏表示,并得出可通过求解
${l_1}$范数优化问题估计信号DOA的结论,为应用稀疏贝叶斯理论估计信号的DOA,将阵列接收信号由复数数据转为实数数据。然后根据稀疏贝叶斯理论可知,阵列接收信号服从高斯分布。为估计出未知参数,对稀疏信号指定高斯分布,并为其方差以及噪声方差的倒数指定Gamma分布,得出可通过求解待估计参数的最大后验概率分布估计出未知参数。最后为了避免后验概率分布的直接求解,降低算法复杂度,通过变分贝叶斯学习算法寻找后验概率分布的近似分布,并通过监控下界值判断算法是否收敛,估计出未知参数,从而获得信号的DOA。
1 基于稀疏表示的DOA估计模型
假设
$K$个远场窄带信号入射到
$M$个各向同性的均匀线阵上,阵元间距为
$d$,各信号来波方向为
${\theta _{\rm{i}}}(i = 1,2, \cdots ,K)$,则阵列接收信号为
${{y}}(t) = {{As}}(t) + {{n}}(t)$
式中:${{y}}\left( t \right) = {\left[ {{y_1}(t),{y_2}(t), \cdots {y_M}(t)} \right]^{\rm{T}}}$为
$M \times 1$维的阵列接收信号矢量;${{s}}(t) = {\left[ {{s_1}(t),{s_2}(t), \cdots ,{s_N}(t)} \right]^{\rm{T}}}$为
$K \times 1$维的空间信号矢量;${{A}} =\left[ {{{a}}\left( {{\theta _1}} \right),{{a}}\left( {{\theta _2}} \right), \cdots ,{{a}}\left( {{\theta _K}} \right)} \right]$为
$M \times K$维阵列流形矩阵,${ a}\left( {{\theta _k}} \right) = {\rm{[}}1,\exp ( - {\rm{j}}2{\text π} f{\tau _k}), \cdots ,\exp $
$( - {\rm{j}}2{\text π} f(M - 1){\tau _k})]$T为
$M \times 1$维的方向矢量,${\tau _k} = d\sin {\theta _k}/c$,${\theta _k}$为第
$k$个信号的来波方向;${ n}(t) = [{n_1}(t),{n_2}(t), \cdots ,$
${n_M}(t){{\rm{]}}^{\rm{T}}}$为
$M \times 1$维的噪声矢量。
空间信号是可稀疏的,通过特定的网格划分可将空间信号稀疏化。将空间均匀划分为
$N$份,$\left\{ {{\theta _1},{\theta _2}, \cdots ,{\theta _N}} \right\}$,$N \gg K$。假设每一个
${\theta _n}(n = 1,2, \cdots ,N)$都对应一个空间信号
${x_n}(n = 1,2, \cdots ,N)$,这样便构造出了稀疏度为
$K$的
$N \times 1$维稀疏空间信号矢量:
${{x}}(t) = {[{x_1}(t),{x_2}(t), \cdots ,{x_N}(t)]^{\rm{T}}}$
${{x}}(t)$中只有
$K$个位置的元素是非零的,对应着空间中实际存在的信号
$s(t)$,其余
$N - K$个位置的元素为零。则稀疏化后的空间信号矢量对应的
$M \times N$维阵列流型矩阵
${{\varPhi}} $为
${{\varPhi}} {\rm{ = }}[{{a}}({\theta _1}),{{a}}({\theta _2}), \cdots ,{{a}}({\theta _N})]$
则稀疏表示模型下的DOA估计数学模型为
${{y}}(t) = {{\varPhi}} {{x}}(t) + {{n}}(t)$
(1)
通过求解如下
${l_1}$范数优化问题得出重构信号:
$\left\{ {\begin{array}{*{20}{l}}{\hat { x} = \arg \min {{\left\| { x} \right\|}_1}}\\{{\rm s.t.}{{\left\| {{ y} - { {Ax}}} \right\|}_2}\sigma }\end{array}} \right.$
式中
$\sigma $为噪声标准差。
稀疏贝叶斯理论适用于对实数数据的处理,而阵列接收数据是复数,为了将该理论应用到DOA估计中,需要将观测数据实数化以构建实数域的优化模型,因此式(1)需改写为
$\left( {\begin{array}{*{20}{c}} {{\rm Re}({{y}})} \\ {\rm{Im}} ({{y}})\end{array}} \right) = \left( {\begin{array}{*{20}{c}} {{\rm Re}({{\varPhi}} )}&{ - \rm{Im} ({{\varPhi}} )} \\ {\rm{Im} ({{\varPhi}} )}&{R({{\varPhi}} )} \end{array}} \right)\left( {\begin{array}{*{20}{c}} {{\rm Re}({{x}})} \\ {\rm{Im}} ({{x}}) \end{array}} \right) + \left( {\begin{array}{*{20}{c}} {{\rm Re}({{n}})} \\ {\rm{Im}} ({{n}}) \end{array}} \right)$
式中
${\rm Re}$和
$\operatorname{Im} $分别表示数据的实部与虚部。
2 基于稀疏变分贝叶斯学习的DOA估计算法
2.1 稀疏贝叶斯模型
对于压缩感知下的DOA估计模型:
${{y}} = {{\varPhi}} {{x}} + {{n}}$
式中:${{y}}$为观测数据,${{\varPhi}} $为观测矩阵,${{x}}$为待求稀疏系数矢量,${{n}}$为均值为0、方差为
${\sigma ^2}$的高斯噪声。
从而可以得到
${{y}}$服从高斯分布,即
$\begin{gathered} p({{y}}\left| {{x}} \right.,{\sigma ^2}) = \prod\limits_{n = 1}^N {p({{{y}}_n}\left| {{{{\varPhi}} _n}} \right.{{x}},{\sigma ^2})} {\rm{ = }} \hfill \\\quad\quad\quad\quad\quad{\rm{ (2{\text π}}}{\sigma ^2}{{\rm{)}}^{ - \frac{N}{2}}}\exp {( - \frac{1}{{2{\sigma ^2}}}\left\| {{{y}} - {{\varPhi}} {{x}}} \right\|)^2} \hfill \\ \end{gathered} $
根据贝叶斯估计理论,需要对参数
${{x}}$和
${\sigma ^2}$进行最大后验估计。为避免过匹配问题,需要对参数指定先验分布。根据相关向量机理论,为待估计参数
${{x}}$中的每一个元素指定均值为0、方差为
${\alpha _i}^{ - 1}$的高斯先验,即
$p({{x}}\left| {{\alpha}} \right.) = \prod\limits_{i = 1}^N {N({x_i}\left| 0 \right.,{\alpha _i}^{ - 1})} $
式中
${{\alpha}} = ({\alpha _1},{\alpha _2}, \cdot \cdot \cdot ,{\alpha _N})$为超参数,控制着待估计参数
${x_i}$的估计精度。由于高斯分布的方差的倒数的共轭分布为Gamma分布,因此为超参数
${\alpha _i}$以及噪声参数
${\alpha _0}$指定Gamma分布,即
$p({{\alpha}} ) = \prod\limits_{i = 1}^N {\varGamma ({\alpha _i}\left| a \right.,b)} $
$p({\alpha _0}) = \varGamma ({\alpha _0}\left| c \right.,d)$
式中
${\alpha _0} = {1 / {{\sigma ^2}}}$。Gamma分布为
$\varGamma (\xi \left| {a,b} \right.) = \frac{{{b^a}}}{{\varGamma (a)}}{\xi ^{a - 1}}\exp ( - b\xi )$
根据贝叶斯理论,可以得到待估计参数的最大后验概率分布为
$p({{x}},{{\alpha}} ,{\alpha _0}|{{y}}) = \frac{{p({{y}}|{{x}},{{\alpha}} ,{\alpha _0})p({{x}},{{\alpha}} ,{\alpha _0})}}{{p({{y}})}}$
$p({{y}}) = \iiint {p({{y}}|{{x}},{{\alpha}} ,{\alpha _0})}p({{x}},{{\alpha}} ,{\alpha _0}){\rm{d}}{{x}}{\rm{d}}{{\alpha}} {\rm{d}}{\alpha _0}$
$p(y)$的计算通常要通过高维、复杂的积分,是不易求解的。稀疏贝叶斯模型下通过分解方法求待估计参数最大后验概率分布,即
$p({{x}},{{\alpha}} ,{\alpha _0}|{{y}}) = p({{x}}|{{y}},{{\alpha}} ,{\alpha _0})p({{\alpha}} ,{\alpha _0}|{{y}})$
然后再利用积分求解
$p({{x}}|{{y}},{{\alpha}} ,{\alpha _0})$,算法实现复杂。为了简化
$p({{y}})$的求解,将变分贝叶斯理论引入稀疏贝叶斯估计中。
2.2 变分稀疏贝叶斯估计
设由未知待估计参数
${{x}}$,$\alpha $和
${{{\alpha}} _0}$组成的参数集
${{\vartheta}} $为
${{\vartheta}} = \left\{ {{{{\vartheta}} _1},{{{\vartheta}} _2},{\vartheta _3}} \right\} = \left\{ {{{x}},{{\alpha}} ,{\alpha _0}} \right\}$
观测量
${ y}$的边缘似然函数为
$p({{y}}){\rm{ = }}\frac{{p({{y}},{{\vartheta}} )}}{{p({{x}},{{\vartheta}} |{{y}})}}$
(2)
依据变分理论,在式(2)中引入一个关于参数集
${{\vartheta}} $的
$q$分布,即
$p({{y}}){\rm{ = }}{{\frac{{p({{y}},{{\vartheta}} )}}{{q({{\vartheta}} )}}} / {\frac{{p({{{{\vartheta}}}} |{{y}})}}{{q({{\vartheta}} )}}}}$
(3)
对式(3)两边取对数得
$\ln (p({{y}})) = \ln \frac{{p({{y}},{{\vartheta}} )}}{{q({{\vartheta}} )}} - \ln \frac{{p({{\vartheta}} |{{y}})}}{{q({{\vartheta}} )}}$
(4)
设
$\iiint {q({{\vartheta}} )d{{{\vartheta}} _1}d{{{\vartheta}} _2}d{\vartheta _3}} = 1$,式(4)可转换为
$\begin{gathered} \ln (p({{y}})) = \iiint {q({{\vartheta}} )\ln \frac{{p(y,{{\vartheta}} )}}{{q({{\vartheta}} )}}}{\rm{d}}{{{\vartheta}} _1}{\rm{d}}{{{\vartheta}} _2}{\rm{d}}{\vartheta _3} - \hfill \\ \quad\quad\quad\quad{\rm{ }}\iiint {q({{\vartheta}} )\ln \frac{{p({{\vartheta}} |{{y}})}}{{q({{\vartheta}} )}}}{\rm{d}}{{{\vartheta}} _1}{\rm{d}}{{{\vartheta}} _2}{\rm{d}}{\vartheta _3} \hfill \\ \end{gathered} $
(5)
式(5)简记为
$\ln (p({{y}})){\rm{ = }}L(q({{\vartheta}} )) + {\rm{KL}}(q({{\vartheta}} )||p({{\vartheta}} |{{y}}))$
$L(q({{\vartheta}} )){\rm{ = }}\iiint {q({{\vartheta}} )\ln \frac{{p({{y}},{{\vartheta}} )}}{{q({{\vartheta}} )}}}{\rm d}{{{\vartheta}} _1}{\rm d}{{{\vartheta}} _2}{\rm d}{\vartheta _3}$
${\rm{KL}}(q({{\vartheta}} )||p({{\vartheta}} |{{y}})){\rm{ = }} - \iiint {q({{\vartheta}} )\ln \frac{{p({{\vartheta}} |{{y}})}}{{q({{\vartheta}} )}}}{\rm{d}}{{{\vartheta}} _1}{\rm{d}}{{{\vartheta}} _2}{\rm{d}}{\vartheta _3}$
式中
${\rm{KL}}(q({{\vartheta}} )||p({{\vartheta}} |{{y}}))$称为KL散度,表示概率分布
$q({{\vartheta}} )$与后验分布
$p({{\vartheta}} |{{y}})$的近似程度,KL散度越小,近似程度越高。变分贝叶斯理论通过最小化KL散度寻找与后验分布
$p({{\vartheta}} |{{y}})$最近似的概率分布
$q({{\vartheta}} )$。$\ln (p({{y}}))$只与观测数据
$y$有关,与待估计参数
$x$、$\alpha $和
${\alpha _0}$无关;概率分布
$q({{\vartheta}} )$与后验分布
$p({{\vartheta}} |{{y}})$相等时,$L(q({{\vartheta}} ))$值最大。由于需要寻求与后验分布
$p({{\vartheta}} |{{y}})$最近似的概率分布
$q({{\vartheta}} )$代替后验分布
$p({{\vartheta}} |{{y}})$,而KL散度与后验分布
$p({{\vartheta}} |{{y}})$有关,所以通过最小化KL散度寻求概率分布
$q({{\vartheta}} )$是行不通的。而概率分布
$p({{y}},{{\vartheta}} )$是易求的,所以通过最大化
$L(q({{\vartheta}} ))$寻求关于变量
${{x}}$、${{\alpha}} $和
${\alpha _0}$的
$q({{\vartheta}} )$分布。
根据均值域理论,关于
${{x}}$、${{\alpha}} $和
${\alpha _0}$的联合分布为
$q({{\vartheta}} ) = q({{x}},{{\alpha}} ,{\alpha _0}){\rm{ = }}q({{x}})q({{\alpha}} )q({\alpha _0})$
各参数服从以下分布:
$q({{x}}){\rm{ = }}N({{x}}|\overline {{u}} ,\overline {{\varSigma}} )$
$q({{\alpha}} ){\rm{ = }}\sum\limits_{m = 1}^N {\varGamma ({\alpha _m}|{{\overline a }_m},{{\overline b }_m})} $
$q({\alpha _0}){\rm{ = }}\varGamma ({\alpha _0}|\overline c ,\overline d )$
式中:
$\overline {{u}} = {\alpha _0}\overline {{\varSigma}} {{{\varPhi}} ^{\rm{T}}}{{y}}$
(6)
$\overline {{\varSigma}} {\rm{ = (diag}}({\alpha _m}) + {\alpha _0}{{{\varPhi}} ^{\rm{T}}}{{\varPhi}} {)^{ - 1}}$
(7)
${\overline a_m} = a + 1/2$
(8)
${\overline b_m} = b + \frac{{|\overline {{u}} {|^2} + {{\bar {{\varSigma}} }_{mm}}}}{2}$
(9)
$\overline c = c + (N + 1)/2$
(10)
$\overline d = d + \frac{{||{{y}} - {{\varPhi}} \overline {{\mu}} |{|^2} + {\rm{tr}}(\overline {{\varSigma}} {{{\varPhi}} ^{\rm{T}}}{{\varPhi}} )}}{2}$
(11)
${\alpha _m} = {\overline a_m}/{\overline b_m}$
${\alpha _0} = \overline c/\overline d$
式中:${\alpha _{_m}}$表示
$q({{\alpha}} )$的均值,${\alpha _0}$表示
$q({\alpha _0})$的均值,${\overline {{\mu}} _m}$表示向量
$\overline {{u}} $的第
$m$个元素,${\overline {{\varSigma}} _{mm}}$表示矩阵
$\overline {{\varSigma}} $主对角线的第
$m$个元素,$a = b = c = d = {10^{ - 6}}$[。
对于变分贝叶斯学习方法,是通过监控下界[$L(q({{x}},{{\alpha}} ,{\alpha _0}))$来控制算法收敛:
$\begin{gathered} L(q({{x}},{{\alpha}} ,{\alpha _0})) = \left\langle {\ln p({{y}}|{{x}},{\alpha _0})} \right\rangle + \left\langle {\ln p({{x}}|{{\alpha}} )} \right\rangle + \hfill \\ \quad\quad\quad\quad\quad\quad\;\,\left\langle {\ln p({{\alpha}} )} \right\rangle + \left\langle {\ln p({\alpha _0})} \right\rangle - \left\langle {\ln q({{x}})} \right\rangle - \hfill \\ \quad\quad\quad\quad\quad\quad\;\,\left\langle {\ln q({{\alpha}} )} \right\rangle - \left\langle {\ln q({\alpha _0})} \right\rangle \hfill \\ \end{gathered} $
在计算
$L(q({{x}},{{\alpha}} ,{\alpha _0}))$时,每一项的计算量都很大,因此对
$L(q({{x}},{{\alpha}} ,{\alpha _0}))$进行简化,简化后的
$ L(q$
$({{x}},{{\alpha}} ,{\alpha _0}))$表达式如下:
$\begin{gathered} L(q({{x}},{{\alpha}} ,{\alpha _0})){\rm{ = }}\frac{1}{2}\ln |\overline {{\varSigma}} | - {\overline a _m}\sum\limits_{m = 1}^M {\ln {{\overline b }_m}} + \hfill \\ \quad\quad\quad\quad\quad\;\;\;\;{\rm{ }}\frac{1}{2}\sum\limits_{m = 0}^{N - 1} {\ln {{\overline {{\varSigma}} }_{mm}}} - \overline c \ln \overline d + {L_{{\rm{const}}}} \hfill \\ \end{gathered} $
(12)
$\begin{gathered} {L_{{\rm{const}}}} = - \frac{N}{2}\ln 2{\rm{{\text π}}} + \frac{{M + N}}{2} - \hfill \\ \quad\quad\;\;\;{\rm{ }}(M + N + 1)\ln \varGamma (a) + (M + N + 1)a\ln b + \hfill \\ \quad\quad\;\;\;{\rm{ }}(M + N)\ln \varGamma ({{\overline a}_m}) + \ln \varGamma (\overline c) \hfill \\ \end{gathered} $
式中
${L_{{\rm{const}}}}$是与变量
${{x}}$、${{\alpha}} $和
${\alpha _0}$无关的常数部分。
基于变分稀疏贝叶斯的DOA估计算法流程如下:
输入:观测向量
${{y}}$、测量矩阵
${{\varPhi}} $和收敛条件
$\sigma $。
输出:重构信号
${{x}}$。
1)初始化
$\overline {{u}} $、$\overline {{\varSigma}} $、${\overline a_m}$、${\overline b_m}$、$\overline c$、$\overline d$;
2)利用式(6)和(7)更新
$\overline {{u}} $、$\overline {{\varSigma}} $;
3)利用式(8)~(11)更新
${\overline a_m}$、${\overline b_m}$、$\overline c$、$\overline d$;
4)利用式(12)更新
${L_t}(q({{x}},{{\alpha}} ,{\alpha _0})$,$t$为当前更新次数;
5)如果:$\displaystyle\frac{{{L_t}(q({{x}},{{\alpha}} ,{\alpha _0})) - {L_{t - 1}}(q({{x}},{{\alpha}} ,{\alpha _0}))}}{{{L_{t - 1}}(q({{x}},{{\alpha}} ,{\alpha _0}))}} < \sigma $,则停止迭代,输出重构信号
${{x}}$,否则重返步骤2),进行下一次迭代。
3 仿真结果
为评估基于稀疏变分贝叶斯学习的DOA估计算法的性能,本文通过MATLAB仿真比较在单快拍条件下基于VSBL的DOA估计算法和基于SBL的DOA估计算法分别在不同信噪比、不同阵元数下的DOA估计误差及其成功率以及算法运行时间。
3.1 不同信噪比下的DOA估计结果比较
假设空间中存在由20个阵元组成的均匀线阵,同时有2个信号分别以入射角10°和20°入射到该阵列中,信号的信噪比以2 dB为步进,从−10 dB到10 dB变化。用2种算法比较不同信噪比下的DOA估计结果,如果所估计出角度在误差允许范围内,则认为本次实验是成功的,每个条件下的实验进行500次,并统计各条件下的DOA估计误差及其成功率,如
图 1
图 1 不同信噪比下的DOA估计误差
图 2
图 2 不同信噪比下的DOA估计成功率
3.2 不同阵元数下的DOA估计结果比较
假设空间中存在一个均匀线阵,且同时有2个信号分别以入射角10°和20°入射到该阵列中,阵元数以2为步进从6阵元到20阵元变化,信噪比为15 dB,用2种算法比较不同阵元数下的DOA估计结果。如果所估计出角度在误差允许范围内,则认为本次实验是成功的,每个条件下的实验进行500次,并统计各条件下的DOA估计误差及其成功率,如
图 3
图 3 不同阵元数下的DOA估计误差
图 4
图 4 不同阵元数下的DOA估计成功率
3.3 算法运行时间比较
仿真条件:阵元数为20,信噪比比为15 dB,蒙特卡罗仿真次数为500次。仿真所用CPU为:Intel(R) Core(TM) i5-4570,运行内存为4 GB,MATLAB版本为R2014。
基于BCS的DOA估计算法运行时间为212 s。而基于VBCS的DOA估计算法的运行时间为92 s。
由算法运行时间结果可知,基于VBCS的DOA估计算法的运行时间要小于基于BCS的DOA估计算法的运行时间。因此基于VBCS的DOA估计算法的收敛速度要快于基于BCS的DOA估计算法收敛速度。
4 结论
本文提出了一种基于VSBL的DOA估计算法。首先建立了基于稀疏表示的DOA估计模型,并在此基础上建立了稀疏贝叶斯模型。然后通过变分贝叶斯学习算法的引入,简化了稀疏贝叶斯模型中最大后验概率的求解,并总结出该DOA估计算法的求解步骤。最后通过仿真比较了基于VSBL的DOA估计算法和基于SBL的DOA估计算法的性能,并得出以下结论:
1)本文算法在低信噪比下具有更高的DOA估计精度以及成功率,更有利于在复杂电磁环境下DOA估计的应用;
2)本文算法可通过更少的振元数高精度、高成功率估计出信号到达角,从而减轻硬件对大量数据存储、传输和处理的压力;
3)本文算法具有更低的算法复杂度,大幅度减少了算法的运行时间,更有利于DOA估计实时性要求的实现;
4)本文算法只适用于单快拍下的DOA估计问题,将该思想引用到多快拍下的DOA估计问题是下一步的研究方向。
matlab稀疏贝叶斯,基于变分稀疏贝叶斯学习的DOA估计相关推荐
- 基于确定性最大似然算法 DML 的 DoA 估计,用牛顿法实现(附 MATLAB 源码)
本文首次在公众号[零妖阁]上发表,为了方便阅读和分享,我们将在其他平台进行自动同步.由于不同平台的排版格式可能存在差异,为了避免影响阅读体验,建议如有排版问题,可前往公众号查看原文.感谢您的阅读和支持 ...
- 深度学习自学(三十一):基于变分期望最大化深度学习的非盲噪声图像去模糊
整理的人脸系列学习经验:包括人脸检测.人脸关键点检测.人脸优选.人脸对齐.人脸特征提取,Re-ID等学习过程总结,有需要的可以参考,仅供学习,请勿盗用.https://blog.csdn.net/Th ...
- CVPR2019|微软、中科大开源基于深度高分辨表示学习的姿态估计算法
作者 | 周强(CV君) 来源 | 我爱计算机视觉(公众号id:aicvml) 如何挑战百万年薪的人工智能! https://edu.csdn.net/topic/ai30?utm_source=cs ...
- CVPR2019 | 微软、中科大开源基于深度高分辨表示学习的姿态估计算法
点击我爱计算机视觉标星,更快获取CVML新技术 昨天arXiv出现了好几篇被CVPR 2019 接收的论文. 其中来自微软和中国科技大学研究学者的论文<Deep High-Resolution ...
- DOA估计 基于稀疏贝叶斯的离格DOA估计
1.前言 稀疏贝叶斯学习是贝叶斯统计优化算法中十分重要的一类,它是在贝叶斯理论的基础上发展而来的.这篇文章的工作由杨在教授等人在2013年1月于TSP上发布,从贝叶斯的角度出发,是一个基于离格空域模型 ...
- 变分推断 | MATLAB实现VBMC变分贝叶斯蒙特卡洛模拟的贝叶斯推断
变分推断 | MATLAB实现变分贝叶斯蒙特卡洛模拟的贝叶斯推断 目录 变分推断 | MATLAB实现变分贝叶斯蒙特卡洛模拟的贝叶斯推断 效果一览 基本介绍 研究内容 模型描述 模型设计 参考资料 效 ...
- ML之NB:基于NB朴素贝叶斯算法训练20类新闻文本数据集进行多分类预测
ML之NB:基于NB朴素贝叶斯算法训练20类新闻文本数据集进行多分类预测 目录 输出结果 设计思路 核心代码 输出结果 设计思路 核心代码 vec = CountVectorizer() X_trai ...
- 基于搜索的贝叶斯网络结构学习算法-K2
部分内容取自:[Cooper and Herskovits, 1991] Cooper, G. and Herskovits, E. (January, 1991). A Bayesian metho ...
- 视觉机器学习20讲-MATLAB源码示例(6)-贝叶斯学习算法
视觉机器学习20讲-MATLAB源码示例(6)-贝叶斯学习算法 1. 贝叶斯学习算法 2. Matlab仿真 3. 小结 1. 贝叶斯学习算法 贝叶斯分类算法是统计学的一种分类方法,它是一类利用概率统 ...
最新文章
- pandas使用query函数查询指定日期索引之间对应的dataframe数据行(select rows date index between a certain date interval)
- 苹果cms10的php.ini目录列表,使用苹果CMSV10常见问题整理官方版
- leetcode1050. 合作过至少三次的演员和导演(SQL)
- linux系统分区扩展,linux系统扩展根分区容量大小
- WEB安全基础-文件下载漏洞以及文件包含漏洞演示
- ipython是解释器吗_Ipython 解释器
- 使用商业模式的九大模块去分析京东的商业模式_【荐读】商业模式新生代
- hdu 1693 Eat the Trees 插头dp
- 微信开发准备(三)--框架以及工具的基本使用
- xx闪购——顶部的菜单栏
- JavaScript:点击按钮打开/关闭网页
- oracle 的insert into的详解
- ipv6单播地址包括哪两种类型_Ipv6详解
- 邮箱有效性验证(是否真实存在可发送)
- Java监听器实现网站在线人数统计
- 【图像分类】 一文读懂AlexNet
- 一个android工程师写java后台的感受
- python源代码打包成为exe文件
- Linux文件系统 devfs/udev/sysfs简述
- 视频旋转方向,让视频画面旋转90度播放
热门文章
- Cache数据库入门教程二
- 在mysql中注释符是什么意思_为MYSQL加注释--mysql注释符
- 微信登录失败,redirect_uri域名与后台配置不一致,错误码:10003
- 泊松流(Poisson Flow)生成模型
- nginx配置http和ws协议同时使用
- 留学生计算机辅导理论作业题目-数据库相关
- python 读取 docx 报错_python读取docx文件,就是如此简单
- 微信小程序 列表收起与展开效果
- android添加图片按钮,如何给Android中的按钮添加图片功能
- python编码进制转换_关于Python|进制转换问题