DOA估计是阵列信号处理中的一个重要分支,Music(Multiple signal classification,多重信号分类)算法是相对比较经典的算法。在这里简单介绍下Music算法以及基于四阶累积量的Music的算法。

一、信号模型介绍

如图1所示,MMM个全向阵元组成的均匀线阵,阵元间距为ddd,其中左侧第一个阵元为参考阵元,则参考点接收的入射信号为
x1(t)=s(t)ejωtx_{1}(t)=s(t) e^{j \omega t}x1​(t)=s(t)ejωt
其中,s(t)s(t)s(t)为信号的复振幅,ω\omegaω为信号的角频率。
阵元mmm接收的信号为
xm(t)=s[t−τm(θ)]ejω[t−τm(θ)]x_{m}(t)=s\left[t-\tau_{m}(\theta)\right] e^{j \omega\left[t-\tau_{m}(\theta)\right]}xm​(t)=s[t−τm​(θ)]ejω[t−τm​(θ)]
其中,τm(θ)\tau_{m}(\theta)τm​(θ)为阵元mmm接收到的入射波相对于参考点入射波的延时,θ\thetaθ为入射角,也称为波达方向。对于窄带信号而言,相对于τm(θ)\tau_{m}(\theta)τm​(θ)时间延迟的信号复包络变化可以忽略,则可以得到
s[t−τm(θ)]≈s(t)s\left[t-\tau_{m}(\theta)\right]\approx s(t)s[t−τm​(θ)]≈s(t)
因此可以得到
xm(t)=s(t)ejωte−jωτm=x1(t)e−jωτmx_{m}(t)=s(t) e^{j \omega t} e^{-j \omega \tau_{m}}=x_{1}(t) e^{-j \omega \tau_{m}}xm​(t)=s(t)ejωte−jωτm​=x1​(t)e−jωτm​
假设有K(K>M)K(K>M)K(K>M)个远场窄带信号源入射该阵列上,则第 mmm个阵元接收到的信号可以表示为:
xm(t)=∑k=1Ksk(t)e−j(m−1)τk+nm(t)=∑k=1Ksk(t)am(θk)+nm(t)m=1,2,⋯,M\begin{aligned} x_{m}(t) &=\sum_{k=1}^{K} s_{k}(t) e^{-j(m-1) \tau_{k}}+n_{m}(t) \\ &=\sum_{k=1}^{K} s_{k}(t) a_{m}\left(\theta_{k}\right)+n_{m}(t) \quad m=1,2, \cdots, M \end{aligned}xm​(t)​=k=1∑K​sk​(t)e−j(m−1)τk​+nm​(t)=k=1∑K​sk​(t)am​(θk​)+nm​(t)m=1,2,⋯,M​
其中 ,τk=2πdsin⁡θk/λ\tau_{k}=2\pi d\sin\theta_{k}/\lambdaτk​=2πdsinθk​/λ,a(θk)=[1,e−j2πdsin⁡θk/λ,⋯,e−j2π(M−1)dsin⁡θk/λ]a\left(\theta_{k}\right)=\left[1, e^{-j 2 \pi d \sin \theta_{k} / \lambda}, \cdots, e^{-j 2 \pi(M-1) d \sin \theta_{k} / \lambda}\right]a(θk​)=[1,e−j2πdsinθk​/λ,⋯,e−j2π(M−1)dsinθk​/λ]表示对于入射角θk\theta_{k}θk​ 对应的导向矢量, θk\theta_{k}θk​表示第 kkk个信号源的入射方向。
为了方便描述,阵列接收的信号写成矩阵形式可以表述为
X=AS+N\mathbf{X}=\mathbf{A} \mathbf{S}+\mathbf{N}X=AS+N
其中 X=[x1(t),x2(t),⋯,xM(t)]T\mathbf{X}=\left[x_{1}(t), x_{2}(t), \cdots, x_{M}(t)\right]^{T}X=[x1​(t),x2​(t),⋯,xM​(t)]T表示接收信号,A=[a(θ1),a(θ2),⋯,a(θK)]T\mathbf{A}=\left[a(\theta_{1}), a(\theta_{2}), \cdots, a(\theta_{K})\right]^{T}A=[a(θ1​),a(θ2​),⋯,a(θK​)]T阵列导向矢量矩阵,S=[s1(t),s2(t),⋯,xK(t)]T\mathbf{S}=\left[s_{1}(t), s_{2}(t), \cdots, x_{K}(t)\right]^{T}S=[s1​(t),s2​(t),⋯,xK​(t)]T 表示信号,N=[n1(t),n2(t),⋯,nM(t)]T\mathbf{N}=\left[n_{1}(t), n_{2}(t), \cdots, n_{M}(t)\right]^{T}N=[n1​(t),n2​(t),⋯,nM​(t)]T 表示阵列接收的噪声矢量,而且ni(t)n_i(t)ni​(t)为零均值,方差为σ2\sigma^2σ2 的相互独立的白噪声,也就是说
E[ni(t)nj∗(t)]={σ2i=j0i≠jE\left[n_{i}(t) n_{j}^{*}(t)\right]=\left\{\begin{array}{ll} \sigma^{2} & i=j \\ 0 & i \neq j \end{array}\right.E[ni​(t)nj∗​(t)]={σ20​i=ji​=j​

二、高阶统计量介绍

高阶统计量指高于二阶的统计量。高阶矩、高阶矩谱、高阶累积量以及高阶累积量谱都属于高阶统计量,下面对其概念和性质进行简单的介绍。
对于概率密度为 f(x)f\left( x \right)f(x)的随机变量xxx,其第一特征函数为:
φ(ω)=E(ejωx)=∫−∞+∞f(x)ejωxdx\varphi \left( \omega \right)=E\left( {{e}^{j\omega x}} \right)=\int_{-\infty }^{+\infty }{f\left( x \right){{e}^{j\omega x}}dx}φ(ω)=E(ejωx)=∫−∞+∞​f(x)ejωxdx
其第二类特征函数为:
ψ(ω)=ln⁡φ(ω)\psi \left( \omega \right)=\ln \varphi \left( \omega \right)ψ(ω)=lnφ(ω)
对于随机变量xxx的 kkk阶矩可以表示为:
mk=E[xk]=∫−∞+∞xkf(x)dx{{m}_{k}}=E\left[ {{x}^{k}} \right]=\int_{-\infty }^{+\infty }{{{x}^{k}}f\left( x \right)dx}mk​=E[xk]=∫−∞+∞​xkf(x)dx
其kkk阶累积量可以表示为:
ck=(−j)kdkψ(ω)dωk∣ω=0{{c}_{k}}={{\left( -j \right)}^{k}}\frac{{{d}^{k}}\psi \left( \omega \right)}{d{{\omega }^{k}}}{{|}_{\omega =0}}ck​=(−j)kdωkdkψ(ω)​∣ω=0​
对于一组随机变量{x1,x2,⋯,xn}\left\{ {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right\}{x1​,x2​,⋯,xn​} 可以得到其多维第一类特征函数φ(ω1,ω2,⋯,ωn)=1+∑1≤r≤Njrk1!k2!⋯kn!mk1k2−knω1k1ω2k2⋯ωnkn+o(∣ω∣N)\varphi \left( {{\omega }_{1}},{{\omega }_{2}},\cdots ,{{\omega }_{n}} \right)=1+\sum\limits_{1\le r\le N}{\frac{{{j}^{r}}}{{{k}_{1}}!{{k}_{2}}!\cdots {{k}_{n}}!}}{{m}_{{{k}_{1}}{{k}_{2}}-{{k}_{n}}}}\omega _{1}^{{{k}_{1}}}\omega _{2}^{{{k}_{2}}}\cdots \omega _{n}^{{{k}_{n}}}+o\left( |\mathbf{\omega }{{|}^{N}} \right)φ(ω1​,ω2​,⋯,ωn​)=1+1≤r≤N∑​k1​!k2​!⋯kn​!jr​mk1​k2​−kn​​ω1k1​​ω2k2​​⋯ωnkn​​+o(∣ω∣N)
其中r=k1+k2+⋯kn,ω=ω1,ω2,⋯,ωnr={{k}_{1}}+{{k}_{2}}+\cdots {{k}_{n}},\mathbf{\omega }={{\omega }_{1}},{{\omega }_{2}},\cdots ,{{\omega }_{n}}r=k1​+k2​+⋯kn​,ω=ω1​,ω2​,⋯,ωn​
其rrr阶矩可以表示为:
mx1k1,x2k2,⋯,xnkn=ΔE[x1k1,x2k2,⋯,xnkn]=(−j)r[∂rφ(ω1,ω2,⋯,ωn)∂ω1k1∂ω2k2⋯∂ωnkn]∣ω1=ω2=⋯ωn=0{{m}_{x_{1}^{{{k}_{1}}},x_{2}^{{{k}_{2}}},\cdots ,x_{n}^{{{k}_{n}}}}}\overset{\Delta }{\mathop{=}}\,E\left[ x_{1}^{{{k}_{1}}},x_{2}^{{{k}_{2}}},\cdots ,x_{n}^{{{k}_{n}}} \right]={{\left( -j \right)}^{r}}\left[ \frac{{{\partial }^{r}}\varphi \left( {{\omega }_{1}},{{\omega }_{2}},\cdots ,{{\omega }_{n}} \right)}{\partial \omega _{1}^{{{k}_{1}}}\partial \omega _{2}^{{{k}_{2}}}\cdots \partial \omega _{n}^{{{k}_{n}}}} \right]{{|}_{{{\omega }_{1}}={{\omega }_{2}}=\cdots {{\omega }_{n}}=0}}mx1k1​​,x2k2​​,⋯,xnkn​​​=ΔE[x1k1​​,x2k2​​,⋯,xnkn​​]=(−j)r[∂ω1k1​​∂ω2k2​​⋯∂ωnkn​​∂rφ(ω1​,ω2​,⋯,ωn​)​]∣ω1​=ω2​=⋯ωn​=0​
对于一组随机变量 {x1,x2,⋯,xn}\left\{ {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right\}{x1​,x2​,⋯,xn​}可以得到其多维第二类特征函数ψ(ω1,ω2,⋯,ωn)=∑1≤r≤Njrk1!k2!⋯kn!ckkk2−knω1k1ω1k2⋯ωnkn+o(ω∣N)\psi \left( {{\omega }_{1}},{{\omega }_{2}},\cdots ,{{\omega }_{n}} \right)=\sum\limits_{1\le r\le N}{\frac{{{j}^{r}}}{{{k}_{1}}!{{k}_{2}}!\cdots {{k}_{n}}!}}{{c}_{{{k}_{k}}{{k}_{2}}-{{k}_{n}}}}\omega _{1}^{{{k}_{1}}}\omega _{1}^{{{k}_{2}}}\cdots \omega _{n}^{{{k}_{n}}}+o\left( {{\left. \mathbf{\omega } \right|}^{N}} \right)ψ(ω1​,ω2​,⋯,ωn​)=1≤r≤N∑​k1​!k2​!⋯kn​!jr​ckk​k2​−kn​​ω1k1​​ω1k2​​⋯ωnkn​​+o(ω∣N)
其rrr阶累积量可以表示为:
cum(x1k1,x2k2,⋯,xnkn)=(−j)r[∂rψ(ω1,ω2,⋯,ωn)∂ω1k1∂ω2k2⋯∂ωnkn]∣ω1=ω2=⋯ωn=0cum\left( x_{1}^{{{k}_{1}}},x_{2}^{{{k}_{2}}},\cdots ,x_{n}^{{{k}_{n}}} \right)={{\left( -j \right)}^{r}}\left[ \frac{{{\partial }^{r}}\psi \left( {{\omega }_{1}},{{\omega }_{2}},\cdots ,{{\omega }_{n}} \right)}{\partial \omega _{1}^{{{k}_{1}}}\partial \omega _{2}^{{{k}_{2}}}\cdots \partial \omega _{n}^{{{k}_{n}}}} \right]{{|}_{{{\omega }_{1}}={{\omega }_{2}}=\cdots {{\omega }_{n}}=0}}cum(x1k1​​,x2k2​​,⋯,xnkn​​)=(−j)r[∂ω1k1​​∂ω2k2​​⋯∂ωnkn​​∂rψ(ω1​,ω2​,⋯,ωn​)​]∣ω1​=ω2​=⋯ωn​=0​
由于高阶累积量的复杂性以及计算量大等因素的影响,一般在实际应用中常常采用四阶或四阶以下的累积量。
零均值复平稳随机序列的四阶累积量定义为
C4,x(k1,k2,k3)=E{x(n)x∗(n+k1)x(n+k2)x∗(n+k3)}−E{x(n)x∗(n+k1)}E{x(n+k2)x∗(n+k3)}−E{x(n)x(n+k2)}E{x∗(n+k1)x∗(n+k3)}−E{x(n)x∗(n+k3)}E{x∗(n+k1)x(n+k2)}\begin{aligned} C_{4, x}\left(k_{1}, k_{2}, k_{3}\right)=& E\left\{x(n) x^{*}\left(n+k_{1}\right) x\left(n+k_{2}\right) x^{*}\left(n+k_{3}\right)\right\} \\ &-E\left\{x(n) x^{*}\left(n+k_{1}\right)\right\} E\left\{x\left(n+k_{2}\right) x^{*}\left(n+k_{3}\right)\right\} \\ &-E\left\{x(n) x\left(n+k_{2}\right)\right\} E\left\{x^{*}\left(n+k_{1}\right) x^{*}\left(n+k_{3}\right)\right\} \\ &-E\left\{x(n) x^{*}\left(n+k_{3}\right)\right\} E\left\{x^{*}\left(n+k_{1}\right) x\left(n+k_{2}\right)\right\} \end{aligned}C4,x​(k1​,k2​,k3​)=​E{x(n)x∗(n+k1​)x(n+k2​)x∗(n+k3​)}−E{x(n)x∗(n+k1​)}E{x(n+k2​)x∗(n+k3​)}−E{x(n)x(n+k2​)}E{x∗(n+k1​)x∗(n+k3​)}−E{x(n)x∗(n+k3​)}E{x∗(n+k1​)x(n+k2​)}​
由于复信号的对称性,上式中右边第三项为零,这样四阶累积量可以简化为
C4,x(k1,k2,k3)=E{x(n)x∗(n+k1)x(n+k2)x∗(n+k3)}−E{x(n)x∗(n+k1)}E{x(n+k2)x∗(n+k3)}−E{x(n)x∗(n+k3)}E{x∗(n+k1)x(n+k2)}\begin{aligned} C_{4, x}\left(k_{1}, k_{2}, k_{3}\right) &=E\left\{x(n) x^{*}\left(n+k_{1}\right) x\left(n+k_{2}\right) x^{*}\left(n+k_{3}\right)\right\} \\ &-E\left\{x(n) x^{*}\left(n+k_{1}\right)\right\} E\left\{x\left(n+k_{2}\right) x^{*}\left(n+k_{3}\right)\right\} \\ &-E\left\{x(n) x^{*}\left(n+k_{3}\right)\right\} E\left\{x^{*}\left(n+k_{1}\right) x\left(n+k_{2}\right)\right\} \end{aligned}C4,x​(k1​,k2​,k3​)​=E{x(n)x∗(n+k1​)x(n+k2​)x∗(n+k3​)}−E{x(n)x∗(n+k1​)}E{x(n+k2​)x∗(n+k3​)}−E{x(n)x∗(n+k3​)}E{x∗(n+k1​)x(n+k2​)}​
在实际的应用中,通常取k1=k2=k3=0{{k}_{1}}={{k}_{2}}={{k}_{3}}=0k1​=k2​=k3​=0,因此对于复信号的四阶累积量可以表示为
C4,x=E{x(n)x∗(n)x(n)x∗(n)}−E{x(n)x∗(n)}E{x(n)x∗(n)}−E{x(n)x∗(n)}E{x∗(n)x(n)}\begin{aligned} & {{C}_{4,x}}=E\left\{ x(n){{x}^{*}}\left( n \right)x\left( n \right){{x}^{*}}\left( n \right) \right\} \\ & \ \ \ \ \ \ -E\left\{ x(n){{x}^{*}}\left( n \right) \right\}E\left\{ x\left( n \right){{x}^{*}}\left( n \right) \right\} \\ & \ \ \ \ \ \ -E\left\{ x(n){{x}^{*}}\left( n \right) \right\}E\left\{ {{x}^{*}}\left( n \right)x\left( n \right) \right\} \\ \end{aligned} ​C4,x​=E{x(n)x∗(n)x(n)x∗(n)}      −E{x(n)x∗(n)}E{x(n)x∗(n)}      −E{x(n)x∗(n)}E{x∗(n)x(n)}​
高阶累积量还有以下性质:
若{αi}i=1n\left\{ {{\alpha }_{i}} \right\}_{i=1}^{n}{αi​}i=1n​ 为常数数列,{xi}i=1n\left\{ {{x}_{i}} \right\}_{i=1}^{n}{xi​}i=1n​为随机变量,则
cum(α1x1,α2x2,⋯,αnxn)=(∏i=1nαi)cum(x1,x2,⋯,xn)cum\left( {{\alpha }_{1}}{{x}_{1}},{{\alpha }_{2}}{{x}_{2}},\cdots ,{{\alpha }_{n}}{{x}_{n}} \right)=\left( \prod\limits_{i=1}^{n}{{{\alpha }_{i}}} \right)cum\left( {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)cum(α1​x1​,α2​x2​,⋯,αn​xn​)=(i=1∏n​αi​)cum(x1​,x2​,⋯,xn​)
高阶累积量对其变量具有可加性
cum(x1+y1,x2,⋯,xn)=cum(x1,x2,⋯,xn)+cum(y1,x2,⋯,xn)cum\left( {{x}_{1}}+{{y}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)=cum\left( {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)+cum\left( {{y}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)cum(x1​+y1​,x2​,⋯,xn​)=cum(x1​,x2​,⋯,xn​)+cum(y1​,x2​,⋯,xn​)
若随机变量{xi}i=1n\left\{ {{x}_{i}} \right\}_{i=1}^{n}{xi​}i=1n​与随机变量{yi}i=1n\left\{ {{y}_{i}} \right\}_{i=1}^{n}{yi​}i=1n​统计独立,则
cum(x1+y1,x2+y2,⋯,xn+yn)=cum(x1,x2,⋯,xn)+cum(y1,y2,⋯,yn)cum\left( {{x}_{1}}+{{y}_{1}},{{x}_{2}}+{{y}_{2}},\cdots ,{{x}_{n}}+{{y}_{n}} \right)=cum\left( {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)+cum\left( {{y}_{1}},{{y}_{2}},\cdots ,{{y}_{n}} \right)cum(x1​+y1​,x2​+y2​,⋯,xn​+yn​)=cum(x1​,x2​,⋯,xn​)+cum(y1​,y2​,⋯,yn​)
若{xi}i=1n\left\{ {{x}_{i}} \right\}_{i=1}^{n}{xi​}i=1n​为零均值的高斯随机变量,则其四阶累积量为零,也就是
cum(x1,x2,⋯,xn)=0cum\left( {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)=0cum(x1​,x2​,⋯,xn​)=0
若{xi}i=1n\left\{ {{x}_{i}} \right\}_{i=1}^{n}{xi​}i=1n​中有任意一个非空子集独立于该子集的余集,则
cum(x1,x2,⋯,xn)=0cum\left( {{x}_{1}},{{x}_{2}},\cdots ,{{x}_{n}} \right)=0cum(x1​,x2​,⋯,xn​)=0
由于高阶累积量具有这些优良的性质,使得高阶累积量在阵列信号处理中的应用很广泛,也具有低阶累积量不具有的性质:
 抑制高斯色噪声的影响(高斯噪声的二阶以上累积量恒为零);
 辨识非因果、非最小相位系统或重构非最小相位信号;
 提取由于高斯性偏离引起的各种信息;
 检验和表征信号中的非线性以及辨识非线性系统;
 检验和表征信号中的循环平稳性以及分析和处理循环平稳信号;
 高阶累积量不仅可以自动抑制高斯噪声的影响,而且也能抑制对称分布噪声的影响;高阶循环统计量则能自动抑制任何平稳(高斯与非高斯)噪声的影响。
同时,采用高阶累积量应用到波达方向估计算法而不用高阶矩来进行分析主要是基于以下的原因:
 高阶累积量的使用可以避免高斯有色噪声的影响,而高阶矩却不能;
 两个统计独立的随机过程之和的高阶累积量等于各个随机过程的高阶累积量之和,这样在实际处理加性信号时将带来运算上的方便,而高阶矩却不满足此性质;
 独立同分布过程的高阶累量为 δ\deltaδ函数,因而其傅里叶变换是多维平坦的。

三、算法原理

3.1 传统Music算法

由接收信号的模型可以看出,对xm(t)x_m(t)xm​(t)进行LLL点采样,要处理的问题就变成通过输出信号 {xm(i)∣i=1,2,⋯,L}\left\{x_{m}(i) \mid i=1,2, \cdots, L\right\}{xm​(i)∣i=1,2,⋯,L}来估计信号源的波达方向角 θ1,θ2,⋯θK\theta_1,\theta_2,\cdots\theta_Kθ1​,θ2​,⋯θK​,假设噪声为零均值的高斯白噪声,已知信号和噪声互不相关,对阵列的输出X\mathbf{X}X进行相关运算可以得到其协方差矩阵
Rx=E[XXH]=E[(AS+N)(AS+N)H]=AE[SSH]AH+E[NNH]=ARsAH+RN\begin{aligned} R_{x} &=E\left[\mathbf{X X}^{H}\right]=E\left[(\mathbf{A} \mathbf{S}+\mathbf{N})(\mathbf{A} \mathbf{S}+\mathbf{N})^{H}\right] \\ &=\mathbf{A} E\left[\mathbf{S} \mathbf{S}^{H}\right] \mathbf{A}^{H}+E\left[\mathbf{N} \mathbf{N}^{H}\right]=\mathbf{A} R_{s} \mathbf{A}^{H}+R_{N} \end{aligned}Rx​​=E[XXH]=E[(AS+N)(AS+N)H]=AE[SSH]AH+E[NNH]=ARs​AH+RN​​
其中Rs=E[SSH]R_{s}=E[\mathbf{S} \mathbf{S}^{H}]Rs​=E[SSH] 表示信号的相关矩阵,RN=E[NNH]=σ2IR_{N}=E[\mathbf{N} \mathbf{N}^{H}]=\sigma^2\mathbf{I}RN​=E[NNH]=σ2I为噪声的自相关矩阵,σ2\sigma^2σ2表示噪声的功率,I∈RM×M\mathbf{I} \in R^{M \times M}I∈RM×M 为单位阵。
在实际的应用中,Rx\mathbf {R_{x}}Rx​通常无法直接获得 ,所以采用样本的协方差矩阵来代替真实的协方差矩阵
R^x=1L∑l=1LX(l)XH(l)\hat{R}_{x}=\frac{1}{L} \sum_{l=1}^{L} \mathbf{X}(l) \mathbf{X}^{H}(l)R^x​=L1​l=1∑L​X(l)XH(l)
其中 R^x\hat{R}_{x}R^x​为Rx\mathbf {R_{x}}Rx​ 的最大似然估计,当 L→∞L\to \inftyL→∞时,两者是等价的,但实际情况将由于样本数有限而造成误差。
根据矩阵特征分解的理论,可对阵列协方差矩阵进行特征分解,首先考虑理想情况,即无噪声的情况:Rx=ARsAH\mathbf R_{x}=\mathbf{A} R_{s} \mathbf{A}^{H}Rx​=ARs​AH。若RsR_{s}Rs​为非奇异矩阵,即 rank(Rs)=Krank(R_{s})=Krank(Rs​)=K,各个信号源两两不相干,则 rank(ARsAH)=Krank(\mathbf{A} R_{s} \mathbf{A}^{H})=Krank(ARs​AH)=K,而 Rx=E[XXH]R_{x}=E[\mathbf{X X}^{H}]Rx​=E[XXH],所以RsH=Rx{{R}_{s}}^{H}={{R}_{x}}Rs​H=Rx​ ,即 Rs{{R}_{s}}Rs​为Hermite矩阵,它的特征值是都是实数。同时由于 Rs{{R}_{s}}Rs​为正定的,所以 Rx=ARsAH\mathbf R_{x}=\mathbf{A} R_{s} \mathbf{A}^{H}Rx​=ARs​AH是半正定的,也就是说,它有 KKK个非零特征值和 M−KM-KM−K个零特征值。
当存在噪声时Rx=ARsAH+σ2I\mathbf R_{x}=\mathbf{A} R_{s} \mathbf{A}^{H}+\sigma^2\mathbf{I}Rx​=ARs​AH+σ2I ,因为σ2>0{{\sigma }^{2}}>0σ2>0 ,所以RxR_{x}Rx​满秩,即RxR_{x}Rx​ 有MMM个正实特征值λ1,λ2,⋯,λM\lambda_{1}, \lambda_{2}, \cdots, \lambda_{M}λ1​,λ2​,⋯,λM​ 分别对应MMM个特征矢量v1,v2,⋯,vM{{v}_{1}},{{v}_{2}},\cdots ,{{v}_{M}}v1​,v2​,⋯,vM​ 。同时由于RxR_{x}Rx​为Hermite矩阵,所以各特征向量是正交的,即viHvj=0∀i≠jv_{i}^{H}{{v}_{j}}=0\ \ \ \ \forall \ \ i\ne jviH​vj​=0    ∀  i​=j 。与信号有关的特征值只有 KKK个分别等于矩阵ARsAH\mathbf{A}{{R}_{s}}{{\mathbf{A}}^{H}}ARs​AH的各个特征值与 σ2\sigma^2σ2之和,其余M−KM-KM−K个特征值为σ2\sigma^2σ2,即σ2\sigma^2σ2为RxR_{x}Rx​的最小特征值,其为M−KM-KM−K 维的,在特征向量为v1,v2,⋯,vM{{v}_{1}},{{v}_{2}},\cdots ,{{v}_{M}}v1​,v2​,⋯,vM​ 中,有 KKK个是与信号有关的,另外M−KM-KM−K 个与噪声有关,因此可以利用特征分解的性质求出信号源的波达方向 θk\theta_{k}θk​。
设 λi{{\lambda }_{i}}λi​为RxR_{x}Rx​的第iii个特征值, vi{{v}_{i}}vi​是与λi{{\lambda }_{i}}λi​ 对应的特征向量,则可以得到Rxvi=λivi{{R}_{x}}{{v}_{i}}={{\lambda }_{i}}{{v}_{i}}Rx​vi​=λi​vi​ ,同时设 λi=σ2{{\lambda }_{i}}\text{=}{{\sigma }^{2}}λi​=σ2是RxR_{x}Rx​的最小特征值,可以得到
Rxvi=σ2vii=K+1,K+2,⋯,M{{R}_{x}}{{v}_{i}}={{\sigma }^{2}}{{v}_{i}}\ \ \ \ i=K+1,K+2,\cdots ,MRx​vi​=σ2vi​    i=K+1,K+2,⋯,M
将Rx=ARsAH+σ2I{{R}_{x}}=\mathbf{A}{{R}_{s}}{{\mathbf{A}}^{H}}+{{\sigma }^{2}}\mathbf{I}Rx​=ARs​AH+σ2I代入
σ2vi=(ARsAH+σ2I)vi{{\sigma }^{2}}{{v}_{i}}\text{=}\left( \mathbf{A}{{R}_{s}}{{\mathbf{A}}^{H}}+{{\sigma }^{2}}\mathbf{I} \right){{v}_{i}}σ2vi​=(ARs​AH+σ2I)vi​
因为AHA∈RK×K{{\mathbf{A}}^{H}}\mathbf{A}\in {{R}^{K\times K}}AHA∈RK×K 满秩矩阵,故(AHA)-1{{\left( {{\mathbf{A}}^{H}}\mathbf{A} \right)}^{\text{-}1}}(AHA)-1 存在,同理 Rs−1{{R}_{s}}^{-1}Rs​−1存在,将上式左右两边同时乘以Rs−1(AHA)-1AHR_{s}^{-1}{{\left( {{\mathbf{A}}^{H}}\mathbf{A} \right)}^{\text{-}1}}{{\mathbf{A}}^{H}}Rs−1​(AHA)-1AH 有
Rs−1(AHA)-1AHARsAHvi=0R_{s}^{-1}{{\left( {{\mathbf{A}}^{H}}\mathbf{A} \right)}^{\text{-}1}}{{\mathbf{A}}^{H}}\mathbf{A}{{R}_{s}}{{\mathbf{A}}^{H}}{{v}_{i}}=0Rs−1​(AHA)-1AHARs​AHvi​=0即
AHvi=0i=K+1,K+2,⋯,M\mathbf{A}^{H} v_{i}=0 \quad i=K+1, K+2, \cdots, MAHvi​=0i=K+1,K+2,⋯,M
通过上式可以看出,噪声特征值所对应的特征向量(称为噪声特征向量)vi{{v}_{i}}vi​与矩阵 A\mathbf{A}A的列向量正交,而 A\mathbf{A}A的各列是与信号源的方向相对应的,用各噪声特征向量构造噪声矩阵En{{E}_{n}}En​ ,其中
En={vK+1,vK+2,⋯,vM}{{E}_{n}}=\left\{ {{v}_{K+1}},{{v}_{K+2}},\cdots ,{{v}_{M}} \right\}En​={vK+1​,vK+2​,⋯,vM​}
将上述过程可以总结为:通过对协方差矩阵进行特征值分解,将矩阵RxR_{x}Rx​的特征值进行从大到小排序,λ1≥λ2≥⋯≥λM{{\lambda }_{1}}\ge {{\lambda }_{2}}\ge \cdots \ge {{\lambda }_{M}}λ1​≥λ2​≥⋯≥λM​ ,其中 KKK较大的特征值对应信号,M−KM-KM−K 较小的特征值对应噪声。将 KKK个较大特征值对应的特征向量张成的子空间称为信号子空间 Ωs{{\Omega }_{s}}Ωs​,M−KM-KM−K个较小的特征值对应的特征向量张成的子空间称为噪声子空间 ΩN{{\Omega }_{N}}ΩN​,即
{Ωs=span⁡{v1,v2,⋯,vK}ΩN=span⁡{vK+1,vK+2,⋯,vM}\left\{\begin{array}{l} \Omega_{s}=\operatorname{span}\left\{v_{1}, v_{2}, \cdots, v_{K}\right\} \\ \Omega_{N}=\operatorname{span}\left\{v_{K+1}, v_{K+2}, \cdots, v_{M}\right\} \end{array}\right.{Ωs​=span{v1​,v2​,⋯,vK​}ΩN​=span{vK+1​,vK+2​,⋯,vM​}​
因为各个特征向量相互正交,故可以得到Ωs⊥ΩN{{\Omega }_{s}}\bot {{\Omega }_{N}}Ωs​⊥ΩN​ ,而的各列是与信号源的方向相对应的,显然有a(θk)⊥ΩNa\left( {{\theta }_{k}} \right)\bot {{\Omega }_{N}}a(θk​)⊥ΩN​ 。
定义空间谱
P(θ)=1aH(θ)EnEnHa(θ)=1∥EnHa(θ)∥22P\left( \theta \right)=\frac{1}{{{a}^{H}}\left( \theta \right){{E}_{n}}{{E}_{n}}^{H}a\left( \theta \right)}=\frac{1}{\left\| {{E}_{n}}^{H}a\left( \theta \right) \right\|_{2}^{2}} P(θ)=aH(θ)En​En​Ha(θ)1​=∥∥​En​Ha(θ)∥∥​22​1​
当 a(θ)a\left( \theta \right)a(θ)与 En{{E}_{n}}En​各列正交时,该分母为零,但由于噪声的存在,它实际上为一最小值,因此P(θ)P(\theta)P(θ) 有一尖峰值,使θ\thetaθ变化,通过寻找波峰来估计波达方向。
Music算法的步骤为
1):根据 个接收信号矢量得到下面协方差矩阵的估计值Rx=1L∑l=1LX(l)XH(l){{R}_{x}}=\frac{1}{L}\sum\limits_{l=1}^{L}{\mathbf{X}\left( l \right){{\mathbf{X}}^{H}}\left( l \right)}Rx​=L1​l=1∑L​X(l)XH(l) ;
2):按特征值的大小排序将与信号个数KKK相等的特征值和对应的特征向量看作信号部分空间,将剩下的 M−KM-KM−K个特征值和特征向量看作噪声部分空间,得到噪声矩阵En{{E}_{n}}En​ ;
3):使 θ\thetaθ变化,寻找 P(θ)P(\theta)P(θ)的峰值,即为信源方向。
MUSIC算法的提出开创了空间谱估计算法研究的新时代,促进了特征结构类算法的兴起和发展,该算法已成为空间谱估计理论体系中的标志性算法。此算法提出之前的有关算法都是针对阵列接收数据协方差矩阵进行直接处理,而MUSIC算法的基本思想则是对任意阵列输出数据的协方差矩阵进行特征分解,从而得到与信号分类相对应的信号子空间和与信号分量相正交的噪声子空间,然后利用这两个子空间的正交性构造空间谱函数,通过谱峰搜索,检测信号的DOA。
正是由于MUSIC算法在特定的条件下具有很高的分辨力、估计精度及稳定性,从而吸引了大量的学者对其进行深入的研究和分析。总的来说,它用于阵列的波达方向估计有以下一些突出的优点:
 多信号同时测向能力
 高精度测向
 对天线波束内的信号的高分辨测向
 可适用于短数据情况
 采用高速处理技术后可实现实时处理

3.2基于四阶累积量的Music算法

阵列输出的信号的矩阵表达形式为
X=AS+N\mathbf{X}=\mathbf{AS+N}X=AS+N
其四阶累积量矩阵为
Cx=E{((AS+N)⊗(AS+N)∗)((AS+N)⊗X∗)H}−E{((AS+N)⊗(AS+N)∗)}E{((AS+N)⊗(AS+N)}}(AS+N)∗)H}−E{((AS+N)(AS+N)H)}⊗E{((AS+N)(AS+N)H)∗}\begin{array}{l} C_{x}=E\left\{\left((\mathbf{A} \mathbf{S}+\mathbf{N}) \otimes(\mathbf{A} \mathbf{S}+\mathbf{N})^{*}\right)\left((\mathbf{A} \mathbf{S}+\mathbf{N}) \otimes \mathbf{X}^{*}\right)^{H}\right\} \\ -E\left\{\left((\mathbf{A} \mathbf{S}+\mathbf{N}) \otimes(\mathbf{A} \mathbf{S}+\mathbf{N})^{*}\right)\right\} E\{((\mathbf{A} \mathbf{S}+\mathbf{N}) \otimes(\mathbf{A} \mathbf{S}+\mathbf{N})\}\}(\mathbf{A} \mathbf{S}+ \\ \left.\left.\mathbf{N})^{*}\right)^{H}\right\}-E\left\{\left((\mathbf{A} \mathbf{S}+\mathbf{N})(\mathbf{A} \mathbf{S}+\mathbf{N})^{H}\right)\right\} \otimes E\left\{\left((\mathbf{A} \mathbf{S}+\mathbf{N})(\mathbf{A} \mathbf{S}+\mathbf{N})^{H}\right)^{*}\right\} \end{array}Cx​=E{((AS+N)⊗(AS+N)∗)((AS+N)⊗X∗)H}−E{((AS+N)⊗(AS+N)∗)}E{((AS+N)⊗(AS+N)}}(AS+N)∗)H}−E{((AS+N)(AS+N)H)}⊗E{((AS+N)(AS+N)H)∗}​
同时为了简化式上式的表述,根据Kronecker 乘积的性质可以得到
Cs=E{(S⊗S∗)(S⊗S∗)H}−E{(S⊗S∗)}E{(S⊗S∗)H}−E{(SS∗)}⊗E{(SS∗)H}\begin{array}{c} C_{s}=E\left\{\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)^{H}\right\}-E\left\{\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)\right\} E\left\{\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)^{H}\right\} \\ -E\left\{\left(\mathbf{S S}^{*}\right)\right\} \otimes E\left\{\left(\mathbf{S S}^{*}\right)^{H}\right\}\end{array}Cs​=E{(S⊗S∗)(S⊗S∗)H}−E{(S⊗S∗)}E{(S⊗S∗)H}−E{(SS∗)}⊗E{(SS∗)H}​

CN=E{(N⊗N∗)(N⊗N∗)H}−E{(N⊗N∗)}E{(N⊗N∗)H}−E{(NN∗)}⊗E{(NN∗)H}\begin{array}{c}C_{N}=E\left\{\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)^{H}\right\}-E\left\{\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)\right\} E\left\{\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)^{H}\right\} \\ -E\left\{\left(\mathbf{N} \mathbf{N}^{*}\right)\right\} \otimes E\left\{\left(\mathbf{N} \mathbf{N}^{*}\right)^{H}\right\} \end{array}CN​=E{(N⊗N∗)(N⊗N∗)H}−E{(N⊗N∗)}E{(N⊗N∗)H}−E{(NN∗)}⊗E{(NN∗)H}​

Cx=(A⊗A∗)E{(S⊗S∗)(S⊗S∗)H}(A⊗A∗)H+E{(N⊗N∗)(N⊗N∗)H}−(A⊗A∗)E{(S⊗S∗)}E{S)⊗S∗)H}(A⊗A∗)H−E{(N⊗N∗)}E{(N⊗N∗)H}−(A⊗A∗)E{(SS∗)}⊗E{(SS∗)H}(A⊗A∗)H−E{(NN∗)}⊗E{(NN∗)H}\begin{array}{l} C_{x}=\left(\mathbf{A} \otimes \mathbf{A}^{*}\right) E\left\{\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)^{H}\right\}\left(\mathbf{A} \otimes \mathbf{A}^{*}\right)^{H}+ \\ E\left\{\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)^{H}\right\}-\left(\mathbf{A} \otimes \mathbf{A}^{*}\right) E\left\{\left(\mathbf{S} \otimes \mathbf{S}^{*}\right)\right\} E\{\mathbf{S}) \\ \left.\left.\otimes \mathbf{S}^{*}\right)^{H}\right\}\left(\mathbf{A} \otimes \mathbf{A}^{*}\right)^{H}-E\left\{\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)\right\} E\left\{\left(\mathbf{N} \otimes \mathbf{N}^{*}\right)^{H}\right\}-(\mathbf{A} \\ \left.\otimes \mathbf{A}^{*}\right) E\left\{\left(\mathbf{S S}^{*}\right)\right\} \otimes E\left\{\left(\mathbf{S S}^{*}\right)^{H}\right\}\left(\mathbf{A} \otimes \mathbf{A}^{*}\right)^{H}-E\left\{\left(\mathbf{N} \mathbf{N}^{*}\right)\right\} \\ \otimes E\left\{\left(\mathbf{N} \mathbf{N}^{*}\right)^{H}\right\} \end{array}Cx​=(A⊗A∗)E{(S⊗S∗)(S⊗S∗)H}(A⊗A∗)H+E{(N⊗N∗)(N⊗N∗)H}−(A⊗A∗)E{(S⊗S∗)}E{S)⊗S∗)H}(A⊗A∗)H−E{(N⊗N∗)}E{(N⊗N∗)H}−(A⊗A∗)E{(SS∗)}⊗E{(SS∗)H}(A⊗A∗)H−E{(NN∗)}⊗E{(NN∗)H}​
其中 Cs{{C}_{s}}Cs​和 CN{{C}_{N}}CN​分别是信号源和噪声的四阶累积量矩阵。
令R=A⊗A∗R=\mathbf{A}\otimes {{\mathbf{A}}^{*}}R=A⊗A∗ ,则接收信号的四阶累积量矩阵可以表示为
Cx=RCsRH+CN{{C}_{x}}=R{{C}_{s}}{{R}^{H}}+{{C}_{N}}Cx​=RCs​RH+CN​
对 Cx{{C}_{x}}Cx​进行特征值分解,并将其特征值从大到小排列为 λ1≥λ2≥⋯≥λM2{{\lambda }_{1}}\ge {{\lambda }_{2}}\ge \cdots \ge {{\lambda }_{{{M}^{2}}}}λ1​≥λ2​≥⋯≥λM2​,对应的特征向量分别为μ1,μ2,⋯,μM2{{\mu }_{1}},{{\mu }_{2}},\cdots ,{{\mu }_{{{M}^{2}}}}μ1​,μ2​,⋯,μM2​ 。因为rank(RCsRH)=K2rank\left( R{{C}_{s}}{{R}^{H}} \right)={{K}^{2}}rank(RCs​RH)=K2 ,所以和MUSIC算法类似, Cx{{C}_{x}}Cx​有 K2{{K}^{2}}K2较大的特征值和M2−K2{{M}^{2}}-{{K}^{2}}M2−K2 较小的特征值。同时将小特征值对于的特征向量张成的空间称为噪声子空间,即
ΩN=span{μK2+1,μK2+2,⋯,μM2}{{\Omega }_{N}}=span\left\{ {{\mu }_{{{K}^{2}}+1}},{{\mu }_{{{K}^{2}}+2}},\cdots ,{{\mu }_{{{M}^{2}}}} \right\}ΩN​=span{μK2+1​,μK2+2​,⋯,μM2​}
同时定义信号子空间为
Ωs=span{(a(θ1)⊗a∗(θ1)),(a(θ2)⊗a∗(θ2)),⋯,(a(θK)⊗a∗(θK))}{{\Omega }_{s}}=span\left\{ \left( a\left( {{\theta }_{1}} \right)\otimes {{a}^{*}}\left( {{\theta }_{1}} \right) \right),\left( a\left( {{\theta }_{2}} \right)\otimes {{a}^{*}}\left( {{\theta }_{2}} \right) \right),\cdots ,\left( a\left( {{\theta }_{K}} \right)\otimes {{a}^{*}}\left( {{\theta }_{K}} \right) \right) \right\}Ωs​=span{(a(θ1​)⊗a∗(θ1​)),(a(θ2​)⊗a∗(θ2​)),⋯,(a(θK​)⊗a∗(θK​))}
由于信号子空间和噪声子空间相互正交,所以可以得到正交条件为
RHμi=0i=K2+1,K2+2,⋯,M2{{R}^{H}}{{\mu }_{i}}=0\ \ \ \ \ \ i={{K}^{2}}+1,{{K}^{2}}+2,\cdots ,{{M}^{2}}RHμi​=0      i=K2+1,K2+2,⋯,M2
定义噪声矩阵
En={μK2+1,μK2+2,⋯,μM2}{{E}_{n}}=\left\{ {{\mu }_{{{K}^{2}}+1}},{{\mu }_{{{K}^{2}}+2}},\cdots ,{{\mu }_{{{M}^{2}}}} \right\}En​={μK2+1​,μK2+2​,⋯,μM2​}
则基于四阶累积量矩阵的MUSIC算法可以表示为
P(θ)=1∥EnH⋅[a(θ)⊗a∗(θ)]∥22P\left( \theta \right)=\frac{1}{\left\| E_{n}^{H}\centerdot \left[ a\left( \theta \right)\otimes {{a}^{*}}\left( \theta \right) \right] \right\|_{2}^{2}}P(θ)=∥EnH​⋅[a(θ)⊗a∗(θ)]∥22​1​
因此基于四阶累积量的Music算法的步骤可以总结如下:
1) 根据各阵元收到的信号构造复解析形式,从而得到矩阵X\mathbf{X}X ;
2) 求矩阵X\mathbf{X}X 的四阶累积量矩阵Cx{{C}_{x}}Cx​ ;
3) 对 Cx{{C}_{x}}Cx​进行特征分解,计算四阶累积量的空间谱;
4) 搜索谱峰就可以得到信源方向。
基于四阶累积量的MUSIC算法与MUSIC算法类似,但是不同之处在于利用四阶累积量矩阵代替原始的协方差矩阵,将原始的导向矢量换成导向矢量的Kronecker积,虽然在计算量上有所增加,但是却能对高斯噪声进行很好地抑制,达到更好的超分辨性能。

3.3基于四阶累积量的Music-like算法

由上文的叙述可以了解到,阵列的接收矢量 X\mathbf{X}X的秩与信号源个数相等,并且为KKK,满足K≤MK\le MK≤M ,因此可以得到矩阵X⊗X∗\mathbf{X}\otimes {{\mathbf{X}}^{*}}X⊗X∗的秩满足rank(X⊗X∗)≤K2rank\left( \mathbf{X}\otimes {{\mathbf{X}}^{*}} \right)\le {{K}^{2}}rank(X⊗X∗)≤K2 ,所以可以估计的信源数目至少为M2−K2{{M}^{2}}-{{K}^{2}}M2−K2 ,通过对 Cx{{C}_{x}}Cx​进行特征分解,并将特征值按从小到大进行排序为 λ1,λ2,⋯,λM2{{\lambda }_{1}},{{\lambda }_{2}},\cdots ,{{\lambda }_{{{M}^{2}}}}λ1​,λ2​,⋯,λM2​,对应特征向量为e1,e2,⋯,eM2{{\mathbf{e}}_{1}},{{\mathbf{e}}_{2}},\cdots ,{{\mathbf{e}}_{{{M}^{2}}}}e1​,e2​,⋯,eM2​ ,其信号子空间Ωs=span{e1,e2,⋯,eK}=span{b(θ1),b(θ2),⋯,b(θK)}{{\Omega }_{s}}=span\left\{ {{\mathbf{e}}_{1}},{{\mathbf{e}}_{2}},\cdots ,{{\mathbf{e}}_{K}} \right\}\text{=}span\left\{ \mathbf{b}\left( {{\theta }_{1}} \right),\mathbf{b}\left( {{\theta }_{2}} \right),\cdots ,\mathbf{b}\left( {{\theta }_{K}} \right) \right\}Ωs​=span{e1​,e2​,⋯,eK​}=span{b(θ1​),b(θ2​),⋯,b(θK​)}和噪声子空间 ΩN=span{eK+1,eK+2,⋯,eM2}{{\Omega }_{N}}=span\left\{ {{\mathbf{e}}_{K+1}},{{\mathbf{e}}_{K+2}},\cdots ,{{\mathbf{e}}_{{{M}^{2}}}} \right\}ΩN​=span{eK+1​,eK+2​,⋯,eM2​},利用信号子空间Ωs{{\Omega }_{s}}Ωs​和噪声子空间ΩN{{\Omega }_{N}}ΩN​的正交性,可以得到MUSIC-like的空间谱为P(θ)=1∥bH(θ)EN∥22P\left( \theta \right)=\frac{1}{\left\| {{\mathbf{b}}^{H}}\left( \theta \right){{\mathbf{E}}_{N}} \right\|_{2}^{2}}P(θ)=∥bH(θ)EN​∥22​1​

其中b(θ)=a(θ)⊗a∗(θ)\mathbf{b}\left( \theta \right)=\mathbf{a}\left( \theta \right)\otimes \mathbf{a}^*\left( \theta \right)b(θ)=a(θ)⊗a∗(θ),EN{{\mathbf{E}}_{N}}EN​为噪声子空间,P(θ)P\left( \theta \right)P(θ)的 KKK个极大值点对应的角度位置即为DOA角度。Music-like 算法扩展阵列示意图如下

四、算法仿真

这里简单给出MUSIC-like算法和Music算法的对比,(基于四阶累积量的Music算法与MUSIC-like算法基本相同,这里就不再具体仿真,想仿真的只需要简单改下代码即可)
实验参数设置

参数名称 参数值
阵元数 5
阵元间距 λ/2\lambda/2λ/2
信源数目 3
信源角度 θ1=−40,θ2=−5,θ3=30\theta_1=-40,\theta_2=-5,\theta_3=30θ1​=−40,θ2​=−5,θ3​=30
信噪比 10dB
快拍数 512

在上述仿真条件下,给出两者的对比如下

从图中可以看出,两者均能较好地区分出信号的DOA,同时将信源变成5个,此时的Music算法以及失效,但是由于Music-like算法的阵元扩展效果,依然能够分辨出信号的波达方向,其结果如下图所示

关于四阶累积量,其实有很多种定义,不同定义得到的结果可能不尽相同,文中只给出一种表示方法。同样地,也可以利用MATLAB高阶谱分析工具箱(HOSA)进行计算,这里就不再叙述

代码

clear;
close all;
clc;
derad = pi/180;        % 角度变弧度
radeg = 180/pi;         %弧度变角度
twpi = 2*pi;               %2π
%%参数设置
M=5;             %阵元数
snap=512;         %信号长度、快拍数
dd=0.5;             %阵元间距
d=0:dd:(M-1)*dd;
snr=10;           %信噪比
K=5;                %信源数
theta_range = 10;
% theta = (-theta_range:2*theta_range/(K-1):theta_range);
theta=[-40 -15 10 30 45];  %待估计的DOA
A=exp(-1i*twpi*d.'*sin(theta*derad));   %导向矢量矩阵
fs=pi/4;                              %产生非高斯信号的参数
w1=1:1/(K-1):2;
w=w1*fs;%信号频率
w=w.';
Pm1=0;   %初始化MUSIC谱
Pm2=0;   %初始化MUSIC-like谱
iter=10;     %循环次数
for i=1:iterfor k=1:K                    %产生信号r(k)=2*pi*randn();   %产生随机相位S(k,:)=10^(snr/20)*exp(j*w(k)*[0:snap-1]+r(k));endnoise=(randn(M,snap)+1i*randn(M,snap))*sqrt(0.5);       %产生具有单位方差的噪声X=A*S+noise;      %产生阵列接收数据Rxx=X*X'/snap;   %协方差矩阵[EV,D]=eig(Rxx);                   %特征值分解,从小到大EVA=diag(D)';                      %将特征值矩阵对角线提取并转为一行[EVA,I]=sort(EVA);                 %将特征值排序 从小到大EV=fliplr(EV(:,I));                % 对应特征矢量排序En1=EV(:,K+1:M);                   % 取矩阵的第K+1到M列组成噪声子空间%% MUSIC-LIKE 算法C4=(kron(X,conj(X))*(kron(X,conj(X))'))/snap-kron(X,conj(X))/snap*kron(X,conj(X))'/snap-...kron(X*X'/snap,conj(X*X'/snap));  % 四阶累积量计算[V,D] = svd(C4);  % 奇异值分解En2 = V(:,K+1:M^2);  % 噪声子空间%%空间谱计算ang=-90:0.1:90;for ii=1:length(ang)a=exp(-1j*twpi*d.'*sin(ang(ii)*derad));Pmusic1(ii)=1/abs(a'*En1*En1'*a);     %MUSIC谱b = kron(a,conj(a));  % 扩展后的导向矢量Pmusic2(ii)=1/abs(b'*En2*En2'*b);endPm1=Pm1+10*log10(Pmusic1);Pm2=Pm2+10*log10(Pmusic2);end
Pm1=Pm1/iter;
Pm2=Pm2/iter;
Pm1=Pm1/max(Pm1);
Pm2=Pm2/max(Pm2);
figure(1);
plot(ang,Pm1,'b','linewidth',1.2);
hold on;
grid on;
plot(ang,Pm2,'r','linewidth',1.2);
xlabel('\theta(\circ)')
ylabel('空间谱')
legend('Music','Music-like');

参考文献:
[1]高阶统计量,百度百科
[2]高阶统计量,搜狗百科
[3]较为详细的MUSIC算法原理及MATLAB实现
[4]廖春艳. 基于二阶和高阶统计量DOA估计算法的对比[J]. 长沙大学学报, 2012(02):18-20.
[5]王静. 基于高阶累积量与稀疏约束的DOA估计方法[D]. 电子科技大学.
[6]朱敏,何培宇.一种新的基于四阶累积量的DOA估计算法[J].四川大学学报(自然科学版),2011,48(2):343-348.
[7]刁鸣,吴小强,李晓刚.基于四阶累积量的测向方法研究[J].系统工程与电子技术,2008,30(2):226-228.
[8]武思军,张锦中,张曙.基于四阶累积量进行阵列扩展的算法研究[J].哈尔滨工程大学学报,2005,26(3):394-397.

基于四阶累积量的MUSIC算法与MUSIC-like算法(DOA估计)相关推荐

  1. 高阶累积量四阶矩_基于四阶累积量的LCMV自适应波束形成算法

    任培林 摘要 基于四阶累积量的线性约束最小方差(LCMV)算法的自适应形成波束,通过四噪声阶累积量中所含的冗余成分构建虚拟阵元,避免了相关高斯噪声的影响,保证了方向图能在期望信号方向增益最大,干扰方向 ...

  2. matlab实现盖尔圆,一种结合四阶累积量与盖尔圆改进的信号源个数估计方法与流程...

    本发明涉及空间谱研究中信号源估计的技术领域,特别涉及一种结合四阶累积量与盖尔圆改进的信号源个数估计方法. 背景技术: 波达方向(DOA)估计算法是目前空间谱研究领域的一个热点问题,然而在实际情形下,波 ...

  3. 基于空间平滑MUSIC算法的相干信号DOA估计(1)

    空间平滑MUSIC算法(1) 1. 前言 在上一篇博客中有提到,当多个入射信号相干时,传统MUSIC算法的效果就会不理想.具体原因是多个入射信号相干时,有部分能量就会散发到噪声子空间,使得MUSIC算 ...

  4. 基于matlab的相干信号的doa 估计,基于空间平滑MUSIC算法的相干信号DOA估计(1)

    基于空间平滑MUSIC算法的相干信号DOA估计(1) 基于空间平滑MUSIC算法的相干信号DOA估计(1) 空间平滑MUSIC算法(1) 在上一篇博客中有提到,当多个入射信号相干时,传统MUSIC算法 ...

  5. 一种基于伪标签半监督学习的小样本调制识别算法

    一种基于伪标签半监督学习的小样本调制识别算法 人工智能技术与咨询 来源:<西北工业大学学报>,作者史蕴豪等 摘 要:针对有标签样本较少条件下的通信信号调制识别问题,提出了一种基于伪标签半监 ...

  6. 基于癌症基因组学数据的miRNA 功能模块识别算法研究

    题目: 基于癌症基因组学数据的miRNA 功能模块识别算法研究 摘要: 大量研究表明miRNA 的异常表达与癌症的发生.发展有关,且miRNA 通常以组合的 方式发挥其协同调控作用.因此,研究miRN ...

  7. 基于中间代码的优化中,循环的查找算法有哪些?循环优化的方法有哪些?举例说明。

    基于中间代码的优化中,循环的查找算法有哪些?循环优化的方法有哪些?举例说明. 基于中间代码的优化中,循环的查找算法有哪些?循环优化的方法有哪些?举例说明. 西北工业大学编译原理课件第八章 代码优化.p ...

  8. 【频谱共享】基于认知无线电的VCG拍卖机制频谱共享算法的MATLAB仿真

    目录 1.软件版本 2.本算法理论知识点 3.算法具体理论 4.部分核心代码 5.仿真演示 6.本算法写论文思路 7.参考文献 8.相关算法课题及应用 1.软件版本 matlab2021a 2.本算法 ...

  9. DL之DCGAN:基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成

    DL之DCGAN:基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成 目录 基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成 设计思路 ...

  10. 基于PyTorch重写sklearn,《现代大数据算法》

    HyperLearn是一个基于PyTorch重写的机器学习工具包Scikit Learn,它的一些模块速度更快.需要内存更少,效率提高了一倍. 专为大数据而设计,HyperLearn可以使用50%以下 ...

最新文章

  1. (转载)linux下输入输出重定向和管道符
  2. pycharms怎么看文件被什么引用_办公室文件柜怎么选,选购文件柜有什么窍门
  3. 史上最大内存!曝iPhone 14 Pro系列运行内存将增至8GB
  4. jquery获取radio值
  5. android view 屏幕外,安卓如何让View往屏幕外隐藏?
  6. 关于软件开发的一些常识和思考
  7. Camtasia 2021mac版
  8. JdbcUtils针对事务问题作出的第三次修改
  9. JavaScript---BOM和DOM
  10. Python3 语法之函数思维导图
  11. 5 --> radius 协议原理解析
  12. 计算机的装机配件,京东买的配件怎么装机自己组装教程
  13. oracle增加字段为主键自增_Oracle新增自增一的主键字段和赋值代码
  14. 深入理解Guava的异步回调模式
  15. 《Hibernate上课笔记》----class4----Hibernate继承关系映射实现详解
  16. COB小间距的工艺技术,cob小间距相比常规表贴(SMD)小间距有何优势?
  17. python 选择排序 快速排序
  18. 操作系统之虚拟化CPU(一)介绍
  19. 云服务器和虚拟主机的区别是什么
  20. 【c3p0】A PooledConnection that has already signalled a Connection error is still in use!

热门文章

  1. Linux界面介绍及基础知识
  2. 单片机c语言仿真,单片机c语言教程:C51表达式语句及仿真器
  3. 解决Linux下路径过长一行无法显示的问题
  4. 思考小型管理软件的诸多问题:附美萍部分客户的销售统计表
  5. 深入浅出设计模式---6、装饰者模式
  6. 《C语言入门经典》读后感(一)
  7. 简述写基础java小游戏一般思路。
  8. docx文档怎么排列图片_打开.docx文件的6种方法分享:docx文件怎么打开?
  9. 观周教授新冠报告而作
  10. PMP认证的教材更新到第几版了?