收藏 分销(赏)

基于深度卷积神经网络的DOA估计.pdf

上传人:自信****多点 文档编号:639758 上传时间:2024-01-22 格式:PDF 页数:7 大小:1.11MB
下载 相关 举报
基于深度卷积神经网络的DOA估计.pdf_第1页
第1页 / 共7页
基于深度卷积神经网络的DOA估计.pdf_第2页
第2页 / 共7页
基于深度卷积神经网络的DOA估计.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第2 4卷 第4期空 军 工 程 大 学 学 报V o l.2 4 N o.42 0 2 3年8月J OURNA L O F A I R F O R C E E NG I N E E R I NG UN I V E R S I T YA u g.2 0 2 3收稿日期:2 0 2 3-0 2-2 2基金项目:国家自然科学基金(6 2 0 7 1 4 7 6)作者简介:郭书涵(1 9 9 9-),女,河南安阳人,硕士生,研究方向为雷达信号与信息处理。E-m a i l:g u o s h u h a n 0 3 0 41 6 3.c o m通信作者:胡国平(1 9 6 4-),男,江西南昌人,教

2、授,博士生导师,研究方向为雷达信号与信息处理。E-m a i l:h g p 6 0 6 81 6 3.c o m引用格式:郭书涵,胡国平,赵方正,等.基于深度卷积神经网络的D OA估计J.空军工程大学学报,2 0 2 3,2 4(4):6 2-6 8.GUO S h u h a n,HU G u o p i n g,Z HAO F a n g z h e n g,e t a l.A D OA E s t i m a t i o n B a s e d o n D e e p C o n v o l u t i o n a l N e u r a l N e t w o r kJ.J o u

3、r n a l o f A i r F o r c e E n g i n e e r i n g U-n i v e r s i t y,2 0 2 3,2 4(4):6 2-6 8.基于深度卷积神经网络的D O A估计郭书涵1,2,胡国平1,*,赵方正1,2,周 豪1,张宇乐1,2(1.空军工程大学防空反导学院,西安,7 1 0 0 5 1;2.空军工程大学研究生院,西安,7 1 0 0 5 1)摘要 针对现有均匀线阵远场窄带非相干多目标估计算法对低信噪比、少快拍情况适应性差、运算复杂度高,以及现有深度学习方法难以有效提取数据复值特征的问题,提出基于深度卷积神经网络的波达方向估计方法。该方

4、法将波达方向估计问题转换为阵列输出协方差矩阵到目标到达角度的逆映射问题,利用阵列输出协方差矩阵的H e r m i t i a n特性,提取其上三角阵的实部、虚部及相位特征,构造网络的输入数据,搭建包含三维卷积层的深度卷积神经网络用来提取数据特征,网络的标签对应目标的到达角度,从而实现多个信源的波达方向估计。试验仿真表明:该方法可以充分提取空间特征,提高波达方向估计精度并降低算法复杂度。所提方法在低信噪比、少快拍数的情况下,其估计精度明显优于MU S I C、E S P R I T以及ML算法。关键词 波达方向估计;深度卷积神经网络;协方差矩阵;特征提取D O I 1 0.3 9 6 9/j.

5、i s s n.2 0 9 7-1 9 1 5.2 0 2 3.0 4.0 0 1 0中图分类号 T N 9 5 3 文献标志码 A 文章编号 2 0 9 7-1 9 1 5(2 0 2 3)0 4-0 0 6 2-0 7A D O A E s t i m a t i o n B a s e d o n D e e p C o n v o l u t i o n a l N e u r a l N e t w o r kGUO S h u h a n1,2,HU G u o p i n g1,*,Z HAO F a n g z h e n g1,2,Z HOU H a o1,Z HANG Y

6、u l e1,2(1.A i r a n d M i s s i l e D e f e n s e S c h o o l,A i r F o r c e E n g i n e e r i n g U n i v e r s i t y,X ia n 7 1 0 0 5 1,C h i n a;2.G r a d u a t e S c h o o l,A i r F o r c e E n g i n e e r i n g U n i v e r s i t y,X ia n 7 1 0 0 5 1,C h i n a)A b s t r a c t A i m e d a t t h

7、 e p r o b l e m s t h a t t h e e x i s t i n g U n i f o r m L i n e a r A r r a y(U L A)f a r-f i e l d n a r r o w b a n d n o n-c o h e r e n t m u l t i-t a r g e t e s t i m a t i o n a l g o r i t h m s i s p o o r i n a d a p t a b i l i t y t o l o w S i g n a l-t o-N o i s e R a t i o(S N

8、 R),s m a l l s n a p s h o t s i n a d a p t a b i l i t y,h i g h i n c o m p u t a t i o n a l c o m p l e x i t y,a n d e x i s t i n g D e e p L e a r n i n g(D L)a p-p r o a c h e s a r e d i f f i c u l t t o e f f e c t i v e l y e x t r a c t t h e c o m p l e x-v a l u e d f e a t u r e s

9、o f d a t a,a D i r e c t i o n o f A r r i v a l(D OA)e s t i m a t i o n m e t h o d b a s e d o n D e e p C o n v o l u t i o n N e u r a l N e t w o r k(D C NN)i s p r o p o s e d.T h i s m e t h-o d i s t o t r a n s f o r m t h e D OA e s t i m a t i o n p r o b l e m i n t o a n i n v e r s e

10、 m a p p i n g p r o b l e m f r o m t h e a r r a y o u t p u t c o-v a r i a n c e m a t r i x t o t h e t a r g e t D OA,a n d t o u t i l i z e t h e H e r m i t i a n c h a r a c t e r i s t i c o f t h e a r r a y o u t p u t c o v a r i-a n c e m a t r i x f o r e x t r a c t i n g t h e r e

11、a l p a r t,i m a g i n a r y p a r t,a n d p h a s e c h a r a c t e r i s t i c s o f a n u p p e r t r i a n g u l a r a r r a y,b u i l d i n g i n p u t d a t a o f a n e t w o r k,a n d b u i l d i n g a d e e p c o n v o l u t i o n a l n e u r a l n e t w o r k w i t h a t h r e e-d i-m e n

12、s i o n a l c o n v o l u t i o n l a y e r t o e x t r a c t d a t a f e a t u r e s,a n d t h e l a b e l s o f t h e n e t w o r k c o r r e s p o n d t o t h e D OA s,r e a l i z i n g t h e D OA e s t i m a t i o n o f m u l t i p l e s o u r c e s.T h e e x p e r i m e n t a l s i m u l a t i

13、o n s s h o w t h a t t h e m e t h o d c a n f u l l y e x t r a c t s p a t i a l f e a t u r e s,i m p r o v e D OA e s t i m a t i o n a c c u r a c y a n d r e d u c e t h e c o m p l e x i t y o f t h e a l g o r i t h m.U n d e r c o n d i t i o n o f l o w S N R a n d s m a l l s n a p s h o

14、 t s,t h e e s t i m a t i o n a c c u r a c y o f t h e p r o p o s e d m e t h o d i s s i g n i f i c a n t l y b e t t e r t h a n t h a t o f t h e MU S I C,t h e E S P R I T a n d t h e ML a l g o r i t h m s.K e y w o r d s d i r e c t i o n o f a r r i v a l e s t i m a t i o n;d e e p c o n

15、 v o l u t i o n a l n e u r a l n e t w o r k;c o v a r i a n c e m a t r i x;f e a t u r e e x t r a c t i o n 波达方向(d i r e c t o n o f a r r i v a l,D OA)估计是雷达信号处理中的重要研究内容,D OA估计的基本问题是确定空间内各个信号到达阵列参考阵元的方向角1-2。传统的D OA估计研究方法中的常规波束形成法3(c o n v e n t i o n a l b e a m f o r m i n g,C B F),将传统的傅里叶变换方法

16、应用于空间谱估计,但其角度分辨力受到“瑞利限”影响,由于天线阵列的孔径约束,无法分辨处于同一波束宽度内的多个不同目标。C a p o n提 出 基 于 最 小 均 方 准 则 的 最 小 方 差 法4(m i n i m u m v a r i a n c e m e t h o d,MVM),突破了常规波束形成方法中“瑞利限”的限制,空间分辨力得到提高,但估计精度有限,需要在信噪比较高、快拍数较多的条件下才能达到高精度估计。S c h m i d t5提出的多重信号分类方法(m u l t i p l e s i g n a l c l a s s i f i c a-t i o n,MU

17、S I C)以及R o y和K a i l a t h6提出的旋转不变子空间参数估计法(e s t i m a t i o n o f s i g n a l p a r a m e-t e r s v i a r o t a t i o n a l i n v a r i a n c e t e c h n i q u e s,E S P R I T)是子空间分类法的重要代表。MU S I C方法利用信号子空间和噪声子空间的正交性对接收信号的协方差矩阵进行分解,划分空间进行估计,显著增强了空间谱估计的超分辨能力,大大提高了空间谱估计的精度。E S P R I T方法利用子空间的旋转不变特性得

18、到子阵接收信号的相位差来估计信号角度,其计算复杂度明显低于MU S I C算法,但估计精度较低。上述2种子空间分类在信噪比低、快拍数少、信源相干、模型失配等非理想情况下,协方差矩阵分解得到的信号子空间和噪声子空间都不够准确,使得测向性能显著下降,且矩阵分解计算量巨大。Z i s k i n d和W a x7提 出 的 最 大 似 然(m a x i m u m l i k e l i h o o d,ML)估计法是子空间拟合方法的代表算法之一。这类算法较子空间分类方法,在信噪比低、快拍数少的条件下测向性能稳定,且能够对相干信源进行估计。但此类方法属于多维非线性优化问题,算法复杂度较高。传统的D

19、 OA估计方法总体上是基于模型驱动的,在理想条件下估计精度可以逼近克拉美罗界,然而在存在阵元耦合、幅相误差、阵元位置误差等非理想模型失配的情况时,D OA估计性能显著下降。随着深度学习理论与方法的不断发展,基于深度学习的D OA估计方法也随之发展,并成为D OA估计新的研究方向。深度学习类D OA估计方法基于数据驱动,通过网络模型直接建立阵列接收数据与波达角度之间的映射关系,能够有效解决上述问题,同时其低信噪比、少快拍情况的适应能力、超分辨能力得到了增强,计算复杂度也有所降低。目前,基于深度学习的D OA估计方法大致分为两类。一类是将D OA估计问题转化为神经网络分类问题,将空间角度进行分类,

20、学习网络输入数据与D OA之间的映射关系。例如L i u等人8提出一个两级框架,分别采用多任务自编码器对参数空间进行粗划分以及并行多层分类器进一步划分子区域,该框架以阵列接收数据协方差的实虚部作为输入,然后提取特征,实现阵列误差情况下的高精度测向。葛晓凯等人9基于信号在空域内是稀疏的先验条件,提出一种深度学习网络,将卷积网络和全连接网络相结合,输出为D OA的最大后验概率,实现相干源D OA的近最大似然估计。吴双等人1 0为解决大规模分类问题,将原始标签分解为多个互质类别并分别建立分类器,通过离线训练学习从阵列采样到参数空间的逆映射,最后将小分类器的输出重构为原始o n e-h o t标签。另

21、一类是将D OA估计问题转化为神经网 络 回 归 问 题。例 如Wu等 人1 1将D OA估计作为压缩感知中稀疏线性逆问题,提出了一种从大型训练数据集学习逆变换的深度卷积网络,利用稀疏先验实时、有效地获得信号的D OA。针对现有研究中,基于深度学习的D OA估计大多只考 虑 单 个 或2个 目 标,基 于 此,E l b i r1 2提 出D e e p MU S I C深度学习框架,设计了多个深度卷积神经网络,划分子区域学习阵列接收数据的实虚部特征与其MU S I C空间谱特征的关系以实现多个目标的D OA估计。本文针对均匀线阵远场窄带非相干多目标估计问题,将D OA估计问题转化为神经网络分

22、类问题,将阵列接收协方差矩阵上三角阵的实部、虚部及相位作为网络输入,有效降低了算法的时间复杂度及空间复杂度,搭建了深度卷积神经网络,提取数据特征,并学习数据输入与标签之间的非线性映射关系,从而实现在低信噪比、少快拍情况下的高精度D OA估计。36第4期 郭书涵,等:基于深度卷积神经网络的D OA估计1 信号模型与数据集构建1.1 均匀线阵模型基于传统算法的D OA估计问题,大多通过建立模型给出阵列输出信号矢量及阵列导向矩阵从而得到信源的入射角度k1 3。假设K个远场窄带非相干目标信号源S(t)=s1(t),s2(t),sK(t)T以来波方向=1,2,KT入射至阵元间距为d方向性任意的M阵元均匀

23、线阵。阵列输出信号矢量X(t)=x1(t),x2(t),xM(t)T可表示为:X(t)=Kk=1a(k)sk(t)+N(t)=A()S(t)+N(t)(1)式中:N(t)=n1(t),n2(t),nM(t)T表示均值为0,方差为2的高斯白噪声;a(k)为阵列入射角为k的入射信号的导向矢量;A()为阵列的导向矩阵。a(k)=1,e-j 2 ds i nk,e-j 2(M-1)ds i nkT(2)A()=a(1),a(2),a(K)(3)式中:为信号波长;d为阵元间距。阵列输出X(t)的协方差矩阵为:Rx x=EX(t)XH(t)=A()RsAH()+2I(4)式中:E 表示数学期望;I为单位矩

24、阵。通常来说,空间信源个数要小于阵元数且空间谱具有空间稀疏性。将空域范围-6 0,6 0 划分为N个 间 距 为的 离 散 角 度 的 集 合=1,2,NT,当空间中某个离散角度集合中有信号到达时,其对应位置序号rn=1,否则rn=0。则 离 散 角 度 对 应 位 置 序 号 集 合r=r1,r2,rNT。每个离散角度对应的导向矩阵、信号源、阵列输出可以重新表示为:A()=a(1),a(2),a(N)(5)S(t)=s1(t),s2(t),sN(t)T(6)X(t)=ArTS(t)+N(t)(7)将D OA估计问题转化为阵列输出信号的协方差矩阵到离散集合中对应非零元素位置序号的映射问题。本文

25、采用卷积网络解决D OA估计问题。将阵列输出X(t)协方差矩阵Rx x上三角阵的实部虚部及相位作为卷积神经网络的输入:Rx x=EX(t)XH(t)(8)由于协方差矩阵是正定H e r m i t i a n方阵,因此在训练阶段,可将协方差矩阵Rx x的上三角阵代替方阵进行特征提取,可以有效降低输入数据规模及运算量1 4。将离散角度序号集合r作为网络的输出。测试阶段,输出的离散角度序号集合r的K个最大非零元素位置所对应的离散角度,即待估计信号到达方向的角度值。1.2 数据集的构建本文以信号协方差矩阵的实部、虚部及相位特征构建数据集作为深度学习网络的输入,目标入射范围为-6 0,6 0 ,变化间

26、隔为0.1 遍历,重复1 0 0次,快拍数区间为1 0,5 0 0,信噪比区间为-1 0,2 0,最终产生样本数为1 2 0 1 0 0,即输入数据维度为KK3,输出为1 2 0 11维向量。其中训练集与测试集按照82的比例随机选取。2 网络模型及算法步骤 深度学习中的卷积神经网络是一种具有局部连接、权重共享等特性的深层前馈神经网络,相较全连接前馈网络有更少的参数,主要由卷积层、池化层和全连接层交叉堆叠而成。卷积层是卷积神经网络中最基础、最核心的组成单元,通过卷积核提取输入数据的特征信息;池化层的作用是进行特征选择,降低特征维数,避免过拟合;全连接层在卷积神经网络中起到对样本分类或回归的作用。

27、在卷积神经网络正向传播之后进行误差反向传播,用来修正参数,当训练误差小于设定阈值或者完成迭代后,网络训练完成。本文的算法流程以及深度卷积网络模型如图1所示。图1 算法流程图2.1 深度卷积神经网络模型本文设计的卷积神经网络模型由3个卷积层,连接一个池化层,最后连接3层全连接层组成。模型的训练过程分为前向传播和反向误差传播。2.1.1 卷积层卷积层用于特征提取,具有局部连接和权值共享的性质。每一个神经元通过卷积核与前一层的某46空军工程大学学报2 0 2 3年个局部窗口内的神经元相连,同一特征映射中的神经元所用卷积核相同,同一层中不同的特征映射的神经元所用卷积核不同,不同的卷积核从输入中提取不同

28、特征,卷积后经过激活函数。在卷积层中,第l层的输出特征映射Y(l)p是由所有输入特征映射x(l)d与卷积核w(l)p d卷积之后,加上偏置b(l+1)p所得的Z(l)p,再经过非线性激活函数后得到。卷积层的输出特征映射为:Z(l)p=W(l)p*X(l)+b(l)p=Dd=1w(l)p d*x(l)d+b(l+1)p(9)Y(l)p=f(Z(l)p)(1 0)本文使用的3个卷积层卷积核大小均为33,卷积核较小无法扩大感受野,较大则参数较多、计算量较大,卷积核数量分别为n1、n1和n3。输入数据为协方差矩阵的上三角阵,进行卷积操作前,首先对输入数据进行边界填充,以保留边界特征,根据卷积核的大小选

29、择填充值为2,即在输入数据的上下左右各填充2行(列)数值0。卷积核每次滑动的步长为1,从左到右从上到下依次滑动完成卷积操作。以55的协方差矩阵为例,进行3次卷积示意图如图2所示。图2 卷积操作过程图2(a)中绿色部分为输入的协方差矩阵上三角阵,深度维度分别为数据中的实部、虚部及相位,白色部分为边界填充,填充部分以及进行卷积时的数值缺失,均以数值0补全,仅对原始输入数据的长宽维度进行边界填充。第1次卷积为三维卷积,卷积核大小为333,进行一次卷积之后变为二维卷积,再经2次卷积核大小为33,步长为1的卷积操作后,得到图2(d)。将卷积之后的结果加上偏置再经过激活函数来增强反向传播过程的非线性及收敛

30、性。大多神经网络使用R e L U1 5、S i g m o i d1 6、T a n h1 7等函数作为激活函数,其中R e L U函数1 8能够防止梯度饱和、计算高效且具有很好的稀疏性,但是当输入数据存在负数时,随着训练的推进,部分输入落入硬饱和的区域,参数无法进行正常的更新,该神经元当前参数的梯度将恒为0,导致该神经元永久死亡。而L e a k y R e L U函数在输入为负值时,也有一个很小的梯度以更新参数,避免R e L U函数而可能造成的永久神经死亡,本文选择L e a k y R e L U函数作为卷积层的激活函数,其表达式如下:L e a k y R e L U(x)=x,x

31、0 x,x0=m a x(x,x)(1 1)L e a k y R e L U函数图像如图3所示。图3 L e a k y R e L U激活函数2.1.2 池化层卷积层之后连接池化层,池化层可以降低特征维度,减少数据冗余,避免过拟合,同时使得网络对小的局部形态改变保持特征不变性,以及拥有更大的感受野。池化层不包含需要学习的参数,池化类型一般分为最大池化和平均池化。最大池化是选择每个区域内所有神经元的最大值保留。池化层并不是卷积神经网络必备的操作,由于输入数据规模不会过大,本文仅在3层卷积层之后设计1层最大池化操作进行下采样,池化核的大小为22,池化层的输入数据是经卷积层后输出的上三角阵,将上

32、三角阵无重叠无遗漏地由左至右、由上至下依次划分为22的子区域,保留每个子区域的最大值,三角阵主对角线附近的池化子区域的缺失值做补0处理。以池化层输入为55的上三角阵为例,池化操作过程如图4所示。图4 池化操作过程2.1.3 全连接层在池化层之后连接一层全连接层,全连接层的每个神经元都与上一层池化层的所有输出相连,将二维特征映射转化为一维向量。之前的卷积、池化56第4期 郭书涵,等:基于深度卷积神经网络的D OA估计等操作将原始数据映射到隐藏层特征空间来提取特征,全连接层则将特征空间映射到样本标记空间来组合特征,实现分类或回归。全连接层可以看作特殊的卷积层,其输出为:z(l)=W(l)a(l-1

33、)+b(l)(1 2)a(l)=f(z(l)(1 3)2.2 反向传播在卷积神经网络中,需要学习的参数为卷积核中的权重及偏置,池化层中不包含需要更新的参数,可以通过误差反向传播算法1 9更新卷积层的参数,使得网络输出与实际标签完全匹配。采用梯度下降法计算卷积层中参数的梯度,对每一层的误差进行反向传播,并再次更新梯度,直至网络目标函数收敛。卷积神经网络模型误差反向传播流程为:1)计算全连接层误差项并根据误差项计算权重梯度公式。根据一层的误差(l)计算其前一层l-1层误差(l-1),递推公式为:(l-1)=(W(l)T(l)f(z(l-1)(1 4)式中:W为权重矩阵;f为激活函数;z表示正向传播

34、时激活函数的输入;运算表示H a d a m a r d积。2)由误差项计算权重梯度和偏置梯度计算公式分别为:EW=(l)(x(l-1)T(1 5)Eb=(l)(1 6)式中:x(l-1)表示(l-1)层的输入向量;E表示损失函数。3)由于池化层未加激活函数,因此在该层仅需将误差项传播到前一层。首先将误差矩阵还原为池化前的大小,即恢复原来各子区域,其次对于最大池化,将误差值放在前向传播时记录的最大值位置处。4)计算卷积层反向传播误差,递推公式为:(l-1)m,n=(l)x(l)m,nx(l-1)m,n=(l)*r o t 1 8 0(w(l)m,n)(x(l-1)m,n)(1 7)式中:*表示

35、卷积运算;(m,n)表示卷积运算时的起始坐标。5)计算卷积核权重梯度和偏置梯度,分别为:Ew(l)m,n=(l)*r(x(l-1)m,n)T(1 8)Ebl=mm(l)(1 9)6)计算一个批次内各权重梯度和偏置梯度之和,根据梯度下降法对权重和偏置进行更新:Wl=Wl-b a t c hEwl(2 0)bl=bl-b a t c hEbl(2 1)在前向传播后在进行反向传播,以修正卷积神经网络的卷积核和全连接层参数,直到到达指定的迭代次数。2.3 本文算法及对比算法本文采用MU S I C算法、E S P R I T算法以及ML算法与所提基于深度卷积神经网络的D OA估计算法进行对比。MU S

36、 I C算法是对阵列输出的协方差矩阵进行特征分解,利用信号子空间和噪声子空间的正交性进行划分空间,构造空间谱函数,搜索其谱峰实现D OA估计。E S P R I T算法利用子空间的旋转不变性,不需要进行谱峰搜索,大幅降低了运算复杂度。ML算法是通过选定未知参数以最大化似然函数,似然函数为观测所得信号的含有未知参数的条件概率密度函数,求得似然函数最大的解实现对未知参数的估计。以上方法在低信噪比、少快拍的情况下适应性差、运算复杂度高,本文设计的基于深度卷积的D OA估计方法在此类情况下能够有效提高D OA估计性能。具体步骤见表1。表1 基于深度卷积神经网络的D O A估计算法步骤输入:均匀线阵阵列

37、协方差矩阵上三角阵的实部、虚部及 相位;输出:多个目标的D OA。1.计算阵列输出协方差矩阵Rx x的上三角阵;2.提取上三角阵的实部、虚部及相位特征构成KK3 维矩阵X;3.将矩阵X输入训练好的深度卷积神经网络,得到网络 的输出向量Y;4.取输出向量Y中K个最大非零元素位置所对应的离 散角度,即待估计信号到达方向的角度值。3 仿真实验及结果分析本文实验环境为M a t l a b 2 0 2 0 b,实现MU S I C算法、E S P R I T算法、ML算法以及本文所提基于深度卷积神经网络的D OA估计方法,对比分析不同方法不同条件下的估计性能。仿真条件为理想条件下8阵元的均匀线阵,阵元

38、间距为/2,为信号波长,目标信源为3个独立的远场窄带信号,目标入射范围为-6 0,6 0。其中MU S I C算法和ML算法谱峰搜索步进为0.1,深度卷积网络离散角度间隔=0.1,激活函数L e a k y R e L U中参数=0.1。本文采用蒙特卡洛法统计模拟对比不同算法不同条件下的D OA估计精度,估计精度性能使用均方误差来评估,均方根误差公式为:66空军工程大学学报2 0 2 3年RMS E=1NKNi=1Kj=1(i j-i j)2(2 3)式中:N为蒙特卡洛试验次数;K为目标信源个数,i j和i j分别为第i次测得的第j个目标的D OA估计值和真实值。3.1 信噪比对D O A估计

39、精度的影响该对比试验条件为3个目标入射角为-2 0、1 0 和4 0,快拍数为2 5 6,信噪比区间为-1 0,2 0,变化间隔取1 d B。对比MU S I C算法、E S P R I T算法、ML算法以及本文方法,在其他参数相同,仅信噪比不同情况的下D OA估计精度,仿真并计算4种方法1 0 0 0次蒙特卡洛重复实验的均方误差,RM S E随信噪比变化关系如图5所示。图5 信噪比对D OA估计精度的影响由仿真结果可以看出:随着信噪比的增大,各算法的RM S E均减小,当信噪比增大到5 d B后,各算法RM S E减小的趋势均趋于平缓;4种算法中,E S P R I T算法的D OA估计精度

40、受信噪比影响较大,在信噪比较小的情况下,ML算法的估计精度较高,但随着信噪比增大,在信噪比达到5 d B后,其估计精度提升趋于平缓,估计精度较差;本文所提基于深度卷积网络的D OA估计方法,在信噪比在-1 05 d B区间内的RM S E远小于其他3种算法,且在信噪比超过-5 d B后,RM S E随信噪比变化不敏感。因此,在相同信噪比,尤其是信噪比较低的情况下,本文所提方法的性能较其他算法更加优良。3.2 快拍数对D O A估计精度的影响该对比试验条件为3个目标入射角为-2 0、1 0 和4 0,信噪比为1 0 d B,快拍数区间为1 0,5 0 0,变化间隔取1 0。对比MU S I C算

41、法、E S P R I T算法、ML算法以及本文方法,在其他参数相同,仅快拍数不同情况的下D OA估计精度,仿真并计算4种方法1 0 0 0次蒙特卡洛重复实验的均方误差,RM S E随快拍数变化关系如图6所示。图6 快拍数对D OA估计精度的影响由仿真结果可以看出:随着快拍数的增大,各算法的RM S E均减小,且在快拍数1 02 0变化时,各算法的RM S E显著减小,在快拍数大于5 0后,各算法的RM S E减小的趋势均趋于平缓;E S P R I T算法的D OA估计精度受快拍数影响较大,在快拍数大于5 0后,MU S I C算法与E S P R I T算法D OA估计精度相当;本文方法在

42、仿真实验设置的快拍数区间1 0,5 0 0 内,其RM S E均小于其他3种算法,且在快拍数超过1 5 0后,RM S E随快拍数变化不敏感,性能较其他算法更加优良。3.3 不同算法运行时间的比较表2为快拍数为2 5 6的条件下,各算法的运行时间。运行时间取1 0 0 0次蒙特卡洛实验的平均值。由表2可知,本文所提的基于深度卷积网络的D OA估计方法运行时间虽不及E S P R I T算法,但优于其他2种算法,E S P R I T算法运行时间最短,但其D OA估计精度较低,而本文方法在估计精度上有明显的优势且算法复杂度较低。表2 不同算法运行时间的比较方法运行时间/s MU S I C算法

43、E S P R I T算法 ML算法 本文方法0.1 7 1 60.0 0 7 90.2 8 6 90.0 6 8 74 结语针对传统算法对低信噪比、少快拍情况的适应性差的情况,本文提出了基于深度卷积神经网络的D OA估计方法,该方法将阵列输出协方差矩阵上三角阵的实部、虚部及相位特征作为网络输入,搭建深度卷积神经网络,提取数据特征,学习输入到目标的到达角度的映射,从而实现多目标D OA估计。通过实验仿真表明,该算法的估计性能在相同条件下优于MU S I C算法、E S P R I T算法以及ML算法,在低信噪比、少快拍的情况下,估计性能较其它算法优76第4期 郭书涵,等:基于深度卷积神经网络的

44、D OA估计势更加明显,同时算法复杂度低于MU S I C算法及ML算法。该方法提取上三角阵的实部、虚部及相位特征,降低了算法复杂度,充分利用输入数据信息。本文构建数据集信噪比与快拍数条件均为范围,若分别构造等信噪比不同快拍或是等快拍不同信噪比情况的数据集,估计精度会有效提高。参考文献1 Z HANG Y L,HU G P,Z HOU H,e t a l.D i r e c t i o n o f A r r i v a l E s t i m a t i o n o f G e n e r a l i z e d N e s t e d A r r a y v i a D i f f e r

45、 e n c e-S u m C o-A r r a yJ.S e n s o r s,2 0 2 3,2 3(2):9 0 6-9 2 6.2Z HANG Y L,HU G P,Z HOU H,e t a l.H o l e-F r e e N e s t e d A r r a y w i t h T h r e e S u b-U L A s f o r D i r e c t i o n o f A r r i v a l E s t i m a t i o n J.S e n s o r s,2 0 2 3,2 3(1 1):5 2 1 4-5 2 2 7.3B A R T L E

46、T T M.P r o p e r t i e s o f S u f f i c i e n c y a n d S t a t i s-t i c a l T e s t sJ.P r o c e e d i n g s o f t h e R o y a l S o c i e t y A:M a t h e m a t i c a l,P h y s i c a l a n d E n g i n e e r i n g S c i e n c e s,1 9 3 7,1 6 0(9 0 1):2 6 8-2 8 2.4C A P ON J.H i g h-R e s o l u t

47、i o n F r e q u e n c y-W a v e n u m b e r S p e c t r u m A n a l y s i sJ.P r o c e e d i n g s o f t h e I E E E,1 9 6 9,5 7(8):1 4 0 8-1 4 1 8.5S CHM I D T R.M u l t i p l e E m i t t e r L o c a t i o n a n d S i g n a l P a r a m e t e r E s t i m a t i o nJ.I E E E T r a n s a c t i o n s o

48、n A n-t e n n a s a n d P r o p a g a t i o n,1 9 8 6,3 4(3):2 7 6-2 8 0.6R OY R,KA I L A TH T.E S P R I T-E s t i m a t i o n o f S i g-n a l P a r a m e t e r s v i a R o t a t i o n a l I n v a r i a n c e T e c h n i q u e sJ.I E E E T r a n s a c t i o n s o n A c o u s t i c s,S p e e c h,a n

49、d S i g n a l P r o c e s s i n g,1 9 8 8,3 7(7):9 8 4-9 9 5.7Z I S K I N D I,WA X M.M a x i m u m L i k e l i h o o d L o c a l i z a-t i o n o f M u l t i p l e S o u r c e s b y A l t e r n a t i n g P r o j e c t i o nJ.I E E E T r a n s a c t i o n s o n A c o u s t i c s,S p e e c h,a n d S i

50、g n a l P r o c e s s i n g,1 9 8 8,3 7(1 0):1 5 5 3-1 5 6 0.8L I U Z M,Z HANG C W,YU P S.D i r e c t i o n-o f-A r r i-v a l E s t i m a t i o n B a s e d o n D e e p N e u r a l N e t w o r k s w i t h R o b u s t n e s s t o A r r a y I m p e r f e c t i o n sJ.I E E E T r a n s-a c t i o n s o n

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服