收藏 分销(赏)

基于边界敏感网络的时序行为定位研究.pdf

上传人:自信****多点 文档编号:2077720 上传时间:2024-05-15 格式:PDF 页数:7 大小:1.52MB
下载 相关 举报
基于边界敏感网络的时序行为定位研究.pdf_第1页
第1页 / 共7页
基于边界敏感网络的时序行为定位研究.pdf_第2页
第2页 / 共7页
基于边界敏感网络的时序行为定位研究.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 51 卷收稿日期:2022年12月9日,修回日期:2023年1月24日作者简介:余思成,男,硕士研究生,研究方向:视频分析、深度学习和时序行为定位。彭力,男,博士,教授,博士生导师,研究方向:视觉物联网、行为识别、深度学习。1引言为了保证自身的利益和安全,人们每年都会在不同的区域投放数百万的摄像头,这将会产生大量的记录、传输和存储视频。视频是一种有着密集的信息和背景变化复杂的媒介,为了减少日常繁琐的视频检索任务,研究人员着手开发一项能够检测未修剪的视频中发生人员活动片段的技术,这在计算机视觉中是一项具有挑战性的任务,随着互联网的迅速发展,在引入卷积神经网络之后,越来越多的算法也被研究者提出

2、。在视频行为识别领域中,要对一段长视频进行行为识别通常分为两个步骤:行为分类和行为定位。在行为分类中很多算法已经达到了很高的准确性,基于边界敏感网络的时序行为定位研究余思成彭力(江南大学物联网工程学院无锡214000)摘要在一段未修剪的视频中检测动作是一项重要且具有挑战性的任务,因为现实生活中的视频内容丰富,对于长时间、背景复杂的真实视频分析是必不可少的。目前行为识别算法已经达到了较高的精度,但是时序行为定位算法精度仍待提高,BSN(Boundary-Sensitive Network)算法采用从边界到全局的思想进行行为定位,具有较高的准确度。针对原算法中网络结构较简单导致不能够学习到较多的原

3、始视频特征,论文通过在时序评估模块构建低级双流特征,将时间和空间特征信息相融合,保留了原始视频丰富的语义信息,使得时序概率建模更加精准;利用Softer-NMS算法在非极大值抑制时对生成的序列进行坐标修正。在数据集THUMOS-14上的实验结果表明,相对于现有的算法,论文算法有效地提高了时序动作区域的定位精度。关键词视频分析;非极大值抑制;深度学习;边界敏感网络中图分类号TP391DOI:10.3969/j.issn.1672-9722.2023.06.026Research on Temporal Action Detection Method Based onBoundary Sensit

4、ive NetworkYU SichengPENG Li(School of Internet of Things Engineering,Jiangnan University,Wuxi214000)AbstractDetecting actions in untrimmed videos is an important yet challenging task.Since video content in real life is rich,it is essential to analyze real video with long duration and complicated ba

5、ckground.At present,the behavior recognition algorithmhas reached a high accuracy,but the accuracy of the sequential behavior positioning algorithm still needs to be improved.Amongthem,the boundary-sensitive network(BSN)algorithm adopts the idea from local to global to conduct behavior positioning w

6、ithhigh accuracy.In view of the fact that the network structure in the original algorithm is too simple to learn more original video features,In this paper,low-level double-flow features are constructed in the timing evaluation module to integrate temporal and spatial feature information and retain

7、the rich semantic information of the original video,which makes the timing probability modelingmore accurate.Using the softer-NMS algorithm in the non-maximum suppression to coordinate correction of the generated sequenceexperimental results on datasets THUMOS-14 show that compared with existing alg

8、orithms,the proposed algorithm can effectivelyimprove the positioning accuracy of sequential action region.Key Wordsvideo analysis,non-maximum suppression,deep learning,boundary-sensitive networkClass NumberTP391总第 404 期2023 年第 6 期计算机与数字工程Computer&Digital EngineeringVol.51 No.613522023 年第 6 期计算机与数字工

9、程大致分为两种方法,第一种方法是Simonyan1等提出的双流卷积网络,他采用两个二维卷积网络分别提取视频的时间和空间特征,最后进行特征融合,Wang L2等的TSN算中在双流卷积上增加了稀疏采样的过程,解决了双流卷积无法对长时间视频建模的短板,本文的视频特征提取部分也将采用此算法进行。第二种方法是直接使用三维卷积神经网络提取时空特征,如 3-Dimensionsal ConvolutionalNetworks(C3D)3,Tran等把2D卷积结构拓展到3D卷积结结构,对多帧连续的视频序列提取时空特征,由于模型计算量小,所以比第一种方法速率快,但精确度不高。在行为定位领域中,GAO J4等提出

10、了一种 TURN 模型,借鉴 Faster-Rcnn5中采用anchor的方式生成预测序列,并用时空坐标进行修正,Bush S6等的SST算法网络通过结构化时序金字塔对每一个动作实例的时序结构建模。在金字塔的顶端,引入一个判别模型进行视频序列预测。本文结合Lin T7提出的边界敏感网络(Boundary-Sensitive Network,BSN)算法,沿用了时序动作检测的传统的两个阶段,第一阶段输入原始视频的图像序列,为了获得较高的准确率,通常引入光流来增强视频的特征表达,原始图片和光流序列经过二维卷积后,采用TSN模型进行分数融合,生成视频特征序列作为第二阶段的输入,然后使用三个独立的模型

11、分别进行动作时间预测,动作序列融合和预测序列置信度。本文主要贡献如下:1)改变了时序评估模块中的网络模型,在一维卷积中构造低级双流特征,丰富了视频原始特征的语义信息,使得生成的时序概率序列更加准确。2)引入了目标检测领域中的softer-NMS,应用在时序行为定位中,能够实现修正最佳序列坐标的效果。将改进的算法与baseline的边界敏感网络BSN以 及 目 前 的 state-of-the-art 算 法 比 较,通 过 在THUMOS-14数据集上进行测试,证明该算法取得了较好的效果。2相关工作算法主要包含三个模块,依次为时序评估模块,提名生成模块和提名评估模块,结构框图如图1所示。1)视

12、频特征编码(visual encoder)双流法的视频提取特征算法具有高效的性能,采用经典的双流法TSN用以提取视频中丰富的特征信息,对每个包含 T 帧的视频分为T/nsT/ns个snippet 作为网络输入的最小单元,其中ns=16ns=16为每个最小单元的长度。两个通道均采用Inception-v4作为基础的卷积网络,空间层将视频的RGB图像作为网络输入,时空层的输入的是包含x方向和y方向的两张光流图像,最终两个网络进行特征融合得到提取好的视频特征作为下一个模块的输入。(a)visual encoder(b)Temporal Evalution ModuleSnipptCNNRGBFram

13、eSpatialNetworkStackedOptical flowTemporalNetworkFtRGB FeatureFlow FeatureConv1DConv1DConv1DConv1DConv1DConv1DConv1DSumAveraging(c)Proposal Generation ModuleProbabilitiesActionsStaringEndingtimeProposalsGenerate ProposalsConstruct BSPFeatureBSP feature(d)Proposal Generation ModuleScoreScore:0.42Scor

14、e:0.81Score:0.76Score:0.54Soft-NMSFC(1,Sigmoid)FC(1,Sigmoid)(e)Redundant Proposals Suppression图 1BSN网络框架1353第 51 卷2)时序评估模块(Temporal Evaluation Module)原BSN算法基于提取的图像特征序列,时序评估模块采用三层一维时序卷积层来对视频序列中每个位置上动作开始的概率、动作结束的概率和动作进行的概率同时进行建模。本文框架延续了一维时间卷积层去探索局部语义信息,用以捕捉和判断在时序边界上的动作特征,不在特征提取阶段将RGB特征和光流特征融合,而是在时序评估阶

15、段分别对其进行卷积融合构造低级双流特征,从而生成动作开始概率序列,动作结束概率序列和动作概率序列。3)提名生成模块(Proposal Generation Module)为了生成候选时序动作提名,将上一模块输出产生的时序序列中满足条件的时间位置点筛选出来,组成多个候选序列。选择动作开始和动作结束概率序列中满足以下两点条件之一的时间节点作为候选时序边界节点:(1)概率高于一个阈值;(2)该时间节点的概率高于前一时刻以及后一时刻的概率(即一个概率峰值)。然后将候选开始时间节点和候选结束时间节点两两结合,保留条件符合要求的开始节点-结束节点组合作为候选时序动作提名。对于生成的每一段候选序列,采用线性

16、插值的方法生成 BSP(Boundary-Sensitive-Proposal)特征,用于第三步的输入。4)提名评估模块(Proposal Evaluation Module)经过上述处理,生成的一个时序序列可以表示为Pro=()TsTeFbsp,Ts表示对应的动作开始时间点,Te表示对应的动作结束时间点,Fbsp表示通过PGM产生的BSP特征,该模块采用一个简单的多层感知器(MLP)对于每个时序序列进行置信度评估,置信度分数越高代表该时序序列是一个完整的动作序列的可能性越高。最后通过Soft-NMS对结果进行非极大值抑制,降低算法产生重叠序列的可能性。3基于BSN的改进方法3.1生成时序概率

17、序列模型基于提取的图像特征序列,时序评估模块(TEM)接收时序视频特征序列作为输入,经过前期的视频特征提取之后,每个视频可以表示为V=Fww,其中Fw和w分别表示该视频的特征序列和动作实例。对每一个动作实例w=(tste),其 中 的 开 始 时 序 区 域 在 模 型 中 扩 展 为rsg=tsdg10ts+dg10,结 束 时 序 区 域 扩 展 为reg=tedg10te+dg10,其 中dg=tste,将Vt=Vlsn=1作为该模型的输入。原算法仅采用3层一维时序卷积层来对视频序列进行建模,将视频特征融合之后进行简单的一维卷积会丢失掉视频语义信息。为了丰富原始视频特征,本文不在视频特征

18、提取阶段提前将信息融合,而是利用两个堆叠的一维卷积层分别对空间和时间特征进行卷积,如图2所示,时间和空间特征信 息 分 别 由Sf=Fconv12(Fconv11(S))和Tf=Fconv22(Fconv21(T))表示,然后在第二层将Sf和Tf进行融合构造低级双流特征,dsf=Fsum(Sf,Tf)。Sf,Tf和dsf将分别采用三个卷积层用以生成三个动作特征序列Pa=(Fconv13()Sf,Fconv23()Tf,Fconv33()dsf。RGB FeatureFlow FeatureConv1DConv1DConv1DConv1DConv1DConv1DConv1DSumAveragin

19、g图 2TEM网络结构定义一个1D-Resnet单元为y=F(xw)+x(1)F(xw)=W2(W1x)(2)其中,x 和 y 分别表示该残差单元的输入和输出,F()xw表示经过2次一维卷积之后的特征序列,W1和W2为单元中的卷积核权重,为激活函数,本文中采用Relu函数作为激活函数。该模型结构组成如下:1)输 入 层(Input)为 经 过 TSN 网 络 得 到 的nvmtfd序列,其中nv表示输入的视频数量,训练集中数量为 200,测试集为 213,mt为时间最长的视频序列长度,TSN网络的两路输出特征层维度都为1024,作为该网络输入的特征长度。2)一维卷积(1D-Conv)分别对输入

20、的视频特征卷积,过滤器设为512,卷积核大小为3,步长为1,并采用zero-padding填充保证尺度不变。3)为加快模型收敛和防止梯度消失,在每一层卷积之后采用归一化(Batch Normalization)操作,加余思成等:基于边界敏感网络的时序行为定位研究13542023 年第 6 期计算机与数字工程快了训练速度。4)在归一化之后添加dropout层调节模型的泛化能力,这里参数设置为0.2。5)对于构造出的低级双流特征层,连接融合并采用下采样(Down sample)改变特征维度,使得其与最后的输出层特征相同。6)全连接层(FC),其输出维度为每个视频的时序概率点,输出格式为 nv*mt

21、cvlp,其中cv=3表示输出的是三通道,分别代表运动序列、开始序列和结束序列。lp分别是在时间轴上每个时间点关于行为patn,开始pstn,结束petn的概率,从而生成动作概率序列PA=patnlsn=1,动作开始概率序列PS=pstnlsn=1和动作结束概率序列PE=petnlsn=1,序列长度lp设为100。在模型训练时,考虑到这是一个多输出的预测任务,分别计算三个预测部分各自的二元逻辑回归损失函数Lbl,然后加权组合为该模型的损失函数,总体损失函数公式如下:LTEM=Lactionbl+Lstartbl+Lendbl(3)其中用来控制动作区域损失对结果的影响,实验中=2,LblLbl公

22、式如下:Lbl=1lwi=1lw()+bilog()pi+(1bi)log(1pi)(4)其中bi=sign(giIoP)是用于转换真值分数的二值函数,gi为在IoP=0.5指标下的真值 iou分数,定义l+=gi和l=lwl+,均 衡 正 负 样 本 数 量+=lwl-和+=lwl+。表1不同模型下的召回率比较MethodBSN-baselineBSN-ours5037.4637.5110046.0646.5320052.2352.6750061.3561.46如表1所示,经过模型的修改,能看出替换了时序概率阶段的模型能够在提议数量为100和200时有着近0.5的召回率提升,相对于原始模型能

23、够更好地捕捉原始视频特征信息,从而使得初步构建的时序概率曲线能将原始视频表现的更加完整。3.2非极大值抑制(non-maximum suppression)在最后生成行为预测序列时,经常会出现大量用于表示同一行为的重叠序列,所以需要进行非极大值抑制从而排出重叠序列并识别和定位出我们想要看到的行为序列。NMS8算法被广泛地应用在边缘检测和目标检测中,主要用于解决分类器分类时,目标被大量的候选区域框包围从而出现候选区域大量重叠的现象,该算法在时序行为定位领域同样具有较好的效果。传统的NMS是根据每个目标与得分最高目标的 iou值,若大于规定阈值则删除,低于阈值的保留。Soft-NMS算法在执行过程

24、中不是简单的对iou大于阈值的检测框删除,而是加入了高斯加权法对其进行降分,softer-NMS则是在非极值抑制之后对最终目标进行修正,具体算法如下:1)对候选序列集合P中所有序列按照得分大小排序,选择最大的框记为M。2)分别计算所有的序列与M的iou值,大于某阈值的序列放入集合S中。3)利用线性加权法将S集合中的序列逐一进行降分,并对集合S中的序列坐标进行加权平均计算,然后对M进行修正。4)在P中删除M,并将M放入有效结果集合R中,返回步骤1),直至P中无序列。算法原理图如图3所示。Algorithm:softer-NMSP is N 2 matrix of temporal boxes,c

25、ontains start time and end time information;S contains N sequence corresponding detection scores;C is N 2 matrix of corresponding location scores,contains the corresponding location scores to the start time and the end time;Ntis the softer NMS threshold;P=b1,bn,S=S1,Sn,C=1,n,NtRT PWhile T empty dom

26、argmax SMpnT T-MS Sf(Iou(M,T)soft-nmsidx IoU(M,B)Ntsofter-nmsM Bidx/Sidx/sum(1/Sidx)D DMend whilereturn D,S图 3Softer-NMS算法步骤Soft-NMS中采用高斯加权法降分,公式如下:si=sie-iou(Mbi)2biD(5)其中M为当前时序序列置信分数最大的序列,bi为待处理的时序序列,si是bi序列的置信分,IoU是两者序列的重叠率,具体表达式如下:IoU=ABAB(6)其中 A是预测序列,B是实际序列,由此可看出bi和M的IoU越大,bi的得分si就下降的越厉害。1355第

27、51 卷Softer-NMS 中分别对所有IoUNt的预测序列坐标进行加权平均计算,得到两个新的时间点,第i个时序序列的计算公式如下(j表示所有IoUNt的序列):X1i:=ix1j2x1jj12x1jsubject to IoU(x1jx1i)Nt(7)通过文献 Softer-NMS9中的实验结果可知阈值NtNt设置为0.45到0.6效果最佳,通过实验可得阈值Nt取为0.6时能得到最佳效果。通过上述可知,为了解决时序行为定位中的预测序列重叠难以分辨,soft-NMS引入了高斯加权法对重叠部分进行降分,从而达到去除重叠时序的效果,但反而忽略了这些被降分的重叠部分的时序信息。Softer-NMS

28、则是对这些被忽略的时序信息的时序坐标得分进行加权,实现了“多条合一”,优化了最佳候选序列坐标,充分利用了所有的时序序列信息,效果如图4所示。GTBSNoursGTBSNoursGTBSNoursGTBSNours1.3s4.8s2.0s6.4s1.7s6.0s22.3s25.3s23.3s24.1s22.9s25.8s10.2s16.8s12.8s17.1s11.4s16.5s31.5s36.8s29.5s34.4s31.9s35.2s46.1s48.3s46.4s47.9s45.4s49.1s8.2s14.4s9.8s16.4s10.2s15.8s51.4s49.4s49.4s50.2s65

29、.8s68.9s67.1s24.4s24.4s33.7s20.7s35.4s25.1s32.4s52.8s57.9s53.2s 55.2s55.2s53.8s66.4s图 4实验效果展示4实验结果与过程4.1数据集和评价指标THUMOS是一个包含大量的人类动作在真实环境中开源视频数据集,其中人类动作包括刷牙、吹头发等日常动作和汽车、打篮球等体育动作。THUMOS-14中包括行为识别和时序行为检测两项任务,带有时序标注的视频是用来验证时序信为检测算法,验证集含有 3007个动作片段的 200个视频,测试集含有2558个动作片段的213个视频,动作类别共有20个种类,目前大多时序行为算法都以此数据

30、集作为评估。评价指标通常采用平均召回率(Average Reccall)和平均视频数量(Average Number of Proposalsper Video)曲线(AR-AN),其中预测出的时序序列为正确目标的条件是该序列的时间区间和标注中的真实动作区间的 tIoU(temporal intersection overunion)大于等于一个阈值,遵照惯例通常设置tIoU=0.5 0.05 1.0,AN具体定义公式如下:ANsubmission=提交文件中的proposals总数测试子集中的视频总数(8)4.2实验对比及其分析实验采用 python2.7编程,均在 ubuntu16.04操

31、作系统下进行,处理器为 intel i7-8700,主频是3.20 GHz,内存是 16G。显卡是 NVIDIA GeforceGTX 1070,显存为8G。为了证明算法的有效性,论文 实 验 在 THUMOS-14 数 据 集 上 与 目 前 的state-of-the-art算法进行比较,结果如表2所示。余思成等:基于边界敏感网络的时序行为定位研究13562023 年第 6 期计算机与数字工程表2不同tIoU下的召回率比较FeatureC3DC3DC3DC3D2-stream2-stream2-streamMethodDAPsSCNNSSTTURNTURNBSNOurs5013.5617.

32、2219.9019.6321.8637.4639.1110023.8326.1728.3627.9631.8946.0648.6320033.9637.0137.9038.3443.0252.2353.8650049.2951.5751.5853.5257.6361.3561.49根据实验结果表明,本文的算法相比于baseline的BSN能够提升1%2%的精确度,在特征提取方面,双流卷积相对于3D卷积提取到的视频信息更加丰富,在时序行为定位任务中也应用地更加广泛。当候选提议数量处于50200之前,基于局部到全局生成时序概率曲线的方式要优于传统的滑动窗口方法和anchor方式,有明显的召回率提升

33、。本文中因为加深了第一步的网络模型,使得整个算法能够处理到更多的视频语义信息,在极大值抑制时能够修正最终序列,最终提高了提议数量少时的召回率,但在提议数量较大时提升不明显。5结语提出了一种基于局部到全局的BSN改进算法,替换了原算法的基础网络,构造低级双流特征,丰富了视频的原始特征信息,并在非极大值抑制阶段引入了softer-nms对预测序列进行修正,得到了更加准确的时序动作坐标。在共享数据集 THUMOS14中的实验结果表明,文本的算法在视频不同的提议数量指标下均有提升。由于生成的时序概率序列的长度固定,基于局部到全局的方法能够在提议数量较少时有着领先的精度,但在面对长时间的视频建模却稍显乏

34、力,未来将继续改进该方法,解决时序长度不灵活的缺点,将多个模块联合化学习。参 考 文 献1Simonyan,K.,Zisserman,A.:Two-stream convolutionalnetworks for action recognition in videos C/Advances inNeural Information Processing Systems,2014:568-576.2Wang L,Xiong Y,Wang Z,et al.Temporal Segment Networks:Towards Good Practices for Deep Action Recogn

35、ition C/European conference on computer vision.Springer,Cham,2016:20-36.3Tran D,Bourdev L,Fergus R,et al.Learning Spatiotemporal Features with 3D Convolutional NetworksC/Proceedings of IEEE International Conference on ComputerVision,2015:4489-4497.4GAO J,YANG Z,SUN C,et al.Turn tap:Temporal unitregr

36、ession network for temporal action proposals C/2017IEEE International Conference on Computer Vision(ICCV),2017:3648-3656.5Ren S,He K,Girshick R,ei al.Faster R-CNN:TowardsReal-Time Object Detection with Region Proposal NetworksC/Advances in Neural Information ProcessingSystems,2015:91-99.6Bush S,Esco

37、rcia V,Shen C,et al.SST:Single-streamTemporal Action Proposals C/Proceedings of the IEEEconference on Computer Vision and Pattern Recognition,2017:2911-2920.7Lin T,Zhao X,Su H,et al.BSN:Boundary SensitiveNetwork for Temporal Action Proposal GenerationC/Proceedings of the European Conference on Compu

38、ter Vision(ECCV),2018:3-198Neubeck A,Van Gool L.Efficient Non-Maximum SuppressionC/18th International Conference on PatternRecognition,2006,3:850-855.9He,Yihui,Zhu,Chenchen,Wang,Jianren,et al.Softer-NMS:Rethinking Bounding Box Regression with Uncertainty for Accurate Object Detection EB/OL.https:/ar

39、xiv.org/abs/1601.02129.10Feichtenhofer,C.,Pinz,A.,Zisserman,A.:Convolutional two-stream network fusion for video action recognition C/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016:1933-1941.11SHOU Z,WANG D,CHANG S F.Temporal Action localization in Untrimmed

40、 Videos via Multi-Stage CnnsC/2016 IEEE Conference on Computer Vision andPattern Recognition(CVPR),2016,1:1049-1058.12Zhao Y,Xiong Y,Wang L,et al.Temporal Action Detection with Structured Segment NetworksC/Proceedings of the IEEE International Conference on ComputerVision,2017:2914-2923.13Bodla N,Si

41、ngh B,Chellappa R,et al.Soft-NMS-Improving Object Detection with One Line of Code C/proceedings of the IEEE International Conference on Computer Vision(ICCV),2017:5561-5569.14Xu H,Das A,Saenko K.R-C3D:Region Convolutional3D Network for Temporal Activity Detection C/Procedings of the IEEE Internation

42、al Conference on ComputerVision,2017:5783-5792.15Zhou B,Andonian A,Oliva A,et al.Temporal Relational Reasoning in videos C/Proceedings of the EuropeanConference on Computer Vision,2018:803-818.1357第 51 卷16Lea C,Flynn M D,Vidal R,et al.Temporal Convolutional Networks for Action Segmentation and Detec

43、tionC/Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition,2017:156-165.17Hara L,Kataoka H,Satoh Y.Learning spatiotemporalfeatures with 3D residual networks for action recognitionC/Proceeding of IEEE International Conference onComputerVisionWorkshop(ICCVW),2017:3154-3160.18Ca

44、o W,Watson D,Bakke M,et al.Detection of Glutenduring the Fermentation Process to Produce Soy SauceJ.Journal of Food Protection,2017,80(5):799.19黄友文,万超伦,冯恒.基于卷积神经网络与长短期记忆神经网络的多特征融合人体行为识别算法 J.激光与光电子学进展,2019,56(07):243-249.HUANGYouwen,WANChaolun,FENGHeng.Multi-Feature Fusion Human Behavior Recognition

45、Algorithm Based on Convolutional Neural Network andLong Short Term Memory Neural Network,2019,56(07):243-29.大连:大连海事大学,2011.XIAO Fangbing.Research on Key Technologies of maritime search and Rescue Decision Support SystemD.Dalian:Dalian Maritime University,2011.5谈星余.海上作业遇险?小小示位标 海救“大功臣”J.珠江水运,2013,334

46、(09):48-49.ON Xingyu.Maritime operation in distress?Small position indicator to save great hero J.Pearl River Shipping,2013,334(09):48-49.6李超.直升机海上救援技术的思考 J.科技风,2019,392(24):239.LI Chao.Thinking on helicopter maritime rescue technologyJ.Science and Technology Wind,2019,392(24):239.7郝瑞.新型快艇实施海上多目标搜救的

47、优化模型 J.火力与指挥控制,2013,224(11):81-83.HAO Rui.Optimization model of maritime multi-targetsearch and rescue for new type speedboatsJ.Firepowerand Command and Control,2013,224(11):81-83.8叶多福,刘刚,何兵.一种多染色体遗传算法解决多旅行商问题 J.系统仿真学报,2019,31(01):36-42.YE Duofu,LIU Gang,HE Bing.A multi chromosome genetic algorithm

48、for solving multi traveling salesman problemJ.Journal of System Simulation,2019,31(01):36-42.9Hu J,Xie L,Lum K Y,et al.Multiagent Information Fusion and Cooperative Control in Target Search J.IEEETransactions on Control Systems Technology,2013,21(4):1223-1235.10余梦珺,张韧,高顶,等.基于蚁群算法的西北航道海上救援路径规划 J.海洋预报

49、,2019,36(06):62-72.YU Mengjun,ZHANG Ren,GAO Ding,et al.Maritimerescue path planning of Northwest channel based on antcolony algorithmJ.Ocean Forecast,2019,36(06):62-72.11魏铁涛,屈香菊.多机协同与多目标分配任务规划方法J.北 京 航 空 航 天 大 学 学 报,2009,35(08):917-920,924.WEI Titao,QU Xiangju.Task planning method for multiaircraft

50、cooperation and Multi-objective AssignmentJ.Journal of Beijing University of Aeronautics and Astronautics,2009,35(08):917-920,924.12唐哲.一种基于遗传算法的 k均值聚类分析 D.长沙:长沙理工大学,2014.TANG Zhe.A k-means clustering analysis based on genetic algorithmD.Changsha:Changsha University ofTechnology,2014.13谭鹏,谭乐祖,张峥,等.海上

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服