收藏 分销(赏)

基于YOLOv7-Sim和无人机遥感影像的烟株数量检测.pdf

上传人:自信****多点 文档编号:2112623 上传时间:2024-05-16 格式:PDF 页数:9 大小:1.03MB
下载 相关 举报
基于YOLOv7-Sim和无人机遥感影像的烟株数量检测.pdf_第1页
第1页 / 共9页
基于YOLOv7-Sim和无人机遥感影像的烟株数量检测.pdf_第2页
第2页 / 共9页
基于YOLOv7-Sim和无人机遥感影像的烟株数量检测.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、中国烟草科学 Chinese Tobacco Science 2023,44(4):94-102 DOI:10.13496/j.issn.1007-5119.2023.04.013 基于 YOLOv7-Sim 和无人机遥感影像的烟株数量检测 耿利川1,王忠丰2,秦永志3,马 莉3(1.许昌学院城市与环境学院,河南 许昌 461000;2.92493 部队,辽宁 葫芦岛 125000;3.61206 部队,北京 100042)摘 要:植株数是用于监测作物生长状况和估测产量的重要田间表型性状。为实现烟草植株数高效自动清点,针对无人机遥感影像烟株检测中存在小尺寸聚集目标容易漏检的问题,提出了一种 Y

2、OLOv7 目标检测优化模型 YOLOv7-Sim。首先引入SimAM 注意力机制增强图像特征之间的聚合能力;然后加入小目标检测层强化算法对小目标的检测能力;再对定位损失函数进行优化,引入了 EIOU 定位损失函数;最后利用分块策略解决大图像检测中小目标容易采样丢失的问题。在 VisDrone2019数据集和本文构造的 UAVTob 无人机遥感影像烟草数据集上的检测结果显示,检测均值平均精确率 mAP0.5 提升了 0.3%和 6.3%,mAP0.5:0.95 提升了 0.6%和 18.3%,YOLOv7-Sim 算法对无人机遥感影像中的烟株检测更具优越性。关键词:YOLOv7;无人机遥感影像

3、;烟草检测;深度学习 中图分类号:S572 文献标识码:A 文章编号:1007-5119(2023)04-0094-09 Tobacco Plant Number Detection Based on UAV Remote Sensing Image and YOLOv7-Sim GENG Lichuan1,WANG Zhongfeng2,QIN Yongzhi3,MA Li3(1.College of Urban and Environment Sciences,Xuchang University,Xuchang,Henan 461000,China;2.92493 Troops,Hulu

4、dao,Liaoning 125000,China;3.61206 Troops,Beijing 100042,China)Abstract:The plant number is an important field phenotypic trait in monitoring crop growth and estimating output.In order to establish an efficient tobacco plant number automatic counting technology,an optimized tobacco plant detection mo

5、del YOLOv7-Sim based on YOLOv7 is proposed to solve the miss detection problem of small targets in UAV remote sensing images.First,the SimAM attention mechanism is introduced to enhance the aggregation ability between image features,and a small target detection layer is added to strengthen the detec

6、tion ability of small targets,then EIOU is used to optimize the positioning loss function,and finally,a slicing strategy is used to solve the problem of small target sampling loss in large image detection.The experimental results on the Vis-Drone2019 dataset and the UAVTob dataset constructed in thi

7、s study showed that the mean average accuracy rate mAP0.5 of the detection results was increased by 0.3%and 6.3%,and the mean average accuracy rate mAP0.5:0.95 was increased by 0.6%and 18.3%,which reflected the superiority of YOLOv7-Sim algorithm for tobacco detection in UAV remote sensing images.Ke

8、ywords:YOLOv7;UAV remote sensing image;tobacco plant detection;deep learning 烟草种植信息是烟草信息化生产管理的重要依据,精确测算烟株数量,可为烟草管理部门及时、准确掌握烟草生产形势、调整烟草指导性种植计划以及评估有关政策执行情况等提供参考依据,为烟草的科学研究和定量化管理奠定基础。传统烟株数量核查方法主要通过人工实地量算,耗时费力,且无法保证精度。自动化定位与提取烟株数量,有利于提高核查速度和准确率,对加快农业智能化发展有重要意义。随着遥感技术的进步,利用遥感影像对烟草种 植信息进行提取已经受到国内外诸多研究人员的关

9、注。从所利用的影像数据源来看,目前主要分为两大类。一类为卫星遥感影像。刘明芹等1基于资源三号卫星遥感影像对山区套种烟草面积进行了估测,经过分类后处理提取的烟草面积精度达到94.63%;张阳等2采用决策树分类方法提取了Sentinel-2A 数据中的烟草种植区域信息,精度达到90.29%;罗贞宝等3利用高分 1/2 遥感卫星影像,以毕节市七星关区大河乡为试验区,开展了多源、多时相遥感数据与面向对象分类相结合的烟草种 基金项目:智慧中原地理信息技术河南省协同创新中心,时空信息感知与融合技术自然资源部重点实验室联合基金项目(212109)作者简介:耿利川(1982-),男,讲师,博士,研究方向:无人

10、机环境遥感。E-mail: 收稿日期:2023-02-09 修回日期:2023-06-24 第 4 期 耿利川等:基于 YOLOv7-Sim 和无人机遥感影像的烟株数量检测 95 植区提取方法研究。另一类为无人机遥感影像。无人机遥感技术相较于卫星遥感技术,具有机动灵活、成本低、高分辨率、不受重访周期限制、可实现云下飞行的特点,有利于快速获取高精度地表地理空间信息,在烟草种植面积核查工作中也得到较多应用。董梅等4利用面向对象的分类方法对无人机遥感影像中的烟草种植面积进行了提取,扩展了烟草种植面积遥感监测的手段;ZHU 等5提出了一种组合监督分类和图像形态学方法的无人机遥感影像数据烟草识别方法,总

11、体精度达到 95.93%;夏炎等6提出了一种基于模糊超像素分割算法的无人机烟株提取方法,达到 80%以上的检测精度;付静等7结合形态学方法与 Otsu 算法,对无人机遥感影像中的烟草苗期株数进行了提取。综合分析近年来国内外针对烟草信息的提取研究可知,目前针对烟草种植信息的提取大多集中于种植面积,对于烟株数量提取方面则研究较少。前期研究中,多采用图像多尺度分割算法和形态学分割算法,存在边界依附性差,分割尺度难以确定以及分割错误等问题。由于无人机烟草遥感影像具有烟株形状差异大、目标较小且尺度不一致等特点,对烟株信息自动提取带来了诸多困难。图 1 为无人机航拍影像,从中可以发现,烟草植株个体较小,呈

12、现局部聚集,并且由于生长状况不同植株外形尺寸差异较大。近年来,基于深度学习的目标检测技术发展迅速,其代表算法有 R-CNN8、Fast R-CNN9、Faster R-CNN10、YOLO 系列算法11-13、SSD 算法14等。在无人机遥感影像目标检测算法的研究中,付虹雨等15利用 YOLOv5 算法实现了无人机遥感影像中的苎麻植株计数。陈旭等16基于 YOLOv5s 设计了一种改进的浅层网络 YOLOv5sm,提高了无人机影像目标的检测精度。张瑞倩等17在 YOLOv5 算法的基础上,增加了多尺度的空洞卷积模块,加大视野感知域,提高网络对无人机影像中的目标分布、尺寸差异等的学习能力,进一步

13、提升网络对无人机影像中多尺度、复杂背景下的目标检测精度。杨蜀秦等18针对玉米雄蕊提取问题,提出去除 CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高了检测速度。马永康等19提出使用有效通道注意力机制对 CSPDarknet53 骨干网络进行改进,避免降维的同时增强特征表达能力,实现了红树林单木目标检测。受上述研究的启发,本文针对无人机遥感影像烟草植株自动检测问题,提出了一种优化后的 YOLOv720模型。为提高模型跨长序列学习关联特征能力,将 SimAM 注意力机制21引入到 YOLOv7 算法中,同时为提高算法对小目标的检测精度,对原始 YOLOv7 算法增加

14、了小目标检测层,在损失函数方面引入了 EIOU 函数22,进一步优化模型对目标框与预测框之间的相似性计算,针对原始图像太大的问题,采用了分块裁剪检测后再合并的策略23,最后,利用河南省驻马店市泌阳县某地无人机航拍烟草影像,构建了UAVTob 烟草数据集,对该模型提取检测烟草株数的效果进行了验证。图 1 烟草无人机遥感影像 Fig.1 Tobacco plant UAV remote sensing images 96 中国烟草科学 2023年第44卷 1 材料与方法 1.1 数据集来源 本实验基于 Pytorch 深度学习框架,利用 GPU进行训练,具体配置如表 1 所示。表 实验环境配置 T

15、able 1 Experimental environment configuration 项目 Items 配置 Configure 操作系统 Operation system Windows 10(X64)内存 Internal memory 64 Gb GPU(显存容量)GPU(Memory capacity)NVIDIA GeForce GTX 2080Ti(11Gb)CPU I9-9900k CPU3.6 GHz CUDA 版本 CUDA version 10.2 Python 版本 Python version 3.8.5 本实验数据分别使用了VisDrone2019数据集24和

16、UAVTob 数据集。VisDrone2019 数据集由天津大学机器学习与数据挖掘实验室 AISKYEYE 队伍负责收集,包括 288 个视频片段,总共包括 261908帧和 10209 个静态图像,由各种无人机安装的相机拍摄,涵盖位置、环境、物体和密度等方面,影像分辨率无固定大小。UAVTob 数据集由本课题组利用无人机航拍建立,获取地点泌阳县位于河南省驻马店市西南部,介于北纬 32343309,东经1130611348之间,年平均日照时数 2 066.3 h,年平均气温 14.6,年平均降水量 960 mm,地处浅山丘陵区,地势中部高,东西低,平均海拔 142.1 m,属大陆性季风气候。U

17、AVTob 数据集由 85 幅大疆精灵 4P 无人机航拍影像组成,航拍时间为 2022 年 5月,为避免云层遮挡及太阳光照阴影影响,选择晴朗无风天气,10:0014:00 时间段进行航飞,影像原始大小为 54723648 像素,地面分辨率为 3 厘米。在图像标注前,将原始影像裁剪为 1312 幅912912 像素分块影像。1.2 研究方法 在目标检测领域,YOLO 系列算法作为单阶段检测算法得到了广泛应用,YOLO 算法将目标检测看作回归问题,利用卷积神经网络提取图像特征,并直接从中获取目标类别与位置。YOLO 算法将图像划分为 SS 大小网格单元,针对每个网格单元生成若干边界框,如果某目标的

18、中心落入一个网格单元中,该网格单元负责检测该目标,并预测出目标的位置、类别与置信概率。1.2.1 YOLOv7 算法介绍 YOLOv7 算法由 Wang等20于 2022 年提出,为 YOLO 系列算法的进一步改进。其网络结构如图 2 所示,主要由骨干网络、颈部以及预测层 3 部分组成。骨干网络利用卷积神经网络在不同图像细粒度上聚合并形成图像特征。颈部网络通过一系列操作来混合和组合图像特征,并将图像特征传递到预测层。预测层对图像特征进 图 2 YOLOv7 算法网络结构图 Fig.2 YOLOv7 network structure 第 4 期 耿利川等:基于 YOLOv7-Sim 和无人机遥

19、感影像的烟株数量检测 97 行预测,生成边界框并预测类别。YOLOv7 算法输入端整体沿用了 YOLOv5 的预处理方式和相关源码,融合了 Mosaic 数据增强、自适应锚框计算、自适应图片缩放等操作。骨干网络使用了 ELAN 和MP 结构。颈部层采用了 SPPCSPC 结构,同时也使用了 ELAN 与 MP 结构。预测部分使用了 CIOU 损失函数。1.2.2 YOLOv7算法改进 (1)注意力机制改进。为了全局聚合网络提取的图像特征,基于卷积的架构需要堆叠多层网络特征25。尽管堆叠更多的层确实提高了网络的性能26,但计算量随之增加。注意机制通过基于内容的寻址机制可以实现成对的实体交互,从而

20、能够跨长序列学习关联特征层次结构,极大缩短远距离依赖特征之间的距离,更有效地利用远距离网络特征。本文受此启发将 SimAM 注意力机制引入到YOLOv7算法中,其原理如图3所示21。现有注意力机制普遍存在 2 个问题:(1)只能沿通道或空间维度细化特征,限制了它们学习不同通道和空间中变化的注意力权重的灵活性;(2)结构上通常由一系列复杂因子建立组成,计算复杂。SimAM 模块无需向原始网络添加参数,而是在一层中推断特征图的 3-D 关注权重。通过优化一个能量函数来挖掘每个神经元的重要性,该模块能够根据定义的能量函数解对特征进行增强处理,避免在结构调整上花费太多精力,提高网络的表达能力。图 3

21、SimAM 注意力机制原理图 Fig.3 Schematic of the attention mechanism of SimAM (2)增加小目标检测层。在无人机影像上,烟草植株目标均小于 3232 像素,与其他类型影像相比可被看作是为小目标,如图 1 中所示。如果针对原始影像进行训练,YOLOv7 在训练过程中会将图像下采样为 8080、4040、2020 像素大小,由于图像过度下采样会导致图像中的小目标特征信息丢失。针对小目标的检测,本文在原始算法中新增加了 160160 的检测特征图,用于检测 44 以上的目标锚框,同时在训练时利用 K-means 均值和遗传算法对数据集进行分析,自

22、动学习新的预定锚框,获得更适合该数据集的预设锚框。(3)损失函数优化。YOLOv7 采用 CIOU 作为目标定位损失函数,其损失函数如公式(1)所示,avcbbIOUCIOUgt22,-)(1)其中,)(gtbb,2表示真实框与预测框中心的欧式距离,c 表示真实框与预测框最小闭包区域对角线距离,a 为损失函数的权衡参数,具体定义如公式(2)所示;v 表示真实框与预测框的长宽比,具体定义如公式(3)所示,其中 w 和 h 是包含预测框和真实框的最小闭包区域的宽度和高度。vIOUva1 (2)22)arctanarctan4hwhwvgtgt(3)CIOU 损失虽然考虑了边界框回归的重叠面积、中心

23、点距离、纵横比,但是其公式中的 v 反映的是纵横比的差异,而不是宽高分别与其置信度的真实差异,所以会阻碍模型对边界框相似性的有效优化。针对这一问题,Zhang 等22在 CIOU 的基础上将纵横比拆开,提出了 EIOU 损失函数,定义如公式(4)所示。该损失函数包含 3 个部分:重叠损失、中心距离损失、宽高损失。前两部分延续 CIOU 中的方法,但是宽高损失直接使目标框与锚框的宽度和高度之差最小,使得收敛速度更快。将纵横比损失项拆分成预测框宽高分别与真实框宽高的差值,加速了收敛,提高了回归精度。本文对 YOLOv7 算法中的损失函数进行了改进,利用 EIOU 损失函数,代替原始 YOLOv7

24、算法中的 CIOU 损失函数。222222),(),(),(-1hgtwgtgtaspdisIOUEIOUchhcwwcbbIOULLLL (4)其中,c、wc、wc分别代表能够同时包含预测 98 中国烟草科学 2023年第44卷 框和真实框的最小外接矩形的对角线长度、宽度和高度。(4)影像分块检测策略。无人机获取的原始影像大小为 54723648 像素,直接利用原始影像进行训练或测试,会将图像缩放为640640像素大小,导致烟株像素值太小,从而检测困难。本文采用了YOLT 算法23方式,利用滑窗方式将原始图像裁剪为 912912 像素的图像作为模型的输入,裁剪后的区域称为 chip,为了保证

25、每个区域都能被完整检测到,相邻的 chip 会有 15%的重叠,图 4 为分块策略示意图,之后将检测结果合并,经非极大值抑制(NMS)处理后获得最终的检测结果。图 4 原始影像分块策略示意图 Fig.4 Schematic diagram of the original image segmentation strategy 2 烟株检测结果与评价 2.1 评价标准 本文实验评价标准包括:召回率 R(Recall),精确率 P(Precision),平均精确率 AP(Average precision)和均值平均精确率 mAP(Mean average precision),各标准的具体公式如

26、公式(5)-(8)所示:FNTPTPR (5)FPTPTPP (6)10)(drrPAPsmooth (7)KAPKii1mAP (8)式(5)-(8)中,TP 表示正样本被正确识别为正样本,FP 表示负样本被错误识别为正样本,FN 表示正样本被错误识别为负样本。此外,本文还使用 MS COCO27中的评估标准来评估检测算法的结果,包括 mAP0.5、mAP0.5:0.95。其中,mAP0.5 即将 IOU 设为 0.5 时,计算每一类的所有图片的 AP,然后所有类别求平均,即 mAP。mAP0.5:0.95表示在不同IOU阈值(从0.5到0.95,步长 0.05)上的平均 mAP,该值被用作

27、排名的主要依据。2.2 VisDrone2019 数据集实验结果与对比 为验证改进算法的有效性,本文首先在VisDrone2019 数据集上进行了实验验证,实验选取YOLOv7 模型作为参考基准,在此基础上对其进行优化。实验基于算法原有配置,批处理大小(batch size)设置为 4,轮次(epochs)设置为 150。图 5给出了算法优化前后的P-R曲线和mAP0.5对比。由图 5 对比结果可以看出,优化后的 YOLOv7-Sim模型在 VisDrone2019 数据集上取得了较好的结果。YOLOv7 模型优化后 mAP0.5 由 49.6%提高到49.9%,精度提高了 0.3%。表 2

28、给出了 FPN28、CornerNet29、Light-RCNN30、DetNet5931、RetinaNet32、Cascade R-CNN33、RefineDet34各算法在该数据集上的实验结果与本文算法的实验结果对比,表中标粗数据为该类别精确率最高值。由表 2 对比结果可以看出,优化后的算法精确率较优第 4 期 耿利川等:基于 YOLOv7-Sim 和无人机遥感影像的烟株数量检测 99 (a)YOLOv7 (b)YOLOv7-Sim 图 5 YOLOv7 优化前后的 P-R 曲线、精确率与 mAP0.5 对比 Fig.5 P-R curves,AP and mAP0.5 before a

29、nd after YOLOv7 optimization 表 2 各算法 AP 与 mAP 结果对比 Table 2 Comparison of each algorithms AP and mAP results%Method ped person bicycle car van truck tricycle awn bus motor mAP0.5 mAP 0.5:0.95 YOLOv7-Sim 27.60 19.80 10.30 59.80 38.00 30.90 21.90 12.10 46.70 26.50 49.90 29.40 Yolov7 26.90 19.60 11.00 5

30、9.00 34.70 30.70 22.00 11.40 45.60 27.10 49.60 28.80 CornerNet 20.43 6.55 4.56 40.94 20.23 20.54 14.03 9.25 24.39 12.10 34.12 17.41 Light-RCNN 17.02 4.83 5.73 32.29 22.12 18.39 16.63 11.91 29.02 11.93 32.78 16.53 DetNet59 15.26 4.07 3.13 36.12 17.29 20.87 13.52 10.45 26.01 10.92 32.20 16.51 RefineDe

31、t 14.90 3.67 2.02 30.14 16.33 18.13 9.03 10.25 21.93 8.38 31.91 16.09 RetinaNe 9.91 2.92 1.32 28.99 17.82 11.35 10.93 8.02 22.21 7.03 29.23 15.26 FPN 15.69 5.02 4.93 38.47 20.82 18.82 15.03 10.84 26.72 12.83 28.76 14.90 Cascade R-CNN 16.28 6.16 4.18 37.29 20.38 17.11 14.48 12.37 24.31 14.85 21.37 11

32、.81 化前在多数类别上均有不同程度的提升,仅在bicyle、tricycle 和 motor 类别上出现了精确率略微下滑现象,可能在参数上需要进一步优化,但相比于其他算法结果,优化后的 YOLOv7 算法均取得了最优的检测结果,尤其是对 ped、car、van、bus 的检测提升效果明显,验证了本文算法的有效性。2.3 UAVTob 数据集实验结果与对比 为进一步验证本文算法针对无人机遥感影像中烟株的检测效果,本实验对自建 UAVTob 数据集进行了实验验证。实验中批处理大小(batch size)设置为 6,轮次(epochs)设置为 150。图 6 给出了YOLOv7 与优化后的 YOL

33、Ov7 在训练过程中,召回率、精 确 率、均 值 平 均 精 确 率 mAP0.5、mAP0.5:0.95 的增长曲线对比。其中红色曲线为优化前,绿色曲线代表优化后,横坐标表示训练epoch 数,纵坐标表示各评价参数值。通过各指标的对比可以发现,在训练过程中优化后的算法召回率、精确率以及均值平均精确率增长速度和最终值均优于原算法,算法在训练到 100 epoch 时接近收敛。为了验证各优化模块对 YOLOv7 模型的改进,对各改进模块单独与原 YOLOv7 模型进行组合,并测试了其结果。各改进模块间的消融实验结果如表3 所示。其中标记“”的表格表示使用了该模块。由表 3 的消融实验结果可以看出

34、,本文提出的每一个改进模块对提升均值平均准确率 mAP0.5 都有一定的作用,综合各优化方式后的改进算法检测烟草的平均精确率均值 mAP0.5 达到 94.5%,相比原算法提高了 6.3%。改进算法的均值平均准确率mAP0.5:0.95 达到 47.7%,相比原算法提高了18.3%。图 7 给出了两组检测结果,其中每组中左图为 YOLOv7 算法结果,右图为 YOLOv7-Sim 算法结果。对比后可以发现,改进后的算法对影像边缘部分的不完整与较小烟株的检测结果要优于原算法,说明 YOLOv7-Sim 算法对遥感影像中的小目标检测具有一定的优越性。100 中国烟草科学 2023年第44卷 (a)

35、召回率对比 (b)精确率对比 (c)mAP0.5 对比 (d)mAP0.5:0.95 对比 图 6 训练中 YOLOv7 优化前后各评价标准增长对比曲线 Fig.6 The growth curve between YOLOv7 and optimized YOLOv7 during training 表 3 YOLOv7-Sim 各模块间消融实验的 mAP 对比 Table 3 mAP comparison of ablation experiments between modules of YOLOv7-Sim%YOLOv7 注意力机制 Attention mechanism 小目标层 S

36、mall target layer EIOU mAP0.5 mAP0.5:0.95 88.2 29.4 93.0 44.7 90.9 43.6 93.5 46.6 94.5 47.7 注:“”表示使用了该模块。Note:“”represents that the module was used.YOLOv7 YOLOv7-Sim YOLOv7 YOLOv7-Sim(a)检测结果 1 对比 (b)检测结果 2 对比 图 7 不同方法在 UAVTob 数据集上检测结果对比 Fig.7 Detection results comparison of different methods on UAVT

37、ob dataset 3 讨 论 本文研究发现 YOLOv7 深度学习算法对烟草植株数自动清点具有显著作用,通过从注意力机制、小目标检测、损失函数、检测策略 4 个方面对原始YOLOv7 算法进行改进,利用召回率、精确率、均值平均精确率 mAP0.5,mAP0.5:0.95 4 个评价第 4 期 耿利川等:基于 YOLOv7-Sim 和无人机遥感影像的烟株数量检测 101 指标对原始算法与改进算法性能进行对比分析。本文利用无人机航拍烟田遥感影像构建了UAVTob数据集,YOLOv7 算法在该数据集上测试的均值平均精确率 mAP0.5 为 88.2%,通过引入注意力机制后该指标达到 93.0%,

38、增加小目标层后该指标为90.9%,利用改进的 EIOU 损失函数后该指标为93.5%,综合 3 种改进模块后 mAP0.5 达到 94.5%。YOLOv7算法对UAVTob数据集上的均值平均精确率 mAP0.5:0.95 为 29.4%,通过添加 3 种改进模块后该指标分别达到 44.7%、43.6%、46.6%,提升幅 度 均 超 过 14%,综 合 3 种 改 进 模 块 后mAP0.5:0.95 达到 47.7%。对比结果说明本文的改进方法对提高原始 YOLOv7 算法在检测烟草植株数量方面具有较高的适用性,相对于夏炎等6提出的基于模糊超像素分割的烟株提取方法约 80%的检测精度,本文检

39、测结果更加精确。烟草长势对烟株数检测算法有重要影响,如果烟草长势较快,航飞时间滞后,烟草叶片交叉连成片的情况下,利用无人机遥感影像进行烟株数清点将面临巨大挑战,因为在该情况下,烟草植株在影像上不再是独立个体,而是成行或成片,利用视觉算法很难将其独立区分,因此在利用无人机遥感方式进行烟草植株数清点时,需要在烟草叶片还未连接成片的时间节点前完成航拍作业。影像地面分辨率(Ground Sample Distance,GSD)是遥感影像的一个重要指标,它与航拍高度及镜头焦距相关。不同 GSD 影像中烟草植株的大小、纹理特征有明显区别,航拍高度越高,影像地面分辨率越低,GSD 越大,烟草植株的特征信息越

40、模糊,特别是细节特征被忽略。研究表明,利用高分辨率影像构建的模型具有更加稳定的性能,能够显著提高目标识别的精度。因此应该在不影响航拍效率的基础上,尽可能获取高分辨率影像。本研究仅在单个烟株影像数据集上构建了模型,很难扩展到其他作物。当出现新的作物品种需要检测时,还需要针对该作物单独构建模型,因为模型的性能主要取决于训练样本集的数量及其多样性,由于样本标记过程比较繁琐,高效开发稳定的模型仍然面临挑战。研究如何提高模型的通用性,或在少量训练样本的基础上,保持模型的检测精度具有重要意义。4 结 论 结果表明,针对无人机遥感影像中烟株目标检测存在的烟株形状差异大、目标较小且局部聚集的问题,对 YOLO

41、v7 算法进行了优化,提出了一种改进的模型 YOLOv7-Sim。通过加入 SimAm 注意力机制,强化了卷积捕获特征之间的聚合能力,加入小目标检测层增强算法对小目标的检测能力,选取了 EIOU 定位损失函数,直接利用目标框与锚框的宽度和高度之差信息,加快了算法收敛速度,针对遥感影像尺寸过大问题采用了分块检测后拼接的策略。实验结果表明,优化后的 YOLOv7 算法在VisDrone2019数据集以及课题组自建UAVTob烟草数据集上的目标检测精度得到有效提升,本文方法为精确检测烟草种植位置及数量提供了有效手段。参考文献 1 刘明芹,李新举,杨永花,等.基于资源三号卫星遥感影像的山区套种烟草面积

42、估测J.安徽农业科学,2016,44(3):291-293,297.LIU M Q,LI X J,YANG Y H,et al.Estimation of the intercropped tobacco area in mountainous area based on ZY-3 remote sensing imagesJ.Journal of Anhui Agriculture Science,2016,44(3):291-293,297.2 张阳,屠乃美,陈舜尧,等.基于 Sentinel-2A 数据的县域烤烟种植面积提取分析J.烟草科技,2020,53(11):15-22.ZHANG

43、 Y,TU N M,CHEN S Y,et al.Extraction of flue-cured tobacco planting area on county scale based on Sentinel-2A dataJ.Tobacco Science&Technology,2020,53(11):15-22.3 罗贞宝,陆妍如,高知灵,等.基于 GF-1/2 影像数据的烟草种植区信息遥感监测J.中国烟草科学,2022,43(4):87-95.LUO Z B,LU Y R,GAO Z L,et al.Remote sensing monitoring of tobacco growin

44、g areas based on GF-1/2 image dataJ.Chinese Tobacco Science,2022,43(4):87-95.4 董梅,苏建东,刘广玉,等.面向对象的无人机遥感影像烟草种植面提取和监测J.测绘科学,2014,39(9):87-90.DONG M,SU J D,LIU G Y,et al.Extraction of tobacco planting areas from UAV remote sensing imagery by object-oriented clas-sification methodJ.Science of Surveying a

45、nd Mapping,2014,39(9):87-90.5 ZHU X F,XIAO G F,WEN P,et al.Mapping tobacco fields using UAV RGB imagesJ.Sensors,2019,19(8):1791.6 夏炎,黄亮,陈朋弟.模糊超像素分割算法的无人机影像烟株精细提取J.国土资源遥感,2021,33(1):115-122.XIA Y,HUANG L,CHEN P D.Tobacco fine extraction from UAV image based on fuzzy-superpixel segmentation algorithmJ

46、.Remote Sensing For Land&Resources,2021,33(1):115-122.7 付静.基于无人机图像的山区烟株数量统计方法与试验D.贵阳:贵州大学,2019.FU J.Statistical method and test of tobacco strains in mountainous areas based on UAV imagesD.Guiyang:Guizhou University,2019.8 GIRSHICK R,DONAHUE J,DARRELL T,et a1.Rich feature hierarchies for accurate ob

47、ject detection and semantic segmenta-tionC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Columbus:IEEE,2014:580-587.9 GIRSHICK R.Fast R.CNNC/Proceedings of the IEEE International Conference on Computer Vision.Santiago:I EEE,2015:1440-1448.102 中国烟草科学 2023年第44卷 10 REN S

48、 Q,HE K M,GIRSHICK R,et a1.Faster R-CNN:towards real-time object detection with region proposal networksJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.11 REDMON J,DIVVALA S,GIRSHICK R,et a1.You only look once:unified,real-time object detectionC/Proceedings of t

49、he IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:779-788.12 REDMON J,FARHADI A.YOLO9000:better,faster,strongerC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Honolulu:IEEE,2017:7263-7271.13 REDMON J,FARHADI A.YOLOv3:an incremental impr

50、ovementC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,IEEE,2018:89-95.14 LIU W,ANGUELOV D,ERHAN D,et a1.SSD:single shot multibox detectorC/Proceedings of the European Conference on Computer Vision,Springer,2016:21-37.15 付虹雨,崔国贤,佘玮,等.结合无人机遥感和目标检测实现苎麻植株计数J.中国麻业科学,2022,

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服