收藏 分销(赏)

基于SEEC-YOLO v5s的散养蛋鸡日常行为识别与统计系统.pdf

上传人:自信****多点 文档编号:2107745 上传时间:2024-05-16 格式:PDF 页数:13 大小:8.08MB
下载 相关 举报
基于SEEC-YOLO v5s的散养蛋鸡日常行为识别与统计系统.pdf_第1页
第1页 / 共13页
基于SEEC-YOLO v5s的散养蛋鸡日常行为识别与统计系统.pdf_第2页
第2页 / 共13页
基于SEEC-YOLO v5s的散养蛋鸡日常行为识别与统计系统.pdf_第3页
第3页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023年9 月第54卷第9 期农报学业机械doi:10.6041/j.issn.1000-1298.2023.09.032基于SEEC-YOLO v5s 的散养蛋鸡日常行为识别与统计系统杨断利1,2王永胜1,2陈辉3.4孙二东王连增6宁炜7(1.河北农业大学信息科学与技术学院,保定0 7 10 0 1;2.河北省农业大数据重点实验室,保定0 7 10 0 1;3.河北农业大学动物科技学院,保定0 7 10 0 1;4.农业农村部肉蛋鸡养殖设施工程重点实验室,保定0 7 10 0 1;5.河北桃木疙瘩农业科技股份有限公司,保定0 7 430 0;6.河北省蛋鸡产业技术研究院,邯郸0 56 0

2、0 7;7.成都小巨人畜牧设备有限公司,成都6 11435)摘要:针对鸡只个体较小、个体间存在遮挡,对蛋鸡日常行为识别造成干扰的问题,提出了一种基于SEECYO LOv5s的蛋鸡日常行为识别方法。通过在YOLOv5s模型输出部分添加SEAM注意力模块、在特征融合部分引入显式视觉中心模块(EVCBlock),扩大了模型的感受野,提高了模型对小个体遮挡情况下的目标识别能力,提升了模型对蛋鸡站立、采食、饮水、探索、啄羽和梳羽6 种行为的识别精度。提出了一种基于视频顿数与视频顿率比值计算蛋鸡日常行为持续时间的统计方法,并对蛋鸡群体一天之中不同时间段及全天各行为变化规律进行了分析。将改进后的模型进行封装

3、、打包,设计了蛋鸡日常行为智能识别与统计系统。试验结果表明,SEECYO LO v 5s 模型对6种行为识别的平均精度均值为8 4.6 5%,比YOLOv5s模型高2.34个百分点,对比FasterRCNN、YO LO X s、YOLOv4-tiny和YOLOv7-tiny模型,平均精度均值分别提高4.30、3.0 6、7.11、2.99个百分点。本文方法对蛋鸡的日常行为监测及健康状况分析提供了有效的支持,为智慧养殖提供了借鉴。关键词:蛋鸡;日常行为识别;SEAM模块;EVCBlock模块;YOLOv5s中图分类号:TP391.4文献标识码:A文章编号:10 0 0-12 98(2 0 2 3

4、)0 9-0 316-13OSID:Daily Behavior Recognition and Real-time Statistics System ofFree-range Laying Hens Based on SEEC-YOLO v5sWANG Yongsheng1,2CHEN Hui3.4SUN ErdongWANG Lianzeng6YANG Duanlil,2NINGWei(1.College of Information Science and Technology,Hebei Agricultural University,Baoding 071001,China2.He

5、bei Key Laboratory of Agricultural Big Data,Baoding 071001,China3.College of Animal Science and Technology,Hebei Agricultural University,Baoding 071001,China4.Key Laboratory of Broiler and Layer Facilities Engineering,Ministry of Agriculture and Rural Affairs,Baoding 071001,China5.Hebei Taomu Geda A

6、gricultural Science and Technology Co.,Ltd.,Baoding 074300,China6.Hebei Layer Industry Technology Research Institute,Handan 056007,China7.Chengdu Little Giant Animal Husbandry Equipment Co.,Ltd.,Chengdu 611435,China)Abstract:The small size of the chickens and the shading of the chickens from each ot

7、her are factors thatmake it difficult to identify the daily behaviour of laying hens.To address this problem,a method of dailybehavior identification of laying hens based on SEEC-YOLO v5s was proposed.By adding a SEAMattention module(separated and enhancement attention module)to the output part of t

8、he YOLO v5smodel and introducing an EVCBlock module(e x p l i c i t v i s u a l c e n t e r)t o t h e f e a t u r e f u s i o n p a r t,t h eperceptual field of the model was expanded,the recognition ability of the model for occluded targets wasimproved,and the recognition accuracy of the model for

9、the six behaviors of standing,feeding,drinking,exploring,feather pecking and grooming of laying hens was improved.A statistical method was proposedto calculate the duration of daily behavior of laying hens based on the ratio of video frames to video framerate,and various behavioral changes of laying

10、 hens at different times of the day and throughout the day收稿日期:2 0 2 3-0 3-2 2 修回日期:2 0 2 3-0 6 12基金项目:国家自然科学基金项目(32 17 2 7 7 9)、财政部和农业农村部:国家现代农业产业技术体系项目(CARS-40)和河北省科技研发平台建设专项(2 2 56 7 6 150 H)作者简介:杨断利(197 3一),女,副教授,主要从事机器视觉、智能检测与控制研究,E-mail:50 2 2 17 591 q q.c o m通信作者:陈辉(198 1一),女,教授,博士生导师,主要从事禽舍环

11、境与工程研究,E-mail:5316 1310 7 q q.c o m317杨断利J等:基于SEEC-YOLOv5s的散养蛋鸡日常行为识别与统计系统第9 期were analyzed.The improved model was encapsulated and packaged to develop an intelligentidentification and automatic statistics system for the daily behavior of laying hens.The test results showedthat the mAP of SEEC-YOLO

12、v5s model for six behaviors recognition was 84.65%,which was 2.34percentage points higher than that of YOLO v5s model,and compared with that of Faster R-CNN,YOLO X-s,YOLO v4-tiny and YOLO v7-tiny models,the mAP was improved by 4.30 percentagepoints,3.06 percentage points,7.11 percentage points and 2

13、.99 percentage points,respectively.Themethod can provide effective support for daily behavior monitoring and health condition analysis of layinghens,and provide a reference for smart farming.Key words:laying hens;daily behavior recognition;SEAM module;EVCBlock module;YOLO v5s0引言我国蛋鸡养殖业发展迅速,目前已经成为鸡蛋产

14、量最多的国家 I-2】。随着物质生活的提高,人们对优质蛋白的市场需求也在不断扩大,食品安全需要养殖业减抗、无抗生产 3。健康养殖是实现无抗养殖的前提,家禽的行为信息与其生理健康状况密切相关 4-5。目前,对蛋鸡健康状况的监测主要采用人工观察的方式,此方法不仅需要大量的劳动力、效率低下,而且易受主观因素影响。近年来,国内外学者在机器视觉技术识别动物行为研究领域开展了大量研究。李丽华等 6 通过K-means聚类算法实现了对本交笼种鸡的采食、饮水、打斗、交配和振翅行为的识别。RIDDLE等 7 手动识别了图像中的蛋鸡站立、躺卧、栖息、拍打翅膀、沐浴灰尘等行为。劳凤丹等 8 通过对蛋鸡图像的分割、形

15、态学处理提取参数、利用贝叶斯分类的方法,实现了对单只蛋鸡的运动、饮水、采食、修饰、抖动、休息、拍翅膀、探索、举翅膀行为的识别。刘修林 9 利用最大类间方差法实现了复杂背景下的鸡体分割,然后根据位置信息实现了啄食、饮水、运动、静止行为的识别。XIAO等 10 通过改进活动轮廓模型,分割出笼养鸡的图像技术,提出了一种利用双目视觉系统获取行为信息的检测方法。ZHUANG等 首先从复杂背景中提取家禽目标,然后计算家禽骨架结构、建立特征向量,对家禽是否处于啄食状态进行了分析,同时利用支持向量机方法对家禽的健康状况进行了评估。上述文献在动物行为识别方面取得了相应的进展,但这些研究方法均具有人工图像分割、手

16、动提取参数或特征的特点,分割效果依赖于人的主观经验,无法保证分割精度的稳定性。随着深度学习技术的发展,越来越多的学者开始尝试将深度学习技术应用于动物行为识别。王凯【12 提出了改进YOLOv3模型(TDYO LO v 3),实现了对蛋鸡的采食、躺、站立、探索和修饰行为的检测。WANG等 13 采用YOLOv3模型和迁移学习的方法,实现了对笼内2 0 只蛋鸡的交配、站立、喂食、散步、打架和饮水6 种行为的识别。MBELWA等 14 通过改进的卷积神经网络(CNN),并采用迁移学习的方法,通过对鸡粪便的识别,实现了对患有疾病鸡的检测。ZHANG 等 15 通过改进的 ResNet 模型(ResNe

17、t-FPN),实现了对病鸡的检测。WANG等 16 应用RPN+ResNet模型根据粪便种类,实现对消化疾病的检测,从而对鸡的健康状况进行预测。LIN等17 利用FasterR-CNN模型实现了鸡只运动和饮水行为的识别。不仅站立、采食、饮水、探索和梳羽行为能够反映蛋鸡的健康状况,啄羽行为也能反映蛋鸡的健康状况 18 。上述文献在蛋鸡健康状态的行为识别中,鸡舍背景简单且缺少对蛋鸡啄羽行为的关注。利用深度学习技术识别蛋鸡行为,具有网络模型自动提取行为特征、不需人工参与的特点,不仅能够解决人工观察法耗费大量劳动力的弊端,而且还能够解决图像处理法的分割效果依赖于人的主观性、分割精度不稳定的问题 19。

18、因此,本研究基于深度学习技术,选用YOLOv5模型,通过引人SEAM注意力模块和显式视觉中心模块(EVCBlock),对YOLOv5模型进行优化,实现遮挡情况下的小个体蛋鸡站立、采食、饮水、探索、啄羽和梳羽6 种日常行为的自动识别,提升模型的识别精度。在行为识别的基础上,进一步对蛋鸡群体行为的变化规律进行统计分析。1数据采集与预处理1.1数据采集本试验于2 0 2 2 年9月7 2 4日在河北桃木疙瘩农业科技股份有限公司中庄养殖基地长3m、宽2m、柱高1.2 m、顶高2 m的移动式鸡舍内饲养了20只健康状态良好的太行山蛋鸡,鸡舍内部放置一个食槽、一个饮水桶和一个产蛋箱,于每日0 9:0 0 和

19、15:00喂食、拾取鸡蛋。试验采用焦距为2.8 mm、顿率为2 5f/s、分辨率为2 56 0 像素192 0 像素的海康威视(DS2 CD 3T 56 FW D V2 15)广角摄像头对蛋鸡每日0 9:0 0 一18:0 0 间的日常行为进行录制,农3182023年机报学械业并通过网线将数据传输到容量为4TB的海康威视网络硬盘录像机(DS-7804N-K1/4P(D)中。摄像头安装在鸡舍内部中间顶部,距地面2 m,垂直向下拍摄 2 0 。采集环境如图1所示。摄像头食槽蛋箱饮水桶图1采集环境Fig.1Acquisitionenvironment1.2数据预处理本文选择蛋鸡站立、采食、饮水、探索

20、、啄羽和梳羽共6 种与蛋鸡健康状况评估相关的行为作为研究对象,蛋鸡行为判定标准如表1所示,各行为示例如图2 所示。表1登蛋鸡行为判定标准Tab.1Laying hens behavior determination criteria行为种类行为描述标签站立鸡只腿部直立,支撑身体stand采食鸡只在食槽前,头部探人食槽eat饮水鸡只在饮水桶旁,头部探人饮水桶drink探索鸡只处于站立状态下,头部低下explore啄羽鸡只用喙啄其它鸡只peck梳羽鸡只用喙梳理自己的羽毛preening feather(a)站立(b)采食(c)饮水(d)探索(e)啄羽(f)梳羽图2各行为示例图Fig.2Exampl

21、e diagrams of each behavior利用顿提取的方法每隔30 帧提取1幅图像,随机选择不同时间下的图像作为蛋鸡日常行为识别数据集。数据集中图像的质量会显著影响模型的训练效果 2 1,因此,需要对提取出的图像进行数据清洗,去除模糊图像。最后利用Labellmg工具对蛋鸡日常行为识别数据集进行标注,制作成Pascal Voc22格式数据集,并按照7:2:1的比例划分为训练集、验证集和测试集。为了避免模型过拟合,增强算法的鲁棒性 2 3本文采用离线增强方式,随机选择旋转、缩放、镜像的方式对训练集中的图像进行数据增强。数据增强后的样本如图3所示。(a)镜像、旋转、缩放(b)旋转、缩放

22、图3数据增强效果图Fig.3Data enhancement effect diagrams经过数据预处理后,蛋鸡日常行为识别数据集共包括30 19幅图像。如图3所示,同时对原图像进行了镜像、旋转和缩放操作,增加了图像的多样性。试验总体流程图如图4所示。数据采集截取图像图像标注使用LabelImg工具训练集、验证集、测试图像预处理数据集划分集比例为7:2:1模型训练图像数据增强模型验证及测试旋转缩放镜像蛋鸡行为识别结果分析图4试验总体流程图Fig.4General flow chart of experiment如图4所示,整个试验首先进行数据采集,获得蛋鸡日常行为图像,其次对图像进行预处理操

23、作,为模型训练做准备。经模型训练后,进行性能测试和结果分析。2蛋鸡日常行为识别方法2.1YOLOv5s网络结构YOLOv5模型兼顾了推理速度和检测精度 2 4根据网络结构的深度和宽度的不同,将YOLOv5模型分为YOLOv5n、YO LO v 5s、YO LO v 5m、YO LO v 51和YOLOv5x共5个版本。为了选取合适的版本,使用本试验的蛋鸡日常行为识别数据集分别训练上述5个模型,利用测试集进行识别效果评估,不同版319杨断利等:基于SEEC-YOLOv5s的散养蛋鸡日常行为识别与统计系统第9 期本的YOLOv5模型检测精度对比如表2 所示。表2不同版本的YOLOv5模型检测精度对

24、比Tab.2Comparison of detection accuracy of differentversions of YOLO v5 models精确率/召回率/F1值/平均精度模型参数量%均值/%YOLOv5n70.8270.0270.4272.061.770 106YOLOv5s81.5576.5278.9582.317.030 106YOLOv5m81.1879.5280.3482.892.087 107YOLOv5180.4579.0979.7683.574.614 107YOLO v5x80.6480.7480.6984.148.621 107从表2 可知,YOLOv5s模型

25、对蛋鸡日常行为识别的精确率为8 1.55%,召回率为7 6.52%,F1值为7 8.95%,平均精度均值为8 2.31%,参数量为7.0 310。与YOL0v5n模型相比,精确率、召回率、F1值和平均精度均值分别提升10.7 3、6.50、8.53、10.2 5个百分点,参数量仅增加5.2 6 10,与YOLOv5m、YO LO v 51以及YOLOv5x模型相比,虽然平均精度均值降低了0.58、1.2 6、1.8 3个百分点,但是参数量分别减少1.38 410 7、3.91110、7.918 10。综合模型检测精度和模型复杂度,本文选取YOLOv5s模型作为蛋鸡日常行为识别基本模型。YOLO

26、v5s模型结构如图5所示。11特征提取特征融合输出1024202051220201024x20 x20!DetectSPPFCBSC3TT102420 x2051240 x40102420 x2011C3UpsampleConcat11111024202010244040512x20 x201CBSConcatCBS!51240 x4051240 x405124040DetectC3C3-52C31111151240 x40256x40 x40512x4040!CBSCBSConcat1256x80 x80256x80 x80256x4040C3UpsamapleCBS1125680 x805

27、12x80 x80256x80 x80IDetectCBSConcatC3-82128x160 x160C3CBSConv2dBatchNormSiLU128x160 x160CBSCBSMaxPool2dMaxPool2dMaxPool2dConcatCBS64x320 x320SPPFCBSCBSCBSCBSConcatCBS1TrueCBSC3输入3x640 x640图5YOLOv5s模型结构图Fig.5YOLO v5s model structure diagramYOLOv5s模型包括输人、特征提取、特征融合和输出4部分。输人部分用于向模型输人预先处理好的蛋鸡图像;特征提取部分采用了

28、CSPDarknet53结构,用于提取目标的语义信息;特征融合部分使用了PAN结构,用于对特征提取部分提取到的特征进行处理 2 5,融合不同尺度信息,增强特征的表达;输出部分共包括3个分支,特征图尺寸分别为8 0 像素80像素、40 像素40 像素和2 0 像素2 0 像素,分别用于识别小、中、大目标,并进行输出。2.2SEEC-YOLOv5s蛋鸡日常行为识别模型针对鸡只个体目标较小、蛋鸡之间重叠遮挡导致的有效特征不足、丢失、遗漏、行为识别效果不理想的问题,本文以YOLOv5s模型为基础,通过引人SEAM注意力模块和显式视觉中心模块,构建改进YOLOv5s模型(SEECYO LO v 5s),

29、增强模型特征提取能力,提升行为识别精度。优化后的SEECYOLOv5s模型结构如图6 所示。在图6 中的输出部分加人SEAM注意力模农3202023年报机业学械特征提取特征融合输出10242020512x20201024x20201SEAMDelectSPPFCBSC31改进11024202051240 x40C3Upsample10242020Concat10242020512x404011改进2CBSEVCBlock111/51240 x401024x4040512x20 x201C3ConcatCBS111111111512404051240401512404011SEAMDetectC

30、BSC3-621C3改进12568080256x4040512x40 x40C3CBSConcat256x80 x8025680 x801CBSUpsample256x40 x40CBS128x1601605124040C3改进2EVCBlock改进1128160 x16051280 x80256x80 x80CBSSEAMDetectConcatC3-5264x320 x320CBSCBSMaxPool2dMaxPool2dMaxPool2dConcatCBS1SPPFConv2dCBSCBSCBSConcatCBS1CBSBatchNormTrue输入3x640 x640CBSC3SiLU

31、图6SEEC-YOLOv5s模型结构图Fig.6SEEC-YOLO v5s model structure diagram块【2 6 (图6 中的改进1),将特征融合部分的3个不同尺度输出层与输出部分的3个检测头进行连接,解决蛋鸡之间因为遮挡导致的有效特征丢失问题。在特征融合部分的特征金字塔网络(FPN)结构中加人显式视觉中心模块(EVCBlock)2 7 (图6 中的改进2),解决鸡只目标较小、有效特征不足、容易被遗漏的问题。2.2.1SEAM注意力模块蛋鸡个体间的遮挡会导致鸡体局部混叠、重要特征缺失 2 6 。利用SEAM模块,将YOLOv5s模型特征融合部分的3个不同尺度输出层与输出部分

32、的3个检测头进行连接,可突出图像中的蛋鸡区域,弱化背景区域,实现多尺度下的蛋鸡日常行为检测。SEAM模块结构图如图7 所示。SEAM模块的第1部分是带有残差连接的深度可分离卷积。深度可分离卷积不仅能减少模型的参数量,而且还可以利用逐通道运算,学习多个不同通道的重要特征,提升模型的特征提取能力。但是深度可分离卷积在学习不同通道的重要特征时,由于输人Patch Embedding立CSMMCSMMCSMMPatch为8CELUPatch为6Patch为7立BatchNormDepthwiseConvolutionAveragePoolingCELU立BatchNorm第1部分PointwiseCo

33、nvolutioneChannel exp立GELU第2 部分立BatchNorm图7SEAM模块结构图Fig.7SEAM module structure diagram没有考虑通道之间的特征联系,所以对不同通道的特征提取并不充分。因此,为了弥补深度可分离卷积的不足,SEAM模块在不同深度可分离卷积的输321杨断利等:基于SEEC-YOLOv5s的散养蛋鸡日常行为识别与统计系统第9 期出后进行了逐点卷积操作,最后通过一个两层的全连接网络融合各通道的特征,实现了所有通道之间的连接。第2 部分是将全连接层的输出结果通过指数函数进行处理,并将取值范围从 0,1 扩大到 1,e,使得上一步学习到的被

34、遮挡蛋鸡的有效特征与无遮挡的有效特征相互联系,最后将SEAM模块的输出作为特征与原始特征相乘,使模型能够有效地解决蛋鸡个体间遮挡带来的有效特征丢失的问题。2.2.2显式视觉中心模块蛋鸡个体目标较小,有效特征不足且容易产生遗漏,致使模型识别精度较低。为了尽可能多地提取蛋鸡个体有效特征,本文在特征融合部分的FPN结构中加入了显式视觉中心模块(EVCBlock)。EVCBlock模块结构如图8 所示。Lightweight MLPLong-rangedependenciesdTNStemBlockCues lostCues reservedConcaKeyCodebookValue-e11,e21,

35、eN1Conv1x1FC通道数为X,e12,e22,N2256:BN-ReLU-MeanLocalScalingcornerXregionsLearnableFactorse1,2KNkVisual Center图8EVCBlock模块结构图Fig.8EVCBlock module structure diagramEVCBlock模块主要包括轻量级MLP和可学习的视觉中心机制,轻量级的MLP用来获取模型中EVCBlock模块上一层传人特征X4的全局特征信息,可学习的视觉中心机制用于聚合模型中EVCBlock模块上一层传人特征X.的局部区域特征信息。EVCBlock模块将获得的全局特征信息和局

36、部区域特征信息沿着通道维度进行拼接,生成最后的特征。由于EVCBlock模块学习的特征中不仅包括全局的特征信息,还包括局部区域的特征信息,特征信息较丰富,因此,能够解决蛋鸡个体目标较小、特征遗漏的问题。EVCBlock模块并未直接对模型中EVCBlock模块上一层的传人特征X进行操作,而是先将上一层的传人特征X4通过Stem模块进行操作,然后再对经过Stem模块处理后的特征进行操作。Stem模块依次通过卷积核为7 7、输出通道数为2 56 的卷积操作、批归一化(Batchnormalization)操作,并使用ReLU作为激活函数。Stem模块主要用于对模型中EVCBlock模块上一层的传人特

37、征X4进行特征平滑。横钟迁管公式EVCBlock模块的计算公式为X=Concat(MLP(Xin);LVC(Xin)(1)其中Xin=(BN(ConV77(X4)(2)式中XEVCBlock模块的输出Concat()一一沿 channel 维度的特征图拼接操作MLP(Xin)一但-使用轻量级MLP的输出特征LVC(Xi.)一一使用可学习的视觉中心机制的输出特征Xi.一Stem模块的输出g()一ReLU激活函数BN()批归一化层操作ConV7卷积核为7 7、步幅为1、输出通道数为2 56 的卷积操作2.3试验参数设置本研究所用的硬件配置和试验环境如表3所示。使用相同的蛋鸡日常行为数据集分别对YO

38、LOv5的5个版本模型、Faster R-CNN、YO LO X-s、YOLO v4-tiny、YO LO v 7-t i n y 以及 SEEC-YOLOv5s模型进行训练。试验所采用的超参数:输人图像尺寸为6 40 像素6 40 像素,训练批量大小(Batchsize)为8,迭代周期(Epoch)为10 0,线程数(num农2023年322报机学业械workers)为8,初始学习率(Initial learning rate)为0.01,动量因子(Momentum)为0.937,优化器为随机梯度(SGD),利用最优权重对模型进行评价。表3石硬件配置和试验环境Tab.3Hardware co

39、nfiguration and experimentalenvironment硬件配置试验环境操作系统Windows 10Python 3.8CPUIntel Core i7-9700PyTorch 1.9GPUNvidia GeForce RTX3060CUDA 11.1.74RAM16 CBCUDNN 8.0.52.4模型评估本文利用精确率(Precision,P)、召回率(Re c a l l,R)、平均精度(Average precision,A P)、F1值、平均精度均值(Meanaverage precision,mA P)和参数量对模型性能进行评估。精确率表示正确检测出的目标与识

40、别出的所有目标的比值,召回率表示检测出为正类且真实类别也为正类的目标数量与真实类别为正类的所有目标总数的比值,平均精度表示对每个类检测的结果,F1值表示精确率和召回率的调和平均值,平均精度均值表示对所有类别的检测结果。2.5蛋鸡日常行为持续时间统计方法在日常生活中,可以对蛋鸡群体进行各种行为的持续时间统计,从而判断蛋鸡的生活习性,并分析其健康状况,为蛋鸡福利养殖提供借鉴 2 8 。通过对顿速率计算公式的变换,可以实现对蛋鸡日常行为持续时间的统计,即利用SEECYO LOv5s模型对蛋鸡的日常活动视频进行识别,并对各种行为的识别结果进行统计,通过检测出的各行为视频顿数与视频顿率的比值,获得各种日

41、常行为的持续时间T(单位为min)。3结果与分析3.1不同模型识别结果分析为了验证不同模型对蛋鸡日常行为识别的效果,采用相同的蛋鸡日常行为识别数据集分别对Faster R-CNN模型、YOLO X-s模型、YOLO v4-tiny模型、YOLOv7-tiny模型、YOLOv5s模型以及本文模型(SEECYO LO v 5s)进行训练,利用精确率、召回率、F1值、平均精度均值和参数量进行效果评估,试验结果如表4所示。从表4可以看出,SEECYO LO v 5s 模型对蛋鸡日常行为识别的精确率、召回率、F1值、平均精度均值以及参数量分别为8 2.34%、8 1.30%、8 1.8 2%、表47不同

42、模型识别结果对比Tab.4Comparison of recognition results of differentmodels精确召回F1值/平均精度模型参数量率/%率/%均值/%Faster R-CNN64.8082.7272.33 80.351.3679 108YOLO X-s75.7482.5478.9981.598.04 106YOLO v4-tiny73.2273.6573.4377.543.07 106YOLO v7-tiny76.7379.0977.8981.666.02 106YOLO v5s81.5576.5278.9582.317.03 106SEEC-YOLO v5s

43、82.34 81.3081.8284.651.279 10784.65%和1.2 7 910。在检测精度方面,精确率、F1值和平均精度均值比FasterR-CNN模型分别高17.54、9.49、4.30 个百分点,比YOL0X-s模型分别高6.6 0、2.8 3、3.0 6 个百分点,比YOLOv4t i n y模型分别高5.6 1、8.39、7.11个百分点,比YOL0v7-tiny模型分别高5.6 1、3.9 3、2.9 9 个百分点,比YOL0v5s模型分别高0.7 9、2.8 7、2.34个百分点。SEEC-YOLOv5s模型的召回率略低于FasterR-CNN 模型和 YOLO X-

44、s 模型,与 YOLO v4-tiny模型、YOLOv7-tiny模型和YOLOv5s模型相比分别高7.6 5、2.2 1、4.7 8 个百分点。在模型复杂度方面,SEECYO LO v 5s 模型参数量与其他模型相近,仅为Faster RC NN模型参数量的10.70%。因此,从检测精度和模型复杂度两方面综合来看,SEECYO LO v 5s 模型在蛋鸡日常行为检测方面更有优势。蛋鸡不同日常行为识别结果反映出模型对目标特征的识别能力,因此将本文模型SEECYO LOv5s 分别与 Faster R-CNN、YO LO X-s、YO LO v 4-tiny、YO LO v 7-t i n y

45、和YOLOv5s模型对每类蛋鸡日常行为识别的平均精度进行对比,结果如表5所示。表5:不同行为识别精度均值对比Tab.5Comparison of average precision of differentbehavioural recognition%FasterYOLOYOLOYOLOYOLOSEEC-行为R-CNNX-sv4-tinyv7-tinyv5sYOLO v5s站立83.8887.0385.5786.7487.7786.56采食92.2996.6896.0297.2396.3798.46饮水98.3295.3189.7392.8192.0494.52探索70.3071.1363.

46、9668.5873.8277.33啄羽60.5257.1758.6464.4866.0967.52梳羽76.7982.2071.2980.1277.7583.50从表5中可以看出,SEECYO LO v 5s 模型对蛋鸡的采食行为的识别精度最高,达到98.46%,对啄羽行为的识别精度最低,仅为6 7.52%,分析原因可能是啄羽行为在所有行为中属于少数异常323YOLOv5s的散养蛋鸡日常行为识别与统计系统杨断利等:基于SEEC-第9 期行为,采集得到的数据集中啄羽行为占比只有3.68%,因此基于深度学习算法对啄羽行为的识别精度普遍偏低,可通过长时间采集大量啄羽行为训练模型来提升啄羽行为的识别精

47、度。SEEC-YOLOv5s模型对采食、探索、啄羽和梳羽4种行为的识别精度均高于其他模型,SEEC-YOLOv5s模型对4种行为的识别精度最少提高1.2 3个百分点,最高提高13.37 个百分点。SEECYO LO v 5s模型对站立行为的识别精度比YOLOXs 和YOLOv5s模型低0.47、1.2 1个百分点,对饮水行为的识别精度比FasterR-CNN和YOLOXs 模型低3.8 0、0.7 9个百分点。总体而言,SEEC-YOLOv5s模型对蛋鸡日常行为的识别具有一定的优势。随机从本试验的蛋鸡日常行为识别数据集中选择1幅图像,分别利用FasterR-CNN、YO LO Xs、YOLOv

48、4-tiny、YO LO v 7-t i n y、YO LO v 5s 和本文模型(SEECYO LO v 5s)对此图像进行识别,识别效果如图9所示。(a)FasterR-CNN(b)YOLOX-s(c)YOLO v4-tiny(d)YOLO v7-tiny(e)YOLOv5s(f)SEEC-YOLOv5s图9不同模型识别效果图Fig.9Different model recognition effect diagrams通过对比发现,如图9a中的红色箭头所示,Faster RCNN模型误将1只蛋鸡行为识别为2种行为,如绿色箭头所示,也误识别出了鸡舍外部不属于本试验的蛋鸡。如图9 b中红色箭

49、头所示,YOLOXs模型虽然正确识别了蛋鸡的行为,但是与图9f本文模型相比,识别的置信度较低。如图9c中红色箭头所示,YOLOv4t i n y 模型存在多处漏检行为,如蓝色箭头所示,误将探索和站立的蛋鸡识别为了站立和梳羽行为。如图9d中红色箭头所示,当蛋鸡被遮挡时,YOLOv7t i n y 模型的目标置信度较SEECYO LO v 5s 模型更低;如图9e中红色箭头所示,YOLOv5s模型对蛋鸡日常行为识别存在多处漏检行为;图9f中的SEEC-YOLOv5s模型能够准确识别出鸡舍内部每只蛋鸡的行为。综上所述,Faster R-CNN模型对蛋鸡日常行为识别存在多处将1只蛋鸡误识别为2 种行为

50、的情况,表明FasterRCNN模型对蛋鸡日常行为识别能力较差;YOLOX-s和YOLOv7-tiny模型在蛋鸡存在遮挡情况下置信度较低,表明YOLOX-s和YOLOv7-tiny模型在遮挡情况下,对目标特征的学习能力较弱;YOLOv4t i n y 和YOLOv5s模型存在多处漏检情况,表明YOLOv4t i n y 和YOLOv5s模型对较小目标的识别能力不足。因此,从检测精度、模型复杂度和识别效果3方面来看,SEECYO LO v 5s 模型对蛋鸡日常行为识别的总体效果最好。3.2SEEC-YOLOv5s模型消融试验利用本文数据集,使用平均精度均值和各类别的平均精度指标,对YOLOv5s

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服