收藏 分销(赏)

基于A-Unet的牛体尺测量方法研究.pdf

上传人:自信****多点 文档编号:624974 上传时间:2024-01-18 格式:PDF 页数:9 大小:3.93MB
下载 相关 举报
基于A-Unet的牛体尺测量方法研究.pdf_第1页
第1页 / 共9页
基于A-Unet的牛体尺测量方法研究.pdf_第2页
第2页 / 共9页
基于A-Unet的牛体尺测量方法研究.pdf_第3页
第3页 / 共9页
基于A-Unet的牛体尺测量方法研究.pdf_第4页
第4页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023,44(4):76-84石炜,张显宇,杨晶安,等.基于A-Unet的牛体尺测量方法研究 J.畜牧与饲料科学,2 0 2 3,44(4):7 6-8 4.D0I:10.12160/j.issn.1672-5190.2023.04.011Animal Husbandry and Feed Science基于A-Unet的牛体尺测量方法研究畜牧与饲料科学石炜,张显宇,杨晶安,赵岩(内蒙古科技大学机械工程学院,内蒙古包头0 140 10)摘要:目的 建立一种基于U-Net改进的A-Unet图像分割与牛体尺测量方法,以实现对牛体体高、体长、体斜长的自动化测量。方法 首先,在牧场通过摄像头采集牛的

2、侧视图片;其次,利用A-Unet算法进行图像分割,提取牛体边缘轮廊曲线,在牛体轮廊曲线的基础上采用动态网格法寻找牛体尺测量点;最后,根据摄像头已标定的参数和提取到的测量点进行计算,得出牛体尺数据。结果 通过对深度学习算法图像分割性能的对比分析发现,相比原始的U-Net算法,建立的A-Unet算法具有更高的准确度。利用该算法对牧场2 1头牛进行体尺指标测定,并与人工测量结果进行比较,经验证,该方法检测体高、体长、体斜长的平均相对误差分别为4.16%、4.0 5%、4.2 7%。结论 基于A-Unet的牛体尺测量方法可以有效地替代传统的牛体尺人工测量方式,具有适用性好、稳定性强和检测准确率高等优点

3、,测量误差能够满足牧户对牛体尺测量需求。关键词:图像分割;牛体尺测量;A-Unet;图像处理中图分类号:S818.9;TP391.41;S823Establishment of an A-Unet Based Cattle Body Size Measurement MethodSHI Wei,ZHANG Xianyu,YANG Jingan,ZHAO Yan(School of Mechanical Engineering,Inner Mongolia University of Science and Technology,Baotou014010,China)Abstract:Objec

4、tive This study aimed to establish an improved A-Unet image segmentation and cattle body size measurementmethod on the basis of U-Net to achieve the automated measurement of cattle body height,body length,and body oblique length.Method Firstly,side view images of the farm-raised cattle were collecte

5、d through cameras.Secondly,the A-Unet algorithm wasused for image segmentation to extract the contour curve of cattle body edge.Based on the contour curve of cattle body,thedynamic grid method was adopted to find the cattle body size measurement points.Finally,according to the calibrated parametersb

6、y cameras and the extracted measurement points,the cattle body size data was calculated.Result The established A-Unetalgorithm was found to have higher accuracy than the original U-Net algorithm through comparative analysis of the imagesegmentation performance of deep learning algorithms.Compared wi

7、th the manual measurement,the average relative errors of thebody height,body length and body oblique length of 21 farm-raised cattle measured by the established A-Unet algorithm were4.16%,4.05%and 4.27%,respectively.Conclusion With the advantages of good applicability,high stability and high detecti

8、onaccuracy,the A-Unet based cattle body size measurement method could effectively replace the traditional manual measurementmethod.The measurement error met the needs of herdsmen for measuring cattle body size.Keywords:image segmentation;cattle body size measurement;A-Unet;image processing牛体尺数据对于养殖户

9、监测牛的生长及健康状态有着重要意义1。此外,在肉品质评价、选种以及科学育种等方面,牛体尺数据也是重要参数之一 2 。牧场通常以人工使用皮尺直接测量的方式确定牛体尺数据。但是,这种传统的方法存在着收稿日期:2 0 2 3-0 3-14项目来源:内蒙古自治区科技重大专项“基于物联网的内蒙古现代草原牧业生产监控及产品安全溯源平台建设”。作者简介:石炜(19 7 1一),男,副教授,博士,硕士生导师,主要研究方向为精密检测技术。通信作者:张显宇(19 9 6 一),男,硕士研究生,主要研究方向为机器视觉、深度学习算法。文献标志码:A测量结果不准确、工作量大、容易引起牛的应激反应等诸多问题,因此,呕须研

10、究人员开发出更为精准、高效、安全的牛体尺测量方法。随着智慧农牧业技术的发展与应用,在畜牧业现代化大背景下 3,应用机器视觉技术提升牛体尺测量的精准性和效率,成为众多学者研究的热点方向。在国内,石炜等 4使用基于边缘的图像分割技术获取牛体尺参数。然而,当牛只的毛色与周围环境色彩相似时,该方法无法有效地将目标牛体区分出来。朱林等 5 采用OpenCV机器视觉库获取牛体尺参数,虽有一定效果,但稳定性不够,在复杂场景下应用受到限制。赵建敏等 6 】使用文章顺序编号:16 7 2-519 0(2 0 2 3)0 4-0 0 7 6-0 9第4期MaskR-CNN双阶段目标检测算法提取牛体轮廓曲线,虽然这

11、种双阶段算法能够实现较高的精度,但需要更多的计算资源和时间来完成2 个阶段的计算。此外,由于需要进行2 个阶段的计算,双阶段算法可能会受到第一阶段区域生成的误差影响,从而导致检测结果不准确。在牧场采集牛体图像时,常常会受到背景噪声的干扰,导致难以获得符合测量标准的完美图像。为了更加精确地获取牛的身体轮廓和体尺数据,笔者提出了一种基于U-Net7的单阶段网络模型,用于建立自动测量牛体高、体长和体斜长的方法。经典U-Net是一种基于全卷积网络分割模型的算法,由编码阶段、解码阶段以及预测网络三部分构成。它能够利用较少的图像进行端到端的训练,实现牛体轮廓曲线的快速分割。然而,由于牧场采集的牛体图像中存

12、在较多干扰因素,U-Net算法对图像中牛体轮廓的分割能力尚且不足。为了解决这些问题,笔者在U-Net的基础上,提出一种 A-Unet(Attention-Unet)算法,在 U-Net 基础上引人了CBAM注意力机制(Convolutional BlockAttentionModule,CBAM)8来增强U-Net算法对石炜等:基于A-Unet的牛体尺测量方法研究1材料与方法1.1数据采集该研究以内蒙古自治区锡林郭勒盟苏尼特左旗某牧场的牛群为研究对象,选取2 1头年龄在13周岁的牛,采集站姿图片,并进行人工体尺测量。将选取的牛只编号为1 2 1,用于后续试验的准备工作。1.2体尺测量系统设计方

13、案体尺测量系统试验平台由摄像头和服务器构成,其主要用途是采集牧场牛体的图像。该测量系统的算法包括图像分割算法和体尺测量算法,通过图像分割算法提取出牛体轮廓曲线后,再利用体尺测量算法测量出牛体的体尺数据。体尺测量系统的流程和原理如图1所示。具体流程如下:通过在牧场使用摄像头采集牛的站姿图77牛体轮廓曲线分割精度。利用A-Unet算法提取牛体轮廓后,使用动态网格法提取牛体尺测量点,并通过摄像头标定参数计算牛体尺数据,这为牧户在养殖过程中有效监测牛的健康生长状态提供了解决方案。实验平台RFID识别对应牛体编号1摄像头1图像采集图像分割算法A-Unet语义分割网络深度学习CBAM注意力机制Mask掩模

14、图像牛体轮廓提取立动态网格法计算体尺测量点OpencV体尺测量算法测量体长、体高、体斜长图1牛体尺测量系统流程78像,并结合超高频射频识别技术识别牛的RFID耳标 9 ,实现每张图像牛只编号的标注。将采集的图像送入A-Unet算法,用于牛体轮廓的分割,并生成带有牛体掩模信息的图像。利用边界寻找函数findContours,从带有掩模信息的图像中提取牛体的轮廓曲线 10 ,针对提取出的牛体轮廓曲线,运用动态网格法提取轮廓曲线上的体尺测点,并根据这些测点计算当前牛的体尺数据 4。牛体尺测量点位置详见图2。其中,A点为薯甲点,B点为牛尻点,C点为肩胛前端点,D点为A点的垂点。体长为A、B 两点的水平

15、距离,体高为A、D 之间的垂直距离,体斜长为B、C 两点的直线距离。1.3A-Unet 算法1.3.1A-Unet算法整体结构经典的U-Net是一种深度神经网络架构,,常用于图像语义分割任务。该网络采用编码器-解码器结构,能够从原始图像中提取出高层次的特征并进行像素级别的预测。U-Net还采用了跳跃式连接,将编码器和解码器中对应的特征图相连接,实现了多层次、多尺度的信息传递和融合,从而提高了模型的准确性和泛化能力。该研究提出一种将CBAM注意力机制模块集成进U-Net的智能牛体尺测量算法,增强U-Net神经网络的牛体轮廓曲线分割精度,提高了牛体尺测量的准确性。图3展示的是改进后的网络结构,由于

16、注意力机制模块的权值是随机初始化的,因此将其添加到加强特征提取部分中可以取得更佳的效果。畜牧与饲料科学CBAM注意力机制,可以自适应地控制特征图中各个通道的权重,以提高模型的表现力和鲁棒性。具体而言,CBAM模块由两部分组成:通道注意力和空间注意力。通道注意力模块利用全局平均池化操作对每个通道的特征图进行压缩,并通过2个全连接层学习每个通道的重要性权重,从而提高通道之间的相关性和互补性。空间注意力模块通过在不同空间维度上应用多个卷积核和池化操作,以学习每个像素的重要性权重,并提高不同空间位置的特征的互补性和区分性。因此,引入CBAM注意力机制的A-Unet算法可以提高网络对不同尺度、不同位置和

17、不同特征的适应性,从而在牛体图像分割任务中取得更好的性能表现。1.3.2CBAM注意力机制注意力机制的核心重点在于引导网络关注更加重要的地方。在U-Net算法模型的基础上嵌人CBAM模块,引人注意力机制可以改变资源分配的方式,使更多的资源倾斜到目标对象上。CBAM将通道注意力机制和空间注意力机制结合,在输入的特征层上首先使用通道注意力模块进行加权,然后使用空间注意力模块进行加权,既关注通道的重要性,又关注每个像素点的重要性。在A-Unet算法的训练过程中,为图像中的牛体目标对象分配更多的权重参数,提高目标特征提取性能,同时减少背景噪声的影响。CBAM注意力机制首先使用通道注意力模块来计算特征图

18、中每个通道的权重,然后将计算得到的权重乘以原始特征图,得到一个加权后的特征图。接着,空间注意力模块将对加权后的特征图B第44卷ACDA一薯甲点;B一牛尻点;C一肩脚前端点;D一A点的垂点。图2 牛体尺测量点示意图第4期6464石炜等:基于A-Unet的牛体尺测量方法研究编码阶段解码阶段79预测网络192 64 64卷积3X3,R e L U 激活函数辑入图像CxHxW128128256256256输出图像384128CBAM768256CBAM512512最大池化步长为2转置卷积(上采样)拼接跳跃卷积1X15121024CBAM512512512图3融合CBAM模块的A-Unet算法模型结构进

19、行处理,以计算每个像素点的权重,最终得到一个基于通道和空间注意力的加权特征图。CBAM注意力机制可以用公式(1)描述:fe1,s1,2,2(x)=W,8(Wix+b1)+x式中,x是输人特征图,c1和s1分别表示通道数和空间大小,C2和s2分别表示通过通道注意力模块S2空间注意力模块处理后的特征图的通道数和空间大小。Wi和bi是通道注意力模块中的权重和偏置项,W是空间注意力模块中的权重。表示ReLU激活函数。注意力机制模块如图4所示。C B A M 注意力机制中的通道注意力机制,可以自适应性地调整每个通道的权重,以提高模型在不同任务中的表现。图5是通道注意力机制的具体实现方式。CBAM的通道注

20、意力机制主要由2 个子模块输人特征组成:通道最大值池化(MaxPool)和通道平均池化(A v g Po o l)。这2 个子模块共同构成了一个通道注意力模块,用于学习每个通道在不同空间位置上(1)的重要性和相关性,并根据这些权重进行特征融合。首先,通道最大值池化模块可以学习每个通道在不同空间位置上的最大响应,即学习通道间的重要性。其次,通道平均池化模块可以学习通道间的相关性,即学习每个通道在不同空间位置上的平均响应。然后,将上述2 个模块的输出拼接起来,并使用一个全连接层和一个sigmoid激活函数进行加权平均。CBAM的通道注意力机制可以用公式(2)来描述:Mc(F)=o(MLP(AvgP

21、ool(F)+MLP(MaxPool(F)输出特征MsMcCx1x11xHxWCxHxW输人相乘CxHxW图4注意力机制模块80畜牧与饲料科学第44卷输入特征MaxPool通道注意力权值SAvgPoolCxHxW共享全连接层:特征加法:Si g mo i d 函数图5通道注意力机制模块=o(Wi(Wo(Fivg)+Wi(Wo(Fimx)(2)式中,MLP是非线性函数拟合输出,一般采用Re-LU激活函数。表示sigmoid函数。W。和Wi是可学习的权重矩阵,为了降低计算参数,在MLP中采用了一个压缩率r,将隐含层大小设置为x11,其中C为通道的数量,所以W-C,W,=Cx。F点和F为对输人的体征

22、层分别经行平均池ravg化和最大值池化后得到的2 个C维池化特征图。最终得到的Mc(F)是一个通道注意力向量,它将每个通道的权重调整为适当的值。通过引人通道注意力机制,CBAM可以学习每个通道在不同空间位置上的重要性和相关性,并根据这些权重进行特征融合,从而提高模型的性能。C B A M 的空间注意力机制是另一个子模块,用于学习每个空间位置上的重要性,并对输入特征图进行加权平均。图6 是空间注意力机制的经过通道注意力机制后的特征图McCx1x1具体实现方式。CBAM的空间注意力机制主要由2 个子模块组成:空间最大值池化(MaxPool)和空间平均池化(APool)。这2 个子模块共同构成了一个

23、空间注意力模块。CBAM的空间注意力机制可以用公式(3)来描述:Ms(F)=o(f(AvgPool(F);MaxPool(F)J)=0(f7(Favg;Fmx)式中,表示sigmoid函数,f77表示滤波器大小为77的卷积运算。对经过通道注意力机制的特征层F=1xHxW经过全局平均池化和全局最大池化得到Favg=1xHW和Fmx=1HW,之后将这2个结果进行一个基于通道的堆叠拼接,得到一个Fm=2xHxW的特征图,使用通道数为1的7 x7卷积核进行卷积运算,压缩成通道数为1的特征图。通过sigmoid函数运算得到空间注意力特征M=1xHxW。空间注意力权值(3)Ms卷积MaxPool/CxHx

24、W:Si g mo i d 函数AvgPool图6 空间注意力机制模块1xHxW第4期1.3.3训练参数与分割精度评估指标试验硬件平台为AMD5600X处理器(主频3.70GHz)和一块英伟达RTX3060显卡(显存为12GB)。训练数据采用开源的COCO数据集中的2055张牛体图片,并通过缩放、裁剪等预处理实现了数据增强,能有效地降低由于数据量不足而导致的过拟合现象 1该试验在显存为12 GB的英伟达RTX3060显卡上运行,使用Python编程语言在Pytorch框架内实现。批量大小设为16。初始学习率设为0.001,迭代次数为2 0 0,并将网络分类数设为2,以区分牛体区域和非牛体区域。

25、语义分割的评价指标包括像素准确率(PixelAccuracy,PA)、平均像素准确率(MeanPixelAc-curacy,mPA)、平均交并比(Mean Intersection overUnion,mlU)。可以通过这些评价指标来评估所提出的A-Unet算法的性能 12 。这些评价指标的计算公式如下所示:TPPA=TP+FPTP+TNmPA=TP+TN+FP+FNTPmloU=TP+FP+FN式中,TP表示模型正确预测为牛体的像素点数量,FP表示模型错误地将背景像素点预测为牛体的数量,FN代表模型错误地将牛体像素点预测为背景的数量,TN表示模型正确预测为背景的像素点数量。将U-net与A-

26、Unet进行对比试验,所有试验均采用相同的损失函数与训练参数。最后,比较各石炜等:基于A-Unet的牛体尺测量方法研究(4)(5)(6)81项指标的得分情况。由表1可知,A-Unet算法在PA、m PA 和mloU方面的表现优于原始网络。这表明,融人注意力机制模块对提高网络性能有实质性的作用。1.4车轮廓及体尺测量点的提取1.4.1轮廓曲线的提取牛体轮廓提取首先是通过A-Unet算法处理原始图像生成掩码图像,再对掩码图像进行二值化处理 13。然后利用带有掩模信息的二值化图像,使用边缘寻找函数findContours提取牛体轮廓曲线,最后使用函数drawContours提取出牛的轮廓。相比于经典

27、的边缘检测方法如Sobel算子、Canny算子、拉普拉斯算子等 14-15,使用A-Unet算法分割牛体轮廓曲线再进行边缘提取的方法,不需要进行轮廓优化和轮廓拟合,提高了提取精度,极大地缩短了轮廓提取时间,并且更适用于复杂的背景。图7 A为原始图像,图7 B为A-Unet算法分割后的图像,图7 C为提取出的牛体边缘轮廓图像。1.4.2动态网格法提取牛体尺测量点首先,对二值化的牛体轮廓图像使用bound-ingRect函数获取牛体轮廓图像的最大外接矩阵。最大外接矩阵是一个包括图像中所有关键点的水平直角矩形。该函数返回的值中,(x,y)代表矩形的左上角坐标,(w,h)代表矩形的宽度和高度。以(,y

28、)为坐标原点建立坐标系,为后续体尺测量做好准备(见图8 A)。表1不同的算法分割结果对比表项目mloUU-Net0.819A-Unet0.896PA0.7990.835mPA0.8150.824ABA一原始图像;B一分割图像;C一轮廓图像。图7 目标牛体轮廓图C82在牛体轮廓图像处理中,像素点坐标均值是指图像中轮廓线像素点的坐标位置的平均值。针对体型不同的牛体,动态网格中各测量点的提取均建立在其轮廓线像素点的坐标基础之上 16 ,因此,对于不同的牛体轮廓曲线,可以提取到对应的牛体尺测量点。体高测量点馨甲点A的获取如图8 B所示,竖直方向的中部竖线W表示牛体像素点横坐标的动态均值,计算方式为xm

29、=x。网格中W.线表示横坐标像素均值线W与其右边界线的等分线,其公式如下:xm+/min(flagxx)/Xu=一2式中,牛体水平朝左时flag=1,朝右时flag=-1。用于标定体高的馨甲点A恰好为W,线与牛体轮廓的相交点中纵坐标较小的点。与此同时,甲点到最大外接矩阵下边的垂直距离,即为牛体的体高。体长测量点肩脚前端点C的获取如图8 C所示,动态网格中水平方向的中部横线Hm表示牛体像素点纵坐标的动态均值,计算方式为ym=y。肩胛前端点C为Hm与其轮廓交点中横(x.y)畜牧与饲料科学坐标较小的点。体斜长测量点牛尻点B的获取在获取体长测量点基础上,H.表示H均值线以上像素纵坐标的动态均值,计算方

30、式如下:yu=ym-max(O,ym-y)(8)如图8 D所示,牛尻点B为H.与其轮廓交点中横坐标较大的点。1.5体尺计算规定摄像头距离牛体2 0 0 cm,采用2 0 cmX20cm的棋盘格在此处进行标定,确定相机的内参和外参,以便将像素坐标转换为实际物体坐标,此处的像素比例记为P。根据上小节提取的4个体尺测(7)量点,通过欧氏距离计算牛体长、体高以及体斜长的像素长度,随后进一步将像素长度转换为牛的真实体尺数据,采用下述公式计算:L=V(X-X)+(Yi-y)P式中,(Xi,X2)、(Y1,Y2)是体尺测量点的坐标,L为体尺长度。计算体高时选取薯甲点A到最大外接矩阵的下边的垂直距离为体高的像

31、素长度。测量体长时,选取薯甲点A和牛尻点B的水平距离作(x,)W.A第44卷(9)W.hhWA(x.y)W.ABWmx,hHmWAWmHBhHmWCA一轮廓图像;B一薯甲点A的获取;C一肩肿前端点C的获取;D一牛尻点B的获取。WD图8 体尺测量点的提取过程第4期为体长的像素长度。计算体斜长时,牛点B到肩端点C的直线距离为体斜长的像素长度。2结果与分析对采集的2 1头牛体图像分别进行试验,对基于A-Unet的牛体尺测量方法进行验证。首先,采用人工测量方式获取牛只的体高、体长、体斜长3项数据作为试验样本的参考值。接着,使用该研究提出的方法进行轮廓提取和特征点提取,并计算每张图像的体尺数据,作为该方

32、法得出的牛只体尺数据。最后,将自动测量结果与人工测量结果进行比较后,给出了针对牛体的测量误差分析表,详见表2。经过验证,该研究所提出的基于A-Unet的牛体尺测量方法与人工测量的结果相比,体高平均相对误差为4.16%,体长平均相对误差为4.0 5%,体斜长相对误差为4.2 7%。与此同时,该方法测量时不需接触牛只,从而避免了与牛只接触所引发的其他问题。该方法在提取牛只轮廓方面,相较于传统边缘检测处理方法,具有更加精准的提取结果,并且简化了提取步骤,更具有广泛的适用性。体高/cm序号人工测量自动测量误差/%112621233117412551206116712581239116101151112

33、512123131221411615119161261711518126191232011921122石炜等:基于A-Unet的牛体尺测量方法研究表2 牛体测量实验结果表体长/cm人工测量自动测量误差/%114.11.51125.72.20122.84.96119.14.72115.73.58115.50.43129.43.52115.46.18119.93.36116.71.48116.56.80116.45.37116.34.67123.36.29124.24.37117.07.14123.87.65129.52.78117.54.47123.53.78119.52.0583结果表明,该方

34、法能够满足设计的所有需求。3讨论牛体尺数据是衡量牛只体型大小和生长发育状况的重要指标。通过测量牛只的身体尺寸,可以了解其体型大小、肉质状况、生长发育水平以及潜在的育种价值,从而为牛只的管理、饲养和育种提供科学依据。此外,牛体尺数据也是进行肉牛生产的必要条件,是评定肉牛肉质等级和肉牛的定级、分类的重要依据之一,因此,牛体尺数据的准确性和可靠性对于农牧业生产和肉牛行业的发展至关重要。该研究设计了一套基于A-Unet算法的牛体尺测量方法。该方法通过目标分割、轮廓提取、体尺测量点提取以及体尺计算实现了牛体尺的自动测量,能够有效地替代人工测量的方式。但是,该方法也存在一些局限性,如对于牛站姿不平行于镜头

35、时会存在站姿偏角,导致测得的体尺数据会有偏差。未来的研究可以进一步探讨如何通过改进算法对检测成功率与精准度进行提升,以达到准确无误的牛体尺自动测量的目的,以及如何将人工测量自动测量误差/%127124.1125125.7120122.8126119.1123115.7118115.5127129.4125115.4119119.9117116.7126116.5127116.4121116.3121123.3122124.2127117.0128123.8127129.5125117.5120123.5123119.5体斜长/cm1.341442.561394.831324.051442.39

36、1371.271364.251446.801393.781341.111357.781437.401433.881426.201372.871357.801486.561472.281404.241433.581351.95141146.4142.1139.4135.5131.7136.7150.1129.7140.1136.8133.8135.4134.5128.9137.4136.5156.2144.1137.5139.7139.51.672.235.615.903.870.514.246.694.551.336.435.315.285.911.787.776.262.933.853.48

37、1.0684该方法应用于实际生产中。4结论与现有牛体尺测量方案相比,该研究提出了一种新的轮廓提取与牛体尺计算的非接触式测量方法,通过与人工测量结果进行对比试验,测得的牛体高、体长和体斜长平均相对误差分别为4.16%、4.0 5%、4.2 7%,验证了该方法的可行性。该方法能够满足牧户对于牛体尺测量误差在8%以内的需求,为机器视觉在牛体尺测量方面应用提供了新的参考。参考文献:1唐辉,张清林,朱宜清.奶牛体型评定方法的发展和展望 J.山东畜牧兽医,19 9 6(2):19-2 0.2张智慧,李伟,韩永胜.牛体尺影响因素及其应用 J.中国畜牧杂志,2 0 18,54(1):9-13.3何东健,刘冬,

38、赵凯旋.精准畜牧业中动物信息智能感知与行为检测研究进展 J.农业机械学报,2 0 16,47(5):231-244.4石炜,张帅奇.基于边缘的图像分割在牛体尺测量中的应用 J.数字技术与应用,2 0 2 0,38(2):48-51.5朱林,张温,李琦,等.基于嵌入式机器视觉的羊体体征测量系统J.计算机测量与控制,2 0 14,2 2(8):2396-2398,2408.6赵建敏,文博,李琦.基于MaskR-CNN的牛体尺测量系统 J.畜牧与兽医,2 0 2 1,53(5):42-48.7 RONNEBERGER O,FISCHER P,BROX T.U-Net:Convolutional ne

39、tworks for biomedical imagesegmentationC/Medical Image Computing and畜牧与饲料科学Computer-Assisted Intervention-MICCAI 2015.Heidelberg:Springer,2015:234-241.8 WOO S,PARK J,LEE J-Y,et al.CBAM:Convolutionalblock attention module C/Computer Vision-ECCV2018.Heidelberg:Springer,2018:3-19.9李国强,周萌,陈付英,等.基于RFID手持

40、终端的中小规模牛场养殖管理系统研究 J.江苏农业科学,2021,49(22):192-197.10石炜,陈禹州,张万错,等.基于无人机平台的牛体点云重构及体尺测量系统研究 J.畜牧与饲料科学,2022,43(4):93-103.11周雨薇,刘志勤,王庆凤,等.基于改进残差U-Net的乳腺肿块图像分割方法J.西南科技大学学报,2021,36(2):68-74.12 队陈小波.基于深度学习的语义分割算法研究 D.成都:电子科技大学,2 0 2 0.13SSELVARAJUR R,COGSWELL M,DAS A,et al.Grad-CAM:Visual explanations from dee

41、p networks viagradient-based localization CJ/IEEE InternationalConference on Computer Vision.New York:IEEE,2017.14陈美玲,朱铝芬,张云,等.基于自适应滤波的改进Canny算子图像边缘检测 J.现代机械,2 0 19(5):67-69.15刘同海,滕光辉,付为森,等.基于机器视觉的猪体体尺测点提取算法与应用 J.农业工程学报,2 0 13,2 9(2):161-168.16张婧婧.基于深度学习和图像处理的马体尺测量设计J.计算机技术与发展,2 0 2 0,30(11):18 0-18 4,18 9.(责任编辑:钱英红)第44卷

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服