收藏 分销(赏)

基于UNet自编码器的织物缺陷检测.pdf

上传人:自信****多点 文档编号:2108222 上传时间:2024-05-16 格式:PDF 页数:8 大小:8.05MB
下载 相关 举报
基于UNet自编码器的织物缺陷检测.pdf_第1页
第1页 / 共8页
基于UNet自编码器的织物缺陷检测.pdf_第2页
第2页 / 共8页
基于UNet自编码器的织物缺陷检测.pdf_第3页
第3页 / 共8页
基于UNet自编码器的织物缺陷检测.pdf_第4页
第4页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology基于 UNet+自编码器的织物缺陷检测莫惠文 杨乐琪 曹锦纲(华北电力大学,河北保定,071003)摘要:针对传统人工织物缺陷检测误检率和漏检率较高的问题,提出一种基于 UNet+的自动缺陷检测方法,实现对织物缺陷的分割。该方法首先需要将少量正常纹理样本图像通过叠加高斯噪声作为训练集对UNet+模型训练;为了提高网络性能,在网络中增加了由通道注意力与空间注意力组成的注意力模块。检测时,通过向训练好的模型输入待测图像来使网络输出重构图像;最后根据重建图像与待测图像的结构相似性评价及残差图像,通过自适

2、应阈值分割与形态学处理,即可完成对缺陷的定位。试验结果表明:在不需要对缺陷样本标记的情况下,该算法能够更准确地检测出缺陷区域,对缺陷的漏检和误检较低,具有较好的适应性。关键词:UNet+;缺陷检测;图像处理;图像重构;无监督学习;自编码器中图分类号:TP391 文献标志码:A 文章编号:1000-7415(2023)11-0022-08Fabric defect detection based on UNet+autoencoderMO Huiwen YANG Leqi CAO Jingang(North China Electric Power University,Baoding,0710

3、03,China)Abstract To address the high false detection and missed detection rates in traditional manual fabric defect detection,an automatic defect detection method based on the UNet+was proposed to achieve fabric defect segmentation.UNet+model training by adding Gaussian noise as training set on a s

4、mall amount of normal texture sample images was firstly needed for this method.To improve the network performance,an attention module composed of channel attention and spatial attention was added to the network.During detection,reconstructed images were output from network by inputting test images t

5、hrough trained model.Finally,based on the structural similarity evaluation and residual image of reconstructed image and the test image,defect localization could be achieved through adaptive threshold segmentation and morphological processing.The experimental results showed that the proposed algorit

6、hm could detect defect region more accurate without defect sample labeling.The missing and false detection rates were lower.And it has good adaptability.Key Words UNet+,defect detection,image processing,image reconstruction,unsupervised learning,autoencoder在纺织服装行业中,织物质量一直是影响服装品质的关键因素,织物表面缺陷的存在会使产品质量

7、受到严重影响。在服装的质量检测中,织物缺陷检测是至关重要的一环。由于织物缺陷的多样性,传统单一的人工目测检测方法不仅要求检测人员需有丰富的经验,而且效率低下,容易出现漏检,已经无法满足生产的要求。因此,设计一种更加高效、准确的自动织物缺陷检测方法成为一个亟待解决的问题1。近年来,国内外学者利用深度学习技术对织物缺陷检测问题、方法开展了深入探索。利用多层神经网络,能够获得深度信息,并从中提取出有价值的语义特征,更好地实现缺陷检测。依据训练时是否采用需要有标签的样本,深度学习可分为有监督学习和无监督学习。在有监督学习方法中,ZHANG H 等2利用 YOLOv2 模型对色织物疵点进行检测、分类;J

8、ING J 等3改进 LeNet5 模型以实现织物缺陷检测;李明辉等4提出一种结合显著性检测算法与改进卷积神经网络 CUNetOSID码研究探讨基 金 项 目:中 央 高 校 基 本 科 研 业 务 费 专 项 资 金 资 助 项 目(2021MS092);华北电力大学(保定)大学生创新创业训练计划项目(S202210079063)作者简介:莫惠文(2002),男;曹锦纲,通信作者,讲师,收稿日期:2023-05-20的织物缺陷检测方法,显著提升了织物缺陷检测精度;LI Y D 等5提出一种基于 Fisher 准则的堆叠去噪自编码器模型,将深度学习方法应用于织物缺陷检测;XIE H S等6提出

9、了一种基于改进的RefineDet的织物疵点鲁棒检测方法,实现对无图案背景、规则图案和不规则图案的织物进行疵点检测。尽管有监督学习技术在纺织疵点测试方面获得了一定的研究成果,但是由于疵点样品有限,且种类不均衡,对小量产的色织物疵点检测仍然存在挑战。为了解决这些问题,部分研究者采用无监督学习的方法进行织物缺陷检测,张宏伟等78先后提出深度去噪卷积自编码器(DCAE)模型和 U 型去噪卷积自编码器(UDCAE)的织物缺陷检测方法,通过对待测图像与其重构图像的残差图像进行处理,实现对多种简单花形织物的缺陷检测;黄媛媛等9提出 U 型 Swin Transformer 的重构模型和残差分析的缺陷检测方

10、法,以更好地实现对图像全局特征的提取和更准确的重构,同时解决了缺陷样本数量少且种类不平衡的问题;周新龙等10提 出 一 种 基 于 对 比 学 习 生 成 式 对 抗 网 络(ContrastGAN)的方法,能有效重构多种色织物的纹理,相比传统自编码器能够实现更高的缺陷定位精度,满足多种复杂色织物缺陷检测场景的需要。上述模型在缺陷像素与重构图像差别较大时能较准确地检测出缺陷,但当缺陷像素值与重构图像差别较小时,无法准确检测出缺陷。针对传统自编码器重构织物能力弱、残差分析无法很好检测缺陷的问题,本研究提出一种基于 UNet+的自编码器重构模型,通过结构相似性评价(SSIM 图像)和残差分析的方法

11、来解决织物的缺陷检测问题。1 基于 UNet+的织物缺陷检测方法由于有监督学习方法需要大量标注的缺陷样本,而在实际织物检测中缺陷样本难以获得,且数量少、种类不平衡,无法囊括所有缺陷类型,因此,有监督模式下的缺陷检测模型检测效果不理想;而无缺陷的正常样本容易获得。无监督方法将缺陷视为噪声,将图像恢复视为去噪过程,在无缺陷样本上人为制造缺陷,制成数据集,训练模型将其恢复成正常无缺陷的图像。经过训练的模型拥有重建的能力,能够在高精度重建正常区域的同时,差异化重建缺陷区域。测试时根据重建前后的误差进行缺陷分割。本研究提出一种基于UNet+的无监督缺陷检测模型,如图 1所示。该方法缺陷检测过程如下。向模

12、型输入待测图像,经 UNet+得到对应重构图像。待测图像与重构图像分别进行灰度化后,再利用高斯滤波去除噪点。通过灰度待测图像及其重构图像计算结构相似性评价图像与残差图像,此时若输入的待检图像含有缺陷,重构图像的缺陷区域会与样图 1基于 UNet+的无监督缺陷检测模型】【22第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology的织物缺陷检测方法,显著提升了织物缺陷检测精度;LI Y D 等5提出一种基于 Fisher 准则的堆叠去噪自编码器模型,将深度学习方法应用于织物缺陷检测;XIE H S等6提出了一种基于改进的RefineDet的织物疵点鲁棒检

13、测方法,实现对无图案背景、规则图案和不规则图案的织物进行疵点检测。尽管有监督学习技术在纺织疵点测试方面获得了一定的研究成果,但是由于疵点样品有限,且种类不均衡,对小量产的色织物疵点检测仍然存在挑战。为了解决这些问题,部分研究者采用无监督学习的方法进行织物缺陷检测,张宏伟等78先后提出深度去噪卷积自编码器(DCAE)模型和 U 型去噪卷积自编码器(UDCAE)的织物缺陷检测方法,通过对待测图像与其重构图像的残差图像进行处理,实现对多种简单花形织物的缺陷检测;黄媛媛等9提出 U 型 Swin Transformer 的重构模型和残差分析的缺陷检测方法,以更好地实现对图像全局特征的提取和更准确的重构

14、,同时解决了缺陷样本数量少且种类不平衡的问题;周新龙等10提 出 一 种 基 于 对 比 学 习 生 成 式 对 抗 网 络(ContrastGAN)的方法,能有效重构多种色织物的纹理,相比传统自编码器能够实现更高的缺陷定位精度,满足多种复杂色织物缺陷检测场景的需要。上述模型在缺陷像素与重构图像差别较大时能较准确地检测出缺陷,但当缺陷像素值与重构图像差别较小时,无法准确检测出缺陷。针对传统自编码器重构织物能力弱、残差分析无法很好检测缺陷的问题,本研究提出一种基于 UNet+的自编码器重构模型,通过结构相似性评价(SSIM 图像)和残差分析的方法来解决织物的缺陷检测问题。1 基于 UNet+的织

15、物缺陷检测方法由于有监督学习方法需要大量标注的缺陷样本,而在实际织物检测中缺陷样本难以获得,且数量少、种类不平衡,无法囊括所有缺陷类型,因此,有监督模式下的缺陷检测模型检测效果不理想;而无缺陷的正常样本容易获得。无监督方法将缺陷视为噪声,将图像恢复视为去噪过程,在无缺陷样本上人为制造缺陷,制成数据集,训练模型将其恢复成正常无缺陷的图像。经过训练的模型拥有重建的能力,能够在高精度重建正常区域的同时,差异化重建缺陷区域。测试时根据重建前后的误差进行缺陷分割。本研究提出一种基于UNet+的无监督缺陷检测模型,如图 1所示。该方法缺陷检测过程如下。向模型输入待测图像,经 UNet+得到对应重构图像。待

16、测图像与重构图像分别进行灰度化后,再利用高斯滤波去除噪点。通过灰度待测图像及其重构图像计算结构相似性评价图像与残差图像,此时若输入的待检图像含有缺陷,重构图像的缺陷区域会与样图 1基于 UNet+的无监督缺陷检测模型】【23第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology本图像有明显差异,通过残差分析和结构相似度评价即可定位缺陷区域。相反,若待测样本没有缺陷,则输出重构图与输入图的差异为随机噪声。接下来,将结构相似性评价图像和残差图像进行二值化处理。将二值化结构相似性评价图像与残差图像相与后,再进行形态学闭运算,从而实现对缺陷的检测。1.1UN

17、et+模型UNet+即 Nested UNet,由 ZHOU Z W等11于 2018 年提出,该模型在 UNet12基础上改进而来。UNet+解码器通过重新设计的跳接以相同的分辨率密集连接。通过添加大量的跳跃连接,极大增强网络的特征提取能力,其结构本质上是一个深度监督的编码解码网络。通过跳跃路径中的稠密卷积块,降低了编码解码子网络中特征图的语义缺失,使得编码器特征图的语义级别更接近解码器中特征图的语义级别,大幅提升了图像的分割效果。UNet+在医学图像分割的卓越表现,引起了诸多研究人员的关注,将UNet+运用到了多种领域,如小麦条锈病菌夏孢子自动检测13、路面类型识别14、高分辨率遥感影像变

18、化检测15等。这些改进后的 Unet+模型在不同领域取得了较好的研究成果。图为本研究的 UNet+网络结构示意图。编 码 器 由 Block1、注 意 力 模 块 与 Maxpooling 组成,用于实现对图像的特征提取和下采样。其中,Block1 有卷积层,卷积核大小为 33,在卷积操作后接组归一化层与 Relu激活函数层,最后进行Dropout操作得到特征图。将 Block1 输出的特征图接入 CBMA 注意力模块16,注意力模块将加权后的特征图接入 22 的 Maxpooling 层进行下采样操作。将每一层的节点与同层的前一节点进行跳跃连接,建立密集卷积块结构。解码器利用上采样得到的特征

19、图与对应编码器路径输出的特征图相结合,送入 Block2 模块,Block2 模块有两个卷积核大小为 33的卷积层,每个卷积操作后接组归一化层与 Relu 激活函数层。逐层卷积解码后得到 4 个大小为 25625616 的特征图,最后将特征图送入通道数为 3的 11卷积块得到网络输出。网络使用了多级监督结构,其输出层有 4个输出分支,每个分支都可以输出重构图像,输出图像尺寸与输入图像尺寸相同,通过剪枝操作,从4 个分支输出中进行选择,使其减少为 1 个输出,得到效果最好的重构图像。1.2损失函数损失函数采用 MAE损失与 SSIM 损失1718加权和。SSIM 损失函数能够捕捉到图像的纹理和结

20、构信息,而 MAE 损失函数具有一定的鲁棒性,对异常值不敏感,并且更侧重于像素级别的差异。结合两者可以使模型在保持对异常值鲁棒性图 2网络结构示意图】【24第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology的同时不仅关注像素差异,还能保留图像中的细节信息,从而生成更真实的图像。损失函数如式(1)所示。其中,SSIM 损失表示为式(2),MAE损失表示为式(3)。Li=LiSSIM+(1-)LiMAE(1)LiSSIM=1ni=1n|1-SSIM()Xi,X(2)LiMAE=1ni=1n|Xi-X(3)式中:Li为第 i 个分支的损失函数;为权重系

21、数;LiSSIM为第 i个分支的 SSIM 损失;LiMAE为第 i个分支的 MAE损失;X为待测样本图像;Xi为第 i分支输出的重构图像;n 为训练中一次所输入的图 片 数 量,即 Batch Size。本 研 究 选 取 的 Batch Size 为 4,最后可得总损失为 4 个分支的损失总和,如式(4)所示。Ltot=i=14Li(4)式中:Ltot为损失函数;模型以最小化Ltot函数为目标,选用 Adam 优化器来训练网络模型,设定的学习率为 0.001。2 试验结果与分析2.1试验环境本 试 验 环 境 为 Ubuntu18.04,显 卡 为 GTX 1080 Ti(11 GB),处

22、理器为 6 vCPU Intel(R)Xeon(R)CPU E52650 v4 2.20 GHz,内存为30 G,使用 Keras 与 Tensorflow 进行模型搭建,Keras 和Tensorflow具体版本均为 2.6.0。2.2数据集数据集选自 MVTec AD19中的 Carpet、Zipper 与 YDFID120中的 SP24、SL1、SL13。其中,Carpet数据集有无缺陷图像 280幅,有 5类缺陷样本,89 幅缺陷图像。Zipper 数据集有无缺陷图像240 幅,有 7 类 缺 陷 样 本,共 119 幅 缺 陷 图 像。SP24 数据集有无缺陷图像 231 幅,34

23、幅缺陷图像。SL1 数据集有无缺陷图像 172 幅,15 幅缺陷图像。SL13数据集有无缺陷图像 176幅,22幅缺陷图像。5种数据集的正常样本与部分缺陷样本如图 3 所示。模型训练时,将图像统一调整为256 pixel256 pixel。2.3评价指标为了评价模型的有效性,本研究采用精确率(Precision,P)、召回率(Recall,R)、准确率(Accuracy,ACC)和综合评价指标(F1measure,F1)作为评价标准,4个评价指标的取值范围均为从 0到 1,数值越大,表明检测结果越好。2.4结果与分析2.4.1剪枝分析UNet+模型训练使用了多级监督结构,可以在训练结束后进行剪

24、枝,以减少模型的参数,提高模型的性能。为了确定不同数据集所用的分枝,在模型中进行不同深度的剪枝试验,结果如表1所示。从表 1 可以看到,对于 Carpet 与 SL13 数据集,模型在深度为 3 时 ACC 和 F1的值最大,即检测效果最佳,这说明模型对于该数据集的特征提取和学习需要一定的深度才能达到最佳的检测效果。不过,在某些应用场景下,模型的速度也是一个重要的考虑因素。为此,也可以选择深度为 2的模型作为备选方案,以获得更快的检测速度,但相应地会降低一定的检测精度。本研究选取深度3作为 Carpet与 SL13数据集模型深度。而对 Zip (a)Carpet (b)Zipper (c)SP

25、24 (d)SL1 (e)SL13图 3数据集样本图像】【25第 51 卷 第 11 期2023 年 11 月Cotton Textile Technologyper、SP24和 SL1数据集,从表 1可以看出,当深度分别为 2、2 和 1 时,模型的检测效果最佳,这说明模型在该数据集上的特征学习和表达不需要过多的深度。2.4.2噪声等级对检测性能的影响训练时向图像叠加的高斯噪声如式(5)所示。X=X+N(0,)(5)式中:X为叠加噪声后的无缺陷图像;X为无缺陷织物图像;N(0,)是指均值为 0、方差为的高斯噪声。不同等级的高斯噪声会在训练过程中影响模型的重构性能。噪声等级 低会使网络无法很好

26、学习上下文关系,导致网络重构效果不佳;噪声等级高会使网络学习到噪声,进而影响到后续的缺陷检测。为了评估不同等级噪声对检测性能的影响,选取 Carpet数据集,设置=0,通过改变噪声方差的值进行噪声等级评价试验,不同噪声等级与检测评价指标的关系如表 2所示。从表 2 可以看出,在噪声等级为 0.1 时,P、ACC 和 F1均为最大,模型表现最佳,说明该模型对于噪声的容忍度有一定的限制。同时,当噪声等级等于 0.3时,模型的检测效果最差,说明该模型的鲁棒性弱。噪声等级为 0.1 时,相比不使用高斯噪声进行训练的 P、R、ACC和 F1分别提升了0.434 3、0.596 9、0.011 9 和 0

27、.574 7。虽然=1.0 时模型召回率 R 比=0.1 时高,但精确率较低,检测效果不理想。因此,本研究选择噪声等级为 0.1 作为输入到色织物图像的高斯噪声等级,以尽可能地保证模型的检测效果。2.4.3损失函数权重系数对检测性能的影响在深度学习模型的训练过程中,损失函数的权重系数是一个非常重要的参数。为了分析不同损失函数的权重系数对模型性能的影响,选择Carpet数据集,通过改变权重系数 值,评估不同权重系数对检测评价指标 P、R、ACC 和 F1的影响。评价指标与权重系数的关系如表 3所示。从表 3 可以发现,将 SSIM 损失和 MAE 损失相结合,可以显著提高检测模型的性能。当 为0

28、.1 时,模型的效果达到了最佳状态。相较于使用单一损失函数(当=0 或=1.0 时),这种组合方式可以带来更好的检测性能。本研究选择=0.1作为损失函数的权重系数。2.4.4检测结果定性分析为验证提出方法的有效性,将本研究提出方法与 SSIMAE 和 UDCAE 算法进行对比。并将本研究使用的结合残差图像和 SSIM 图像的评价机制方法应用于 UDCAE 模型进行测试对照,分别在 5种数据集上进行试验。部分缺陷检测结果如图 4所示。通过图 4 对比 UDCAE 与 UDCAESSIM 的检测结果发现:在缺陷与无缺陷图像相近时,UDCAE 会有漏检现象。使用 SSIM 图像评价机制后,UDCAE

29、 可以在上述情况下较好地检测出缺陷。从图 4 还可以发现,SSIMAE 模型在 5 个数表 1模型深度选择深度1234ACCCarpet0.9880.9880.9890.989Zipper0.9830.9870.9820.979SP240.9820.9860.9850.985SL10.9930.9920.9920.993SL130.9920.9930.9930.993F1Carpet0.6860.6820.7290.688Zipper0.5160.5710.5180.422SP240.5410.5970.5850.587SL10.7050.6550.6500.667SL130.4650.516

30、0.5210.500表 2不同噪声等级对缺陷检测结果的影响噪声等级 00.10.30.50.71.0P0.329 90.764 20.653 40.724 30.698 00.713 7R0.101 20.698 10.412 20.601 00.711 20.719 9ACC0.977 50.989 40.983 60.988 40.987 80.988 4F10.154 90.729 60.505 50.711 00.704 60.716 8表 3不同损失函数权重系数对缺陷检测结果的影响权重系数 00.10.30.50.71.0P0.647 60.764 20.668 10.648 10.

31、585 10.629 9R0.627 60.698 10.661 10.571 40.459 90.563 6ACC0.985 40.989 40.986 40.984 90.982 30.984 4F10.637 50.729 60.664 60.607 30.515 00.594 9】【26第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology据集上表现不是很理想,虽然可以大致检测出缺陷区域,但漏检和误检现象较为严重。UDCAE模型可以准确地定位 Carpet上的缺陷区域,但无法准确地定位 Zipper 上的缺陷位置,存在误检现象。对于 SP24

32、、SL1、SL13数据集,UDCAE 模型可以较准确地检测出缺陷位置。UDCAESSIM模型在 5个数据集上均能够较准确地定位缺陷区域,但在 Zipper 与 SP24 数据集上存在着漏检现象。本研究提出的模型可以准确地检测并定位数据集中的缺陷位置,漏检和误检现象最少,特别是在 Zipper 数据集上,其他 3 种模型都存在着严重的误检和漏检,而本研究提出的模型则能够更准确地检测出缺陷区域,说明本研究提出的缺陷检测模型的有效性。2.4.5检测结果定量分析为了定量分析模型缺陷的检测能力,将本研究模型与 SSIMAE、UDCAE、UDCAESSIM 模型进行比较,结果如表 4所示。可以看出,本研究

33、方法在 5个数据集上的综合评价指标 F1都是最好的,分 别 为 0.729 6、0.570 7、0.597 4、0.705 1、0.521 4;在准确率 ACC 上,本研究方法也都获得了最佳的结果;同时,在数据集 Zipper 和 SL1、SL13 上,本研究方法具有最高的精确率 P,而召回率 R 也相对较高,位于第 2;而在 SP24 数据集上,本研究方法获得了最高的召回率 R,精确率 P位居第 2。整体来看,本研究算法的精确率 P 和召回率 R 都相对较高,因此对缺陷的漏检和误检较低,具有较好的检测效果,这与定性分析一致。(a)缺陷样本 (b)缺陷标记 (c)SSIMAE (d)UDCAE

34、 (e)UDCAESSIM (f)本研究算法图 4检测结果】【27第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology2.4.6消融试验为验证本研究提出模型中各关键组成部分的有效性,在 Carpet数据集上进行了消融试验,如表5 所示。从表 5 可以看出,模型 1(本研究模型)相比于其他模型,具有更好的检测性能。与模型 1相比,模型 2 的 P、R、ACC 和 F1都出现了大幅度下降,分别下降了 0.434 3、0.596 9、0.011 9 和0.574 7,表明使用叠加高斯噪声的图像进行训练可以显著提升缺陷的检测能力。模型 3 的 P、R、AC

35、C和F1相较模型1分别下降了0.134 3、0.134 5、0.005 0 和 0.134 7。模型 4 在各项指标上的结果较模型 3 稍好,但与模型 1 相比,P、R、ACC 和 F1分别下降了0.124 6、0.060 4、0.004 1和0.091 0。模型 3和模型 4训练时都只使用单一损失函数,从而表明结合 MAE 和 SSIM 损失函数训练的有效性。模型 5 是在模型中不使用注意力机制的模型,其与模型1相比,P、R、ACC和F1分别下降了0.032 5、0.097 1、0.002 3 和 0.069 7,表明使用注意力机制可以提升模型对于缺陷检测的精确率,减少模型的误检现象;模型

36、6 是在检测时不使用残差图像进行评估的模型,P、R、ACC和 F1相较于模型 1都有小幅度下降,分别下降了 0.044 0、0.045 7、0.001 7 和 0.045 0,表明使用残差图像进行检测可以提升模型对于缺陷检测的精确率,减少模型的误检现象;通过观察模型 7的检测结果,发现不使用 SSIM 图像评估对缺陷检测结果的影响较大,P、R、ACC和 F1分别比模型 1降低了 0.302 6、0.329 7、0.011 0和 0.319 9。消融试验结果表明,本研究算法的各关键组成部分都对检测性能提升有着重要的作用。3 结语本研究提出了一种基于 UNet+的无监督缺陷检测方法,该方法只使用无

37、缺陷样本对模型进行训练,有效解决了缺陷样本数量稀缺且种类不平衡的问题。在检测时,通过训练后的UNet+模型得到待测样本的重构图像,并对其与原始图像的残差图像以及 SSIM 评价图像进行阈值分割,再进行形态学运算,实现对缺陷的准确定位。相比其他无监督检测方法,该方法具有更好的检表 4各模型在 5个数据集的评价指标比较模型SSIMAEUDCAEUDCAESSIM本研究算法模型SSIMAEUDCAEUDCAESSIM本研究算法PCarpet0.527 60.504 70.692 60.764 2ACCCarpet0.980 20.979 40.985 70.989 4Zipper0.308 30.2

38、12 20.501 60.661 8Zipper0.952 30.930 80.973 50.987 2SP240.356 10.621 00.479 20.598 8SP240.977 80.985 50.981 60.985 9SL10.325 90.643 50.597 60.705 0SL10.984 10.989 80.990 90.993 0SL130.133 10.469 20.332 40.537 7SL130.986 80.992 70.988 50.993 4RCarpet0.601 60.466 60.565 40.698 1F1Carpet0.562 20.484 90

39、.622 60.729 6Zipper0.652 70.593 00.450 30.501 7Zipper0.418 80.312 60.474 60.570 7SP240.350 90.440 90.580 20.595 9SP240.353 50.515 70.524 90.597 4SL10.261 80.311 30.713 30.705 2SL10.290 30.419 60.650 40.705 1SL130.163 50.228 40.625 30.506 1SL130.146 80.307 20.434 00.521 4表 5消融试验结果模型1234567叠加高斯噪声MAE损失

40、SSIM损失注意力机制残差图像评估SSIM 图像评估P0.764 20.329 90.629 90.639 60.731 70.720 20.461 6R0.698 10.101 20.563 60.637 70.601 00.652 40.368 4ACC0.989 40.977 50.984 40.985 30.987 10.987 70.978 4F10.729 60.154 90.594 90.638 60.659 90.684 60.409 7】【28第 51 卷 第 11 期2023 年 11 月Cotton Textile Technology测效果。在 Carpet、Zippe

41、r、SP24、SL1、SL13数据集中,综合评价指标 F1值分别达到了 0.729 6、0.570 7、0.597 4、0.705 1、0.521 4。随着纺织技术的发展,织物的纹理结构变得更加复杂和精细,如 何 提 升 微 小 缺 陷 的 检 测 性 能 是 未 来 研 究 的重点。参考文献:1宋智勇.基于卷积神经网络的织物缺陷检测算法研究 D.杭州:浙江理工大学,2021.2ZHANG H,ZHANG L,LI P,et al.Yarn-dyed fabric defect detection with YOLOV2 based on deep convolution neural net

42、worksC2018 IEEE 7th Data Driven Control and Learning Systems Conference(DDCLS).Piscataway:IEEE,2018:170-1743JING J,MA H,ZHANG H.Automatic fabric defect detection using a deep convolutional neural networkJ.Coloration Technology,2019,135(3):213-223.4李明辉,刘荣强,雷渠江,等.基于显著性线索与改进 U-Net 的织物缺陷检测方法 J.制造业自动化,20

43、23,45(1):21-26.5LI Y D,ZHAO W G,PAN J H.Deformable patterned fabric defect detection with fisher criterion-based deep learning J.IEEE Transactions on Automation Science and Engineering,2017,14(2):1256-1264.6XIE H S,WU Z S.A robust fabric defect detection method based on improved refineDetJ.Sensors,2

44、020,20(15):4260.7张宏伟,汤文博,李鹏飞,等.基于去噪卷积自编码器的色织衬衫裁片缺陷检测 J.纺织高校基础科学学报,2019,32(2):119-125.8张宏伟,谭全露,陆帅,等.U 型去噪卷积自编码器色织衬衫裁片缺陷检测 J.西安电子科技大学学报,2021,48(3):123-130.9黄媛媛,熊文博,张宏伟,等.基于 U 型 Swin Transformer自编码器的色织物缺陷检测 J/OL.激光与光电子学进展:1-12 2023-03-10.http: 周新龙,张宏伟,吴燕子,等.基于 ContrastGAN 的色织物缺陷检测 J.棉纺织技术,2022,50(11):1

45、-8.11 ZHOU Z W,SIDDIQUEE M M R,TAJBAKHSH N,et al.UNet+:a nested u-net architecture for medical image segmentationJ.Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support,2018,11045:3-11.12 RONNEBERGER O,FISCHER P,BROX T.U-net:convolutional networks for biomedic

46、al image segmentation CInternational Conference on Medical Image Computing and Computer-Assisted Intervention,Springer,2015:234-241.13 周晋兵,陈鹏,雷雨,等.基于自旋式 Unet+网络的小麦条锈病菌夏孢子自动检测方法 J/OL.南京农 业 大 学 学 报:1-92023-03-10.http:/ 王星圆,苏楚奇,黄元毅.基于改进 UNet+网络的路面类型识别技术研究 J.武汉理工大学学报,2022,44(8):76-83.15 袁洲,郭海涛,卢俊,等.融合 U

47、Net+网络和注意力机制的高分辨率遥感影像变化检测算法 J.测绘科学技术学报,2021,38(2):155-159.16 WOO S,PARK J,LEE J Y,et al.CBAM:convolutional block attention moduleCProceedings of the European Conference on Computer Ision(ECCV),2018:3-19.17 WANG Z,BOVIK A C,SHEIKH H R,et al.Image quality assessment:from error visibility to structural

48、 similarityJ.IEEE Transactions on Image Processing,2004,13(4):600-612.18 BERGMANN P,LWE S,FAUSER M,et al.Improving unsupervised defect segmentation by applying structural similarity to autoencoders C 14th International Joint Conference on Computer Vision,Imaging and Computer Graphics Theory and Appl

49、ications(VISAPP),2019,5:372-380.19 BERGMANN P,FAUSER M,SATTLEGGER D,et al.MVTec AD a comprehensive real-world dataset for unsupervised anomaly detectionC32nd IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).New York:IEEE,2019:9584-9592.20 张 宏 伟.Yarn-dyed fabric image dataset version1DB/OL.2021-06-30.https:

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服