1、DOI:10.11992/tis.202205042网络出版地址:https:/ 计算机与人工智能学院、阿里云大数据学院、软件学院,江苏 常州 213000)摘 要:针对缺陷检测中被检测样品中因缺陷目标形状各异引起的无法提取有效特征的问题,本文提出基于深度学习的缺陷检测模型。该模型使用改进后的多尺度特征融合模块,在控制计算量的基础上解决识别不同大小缺陷的问题。通过引入非局部注意力机制模块,模型对缺陷特征的提取能力得到加强;在训练中使用混合监督训练,探索模型所需要的标注量和检测准确度之间的关系。本文方法在 KSDD、KSDD2 和 STEEL 3 个数据集上都获得了比先进方法更好的精确度,对于不
2、同类型的缺陷都能提取到有判别力的特征。与先进的完全监督方法和无监督方法相比,在数据集上精确度平均提高 0.8%和 11%。关键词:缺陷;检测;特征提取;学习算法;学习系统;图像处理;金属;产品品质;深度学习中图分类号:TP391 文献标志码:A 文章编号:16734785(2023)04088608中文引用格式:孙博言,王洪元,刘乾,等.基于多尺度和注意力机制的混合监督金属表面缺陷检测 J.智能系统学报,2023,18(4):886893.英文引用格式:SUN Boyan,WANG Hongyuan,LIU Qian,et al.Hybrid supervised metal surface
3、defect detection based on multi-scale and attentionJ.CAAI transactions on intelligent systems,2023,18(4):886893.Hybrid supervised metal surface defect detectionbased on multi-scale and attentionSUN Boyan,WANG Hongyuan,LIU Qian,FENG Zundeng,TANG Ying(School of Compute Science and Artificial Intellige
4、nce/Aliyun School of Big Data/School of Software,Changzhou University,Changzhou 213000,China)Abstract:Aiming at the problem in defect detection that effective features cannot be extracted due to different shapes ofdefect targets in the detected samples,this paper presents a defect detection model ba
5、sed on deep learning,which uses animproved multi-scale feature fusion module to solve the problem of identifying defects of different sizes on the basis ofcontrolling the amount of calculation.By introducing a non-local attention mechanism module,the models ability ofextracting defect features is en
6、hanced.Furthermore,mixed-supervised training is used in training to explore the relation-ship between the amount of annotations required by the model and the detection accuracy.This method achieves betteraccuracy than the state-of-the-art methods on KSDD,KSDD2,and STEEL datasets,and can extract disc
7、riminative fea-tures for different types of defects.Compared with the state-of-the-art fully supervised and unsupervised methods,theaverage accuracy improvement on the dataset is 0.8%and 11%.Keywords:defect;detector;feature extraction;learnin galgorithm;learning system;image processing;metal;quality
8、 ofproduct;deep learning 产品质量检测作为工业生产中的重要一环 1-3。起初人们主要是利用传统机器学习算法对这一问题进行研究4-5。随着卷积神经网络(convolution-al neural networks,CNN)6等深度学习模型在计算机视觉领域的大规模应用,利用深度学习的方法进行缺陷检测也逐渐成为一个热门的研究方向。根据标注程度的不同,基于深度学习的缺陷检测可以分为 3 种:1)对全部数据进行图像级以及像素级标注(全监督学习),典型代表为以 CNN 为主干网络的方法7-10;2)对全部数据仅进行图像级标注(弱监督学习)11-13;3)对数据不进行任何标注(无监督
9、学习),主要以 VAEs(variational au-toencoders)14-16和 GANs(generative adversarialnets)17-18为主。此外 Bozic 等19利用混合监督训练对缺陷检测进行了研究。2014 年,人们开始了对注意力机制的研究并开始逐步扩展到不同的领域20-21。2017 年 Wang等22从机器翻译出发,将自注意力看作是一种非局部的平均值,从而将其转化为一般的非局部滤波操作,提出 Non-Local Block,从而适用于计算机图像问题当中;2019 年 Dong 等23将注意力机制引入到缺陷检测当中,提出一个基于金字塔特征融合和全局上下文注
10、意网络的表面缺陷检测方收稿日期:20220525.网络出版日期:20230323.基金项目:国家自然科学基金项目(61976028);2022 年江苏省研究生科研创新计划(KYCX22_3066).通信作者:王洪元.E-mail:.第 18 卷第 4 期智能系统学报Vol.18 No.42023 年 7 月CAAI Transactions on Intelligent SystemsJul.2023智能系统学报编辑部版权所有法PGA(pyramid feature fusion and global con-text attention network for automated surfa
11、ce defect de-tection)网络。但是这种方法更关注局部上下文的特征,面对较大的缺陷则效果很差。上述几种方法面对复杂的缺陷类型都略有不足,同时在精确度与样本标注量之间没有做到很好的平衡。基于此,本文提出一个融合了注意力机制的缺陷检测模型,并在其中加入了一个多尺度融合单元;将全监督学习和弱监督学习结合起来,对模型进行混合监督训练18,探索样本标注量对精确度的影响。本文的主要贡献如下:1)使用改进的多尺度特征融合模块,加强模型对不同形状的缺陷特征的提取能力并探索尺度对精确度的影响。2)融合 Non-Local Block 注意力机制单元,增强模型对于缺陷特征的识别能力,提高缺陷检测的
12、精确度。3)使用混合监督训练探索像素级标注数量对精确度的影响。1 多尺度注意力检测模型缺陷检测具有缺陷目标大小不一、特征表达能力弱、特征信息比较少等问题,针对上述问题,本文以保持低计算量并提高模型在缺陷特征的表达能力为目标进行一系列探索,主要进行了如下改进:1)改进了多尺度特征融合网络,在控制计算量的基础上,加强模型对于形状各异特征的提取能力。2)在网络中融入 Non-Local Block 注意力机制模块,优化网络中对特征的表达能力,丰富特征图中缺陷的特征信息。3)设计不同数量的像素级标注,利用混合监督训练探索标注级别对精确率的影响。1.1 缺陷检测模型22如图 1 所示,模型主要分为 2
13、个模块,分别为L1和 L2模块,其中 L1模块使用像素级数据进行训练,提高模型像素级的识别能力;L2模块则使用图像级数据进行训练,提高模型图像级的识别能力。网络架构细节如表 1 所示。对于一张输入图片,首先利用 L1模块 4 个卷积层提取图像特征,在每一层卷积层后设置的最大池化层,以减小图像的大小并保留更多的特征。相比于利用具有步长的卷积层降低图像大小,这种操作更有利于保留更多的特征。选取 L1模块第 1 层和最后一层输出的特征图送入多尺度特征融合模块进行进一步处理。此外最后一层卷积分别输出单通道和 1 024 通道的特征图,单通道的特征图将利用 Non-Local Block 对其进行特征加
14、强后与 1 024通道特征图进行映射连接形成一个 1 025 通道的特征图。经过注意力机制单元处理后的单通道特征图能够避免网络使用大量的特征图,减少对大量参数的过度拟合,同时加强模型对于缺陷特征的关注。利用 L2模块对输出的 1 025 通道的特征图进行操作并分别输出 2 个 32 通道的特征图。最后将这 2 个特征图与多尺度特征融合单元输出的 3 通道特征图进行映射连接送入全连接层,生成最终的分类。多尺度特征融合输出XSoftmax Xout+全局平均池化模块全局最大池化模块映射连接.非局部模块L2L1:卷积11g:卷积11最大池化 22W:卷积11BN:卷积11最大池化 22 图 1 网络
15、图Fig.1 Network diagram 第 4 期孙博言,等:基于多尺度和注意力机制的混合监督金属表面缺陷检测887 表 1 网络架构细节Table 1 Network architecture details 模块卷积层卷积核 特征数量L1模块输入:图片3/12Conv2D(I1)5532Max-pool22323Conv2D5564Max-pool22644Conv2D5564Max-pool2264Conv2D(I2)551 024Conv2D(I3)111Non-Local Block22I3输入1I4输出1多尺度模块I1/I3输入32/1I5/I6/I7输出1/1/1L2模块I
16、2、I4输入:1 025Max-pool221 025Conv2D558Max-pool228Conv2D5516Max-pool2216Conv2D5532(I8)Max-pool2232(I9)Avg-pool2232I5+I6+I7+I8+I967全连接层1 本文将 2 个模块的损失组合成一个统一的联合损失:Ltotal=L1+(1)L2(1)式中:作为平衡因子,平衡 2 个模块在整个模型中的作用;作为像素级标注是否存在的指示器。1.2 多尺度特征融合模块多尺度特征融合模块主要是为了解决由于不同深度的卷积层感受野大小不一导致的目标检测能力的差距问题,通过将不同尺度的特征融合在一起,可以有
17、效提高模型对于各种类型缺陷的检测能力。本文在前人的基础上,改进了多尺度特征融合模块。模块的改进思路主要有以下 2 点:1)突出多尺度的作用。本文仅通过池化操作快速改变模型的通道数便于后期的特征融合;同时避免深层卷积对多尺度的影响,突出多尺度中不同尺度对于模型的影响。2)降低多尺度的层数。过多的层数会导致参数量剧增,缺陷检测需要用较少的时间实现更好的效果。同时本文模型中相邻的不同尺度特征图之间差异并不明显,从而对模型性能提升较小。而在弱监督训练下,由于缺陷没有明显的标注,较多的尺度图的组合会提供更多的信息,但是相邻尺度间的不良影响仍然存在。11模块的构成如图 2 所示,本文仅使用第 1 层和最后
18、一层的特征,忽略中间层的特征。第 1 层具有较大的感受野,可以提高对较小目标的识别准确率。同时,对于第 1 层的特征只需要一个池化操作,随后本文提取了特征的最大值以获得更有判别力的缺陷特征。对于深层卷积输出的特征图,为了突出特征图中的明显特征,利用的卷积加强了特征的提取,此外,还进行了取平均值和取最大值操作。由于缺陷检测样本中存在大量噪声,本文利用最深层特征的平均值有效抑制噪声对模型的影响。最后利用映射连接融合不同尺度。池化层池化层全局最大池化全局最大池化全局最大池化映射连接池化层卷积11 图 2 多尺度特征融合模块Fig.2 Multi-scale feature fusion module
19、 1.3 注意力模块工业产品的缺陷检测具有环境复杂,目标小等特点,导致缺陷特征信息比较少,为了提高模型的特征表达能力,本文在模型中融入了注意力机制模块 Non-local Block,丰富特征图中的缺陷信息。相比较于其他注意力机制,Non-local Block拥有更高的计算效率并可以快速捕捉较长范围内的 2 个像素点的相互依赖。Xg g 11本文利用 Non-Local Block 单元对单通道特征图进行了进一步处理。如图 1 所示,对于输入特征图,令其分别通过、和 操作生成 3 个特征图。、和 是一个的卷积操作。令经过 和888智能系统学报第 18 卷 fgfgyi作用后的矩阵进行矩阵乘法
20、并使用 SoftMax 激活函数对结果进行处理,使其结果映射到(0,1)之间,获得注意力系数矩阵,此矩阵表示 2 个像素点之间的关联性。方法 代表某一点的线性映射,使 和 相乘,最终获得结果。整个注意力机制模块如下所示:Xout=Wyi+xi(2)W11xiyi式中:为一个卷积操作,目的是将输出的通道图转变为与输入相同,并保证整个注意力机制模块的“即插即用”;为一个残差连接,避免 Non-Local Block 模块对整个模型产生扰乱;为 Non-Local 单元。主要的结果如下所示:yi=SoftMax(xi)g(xi)=e(xTi)(xi)j(xiT)(xi)wgxi(3)与正常样品相比,
21、缺陷的特征会存在很大的不同,利用 Non-Local 注意力机制单元可以使当前像素点与其他像素点建立有效的联系,以权重数值的模式加强模型对于这些区域的关注,以提取更明显的缺陷特征。1.4 混合监督训练本文通过使用混合监督训练的方法,尝试探索不同数量的像素级标注对于精确率的影响。将图像的标注分为图像级标注和像素级标注,弱监督训练、混合监督训练和完全监督训练如图 3 所示,其中对错号(即钩叉号)分别代表图像级标注的正常图像和缺陷图像,像素级标注则为在缺陷图像上对缺陷进行按像素标记。(a)弱监督训练(b)混合监督训练(c)完全监督训练 图 3 不同训练方式对照Fig.3 Comparison of
22、different training methods 具体设定如下:1)弱监督训练:只有图像级标注,无像素级标注,(N=0);2)混合监督训练:所有图像具有图像级标注,部分缺陷图像具有像素级标注(0 N Nall);3)完全监督训练:所有图像既具有图像级标注也具有像素级标注,(N=Nall)。其中混合监督训练的像素级标注数量设为N,并且像素级标注一定是有缺陷样本。图像的标注程度由联合损失函数中的 决定,当 为 1 时,图像为正常样品和带像素级标注的缺陷样本;当 为 0 时,图像为无任何标注的缺陷样本。对于 L1模块,即便在弱监督情况下,模型的像素级识别能力也会得到训练,只有当训练数据为无任何标
23、注的缺陷样本时,L1模块才会被禁用。任何情况下,L2模型都将被训练用于从图像级角度识别图像是否有缺陷。2 仿真验证与结果 2.1 数据集和评价指标本文实验使用的数据集是当前缺陷检测领域3 个主流的数据集:KolektorSDD、KolektorSDD2和 Severstal Steel defect dataset。KolektorSDD 数据集2总共包含 399 张图片,其中 52 张为有缺陷图像,347 张为正常图片。KolektorSDD2 数据集19总共包含 3 335 张图片,其中 356 张有缺陷图像,2 979 张正常图像。该数据集在缺陷图片中融入了多种不同类型的缺陷(划痕、小斑
24、点等)。该数据集于 2021 年公布,是缺陷检测领域内最新的数据集。上述 2 个数据集都来源于 Kolektor Group d.o.o 在真实生产环境中捕获的金属表面的图片。Severstal Steel defect 数据集远大于其他 2 个数据集,包含 4 类 12 568 张灰度图像,其中包含各种缺陷。图像来源于 Severstal 公司在平板钢生产时的图形。在实验中,本文仅使用数据集的一个子集进行训练。评估模型性能时,由于工业环境下对缺陷检测要求只有有无缺陷 2 种情况,所以本文采用工业环境内常用的精确度(average precision,AP)作为评价指标,其计算方式为A=w10
25、p(r)dr(4)p=TT+F(5)第 4 期孙博言,等:基于多尺度和注意力机制的混合监督金属表面缺陷检测889 p式中:A 为精确度,为模型的准确率,T 为正确划分为正例的样本数,F 为错误划分为正例的样本数。2.2 实验设计对于像素级标注图像的数量 N,本文在进行了不同数量的实验后,分别选定了最具有代表性的数目。KSDD 数据集设计了 N=0,5,15,20,all;KSDD2 数据集设定 N=0,16,53,126,246。上述2 个数据集训练时,Epoch 为 50,学习率为 0.01,BatchSize 为 1。STEEL 数据集:选择了数据集中部分缺陷图像 Nall作为样本,Nal
26、l=300,750,N=0,10,50,150,300,all,此外无论 Nall为多少,都将选取全部的正样本图像,Epoch 为 90,学习率为 0.1,BatchSize 为 1。整个实验基于 Ubuntu16.04、Cuda10 和 Cudnn7.6 的环境和 Python 3.8、Pytorch 1.9.0 和 torchvision0.10.0 深度学习框架实验,实验的硬件配置包括1 块 GPU:GTX 2080Ti(显存:11 GB)。2.3 实验结果与对比为了验证所提出方法的有效性,本文在 3 个大规模数据集上进行了实验并和先进的方法进行比较。与本文比较的方法有 2020 年 D
27、ong 等人提出的方法23F-anoGan18、2019 年 Bergmann 等16提出的方法、2021 年 Bozic 等19提出的方法。在KSDD 数据集上如图 4(a),本文方法在弱监督的情况下 AP 值达到 88.11%,远超过目前文献 16,18提出的无监督算法;仅需要 5 张带有像素级标注,准确度便可达到 99.9%,此时效果与文献 19,23提出的完全监督算法基本相同;完全监督情况下,AP 为 100%。在 KSDD2 数据集上如图 4(b),弱监督训练下本文的 AP 为 83.5%,远超同类的所有方法;在完全监督情况下,AP 为 94.9%,高于同类方法。在 STEEL 数据
28、集上如图 4(c),文献 19300 为当 N=300 时文献 19 提出的方法结果。表 2为 KSDD 数据集结果对比,表 3 为 KSDD2 数据集结果对比,表 4 为 STEEL 数据集结果对比。100806040200AP/%N=5N=0N=10N=15N=20N=all像素级标注数量69.265.383.588.692.193.794.939.499.999.999.9100.0100.0100.0文献23文献19本文方法文献16文献18文献16文献18文献19本文方法(a)KSDD 数据集结果100806040200AP/%N=16N=0N=53N=126N=246像素级标注数量(
29、b)KSDD2 数据集结果文献18文献16文献19_300本文方法_300文献19_750本文方法_750100806040200AP/%N=10N=0N=50N=150 N=300 N=750像素级标注数量(c)STEEL 数据集结果50.990.392.694.791.994.295.996.997.597.798.399.0100806040200AP/%N=5N=0N=10N=15N=20N=all像素级标注数量69.265.383.588.692.193.794.939.499.999.999.9100.0100.0100.0文献23文献19本文方法文献16文献18文献16文献18文
30、献19本文方法(a)KSDD 数据集结果100806040200AP/%N=16N=0N=53N=126N=246像素级标注数量(b)KSDD2 数据集结果文献18文献16文献19_300本文方法_300文献19_750本文方法_750100806040200AP/%N=10N=0N=50N=150 N=300 N=750像素级标注数量(c)STEEL 数据集结果50.990.392.694.791.994.295.996.997.597.798.399.0 图 4 3 个数据集训练结果Fig.4 Three datasets training results 表 2 KSDD 数据集结果对比
31、Table 2 Comparison of KSDD dataset results 方法N=0N=5N=10N=15N=20N=all文献1657.1文献1839.4文献23100文献1966.897.999.598.999.5100本文88.199.999.999.9100100 表 3 KSDD2 数据集结果对比Table 3 Comparison of KSDD2 dataset results 方法N=0N=16N=53N=126N=246文献1665.3文献1855.0文献1973.383.289.192.493.7本文83.588.692.193.794.9 890智能系统学报第
32、 18 卷 表 4 STEEL 数据集结果对比Table 4 Comparison of STEEL dataset results 数据集方法N=0 N=10 N=50 N=150 N=300 N=750STEEL300文献1654.9文献1850.9文献1990.391.994.296.997.7本文92.093.095.597.098.1STEEL750文献1991.692.793.296.998.198.8本文92.694.795.997.598.399.0 弱监督情况下与无监督方法相比,AP 提高1 倍左右,其他情况下也有 2%以上的提高。可以看出,本文提出的方法和先进的方法相比有明
33、显的提升。特别地,由于多尺度模块和注意力模块的运用,在 KSDD 数据集上取得了极佳的效果,38%的像素级标注便可以与完全监督的方法相媲美。综合以上分析,可以看出本文的方法在混合监督的情况下取得的精确度均高于同类方法,证明了本文方法的优越性。2.3.1 融合模块的有效性表 5 是在 KSDD 和 KSDD2 数据集上的消融研究,Mus 代指多尺度融合模块,Non-Local 为注意力机制模块,对于 KSDD 数据集,弱监督情况下,相比较于 BaseLine,各种方法都有很大提升;其他标注情况下,AP 也达到了行业领先的结果。对于KSDD2 数据集,同时使用 2 个模块的时候效果最优,弱监督情况
34、下有 10%的提高,混合监督时有平均 3%的提高,完全监督情况也提升了 1%左右。表 5 在 KSDD 和 KSDD2 数据集上的消融实验Table 5 Ablation experiments on KSDD and KSDD2 data-sets 数据集 标注数量 对比方法Mus Non-Local Mus+Non-LocalKSDDN=066.873.471.988.1N=597.999.899.599.9N=1099.599.699.699.9N=1598.999.899.699.9N=2099.599.999.7100N=all10010099.9100KSDD2N=073.379.
35、578.083.5N=1683.286.687.188.6N=5389.190.590.792.1N=12692.493.193.293.6N=24693.794.394.894.9 2.3.2 多尺度融合中层数选取的分析在使用多尺度融合模块时,一个很重要的问题是不同尺度的组合对于模型的结果有巨大的影响。如图 5 所示,本文利用 KSDD2 数据集分别选取了不同层进行组合。本文将卷积层分为 4 个单元,其中第 1 个单元以 1 代替,图 5 横坐标(1,4)即为第 1 层和第 4 层组合。本文在不同尺度组合下模型效果如图 5 所示,全监督训练情况下任何多尺度组合方式结果都比其他级别有更好的表现
36、。同时,全监督训练下不同尺度对结果影响很小。当对数据的像素级标注量为 16(即 N=16)或弱监督训练(即 N=0)时,不同组合对结果产生的影响幅度最大,其效果最差的尺度组合和效果最好的尺度组合会使 AP 相差近 11%。大部分情况下,只需要融入 2 层组合层数便可以达到最好的效果,随着融合层数的增加,结果都有着不同幅度的下降,可以明显看出尺度越多不仅不会提高精确度反而会造成一定程度的降低。组合层数707580859095100N=0N=16N=53N=126N=246AP/%1,42,43,41,2,41,3,42,3,41,2,3,483.572.375.781.175.674.374.8
37、88.687.185.185.386.892.190.290.688.589.490.894.993.393.792.994.593.594.6 图 5 不同级别训练在不同尺度组合下的结果Fig.5 Results of different levels of training under differ-ent scale combinations 综上所述,针对本文提出的多尺度特征融合模块,发现:1)不同尺度融合效果的影响程度随着像素级标注数量的提高而降低;2)在相同训练条件下,尺度数量与模型效果呈非线性。2.3.3 像素级标注数量和准确值关系的分析此外,本文在 KSDD 和 KSDD2 数
38、据集上研究像素级标注量对实验的影响如图 6,对于 KSDD 数据集,当 N=5 时,即像素级标注总量仅为 9%,但是此时的结果已经与完全监督效果相似。对于KSDD2数据,当标注数量 N=16,占总缺陷图像的 6%时,AP 获得了幅度最大的提高。两个数据集都在最小标注的情况下即低于 10%的像素级标注时获得幅度最大的提高。第 4 期孙博言,等:基于多尺度和注意力机制的混合监督金属表面缺陷检测891 像素级标注数量02040608010088.111.80.1N=0N=16N=53N=126N=246像素级标注数量02040608010083.55.13.51.51.3AP/%AP/%N=0N=5
39、N=10N=15N=20N=all(a)KSDD 数据集变化瀑布图(b)KSDD2 数据集变化瀑布图 图 6 不同标注量对 AP 的提升Fig.6 Improvement of AP with different annotations 2.3.4 注意力机制模块有效性分析Non-Local 注意力机制模块可以直接专注于范围内任意的 2 个点之间的联系,不过分关注周围点的信息,可以提高模型对于较长缺陷的识别能力,如图 7 所示。本文针对 Non-Local 注意力机制模块的效果在 KSDD 和 KSDD2 数据集上进行了验证,表 4 的结果显示该模块在弱监督情况下对模型的效果提升最明显,AP
40、比原始模型提高 5%。在完全监督的情况下,AP 也有 1%的提升。输入图像输出:0.992 17输入图像输出:0.927 65输入图像输出:0.969 44输入图像输出:0.731 28输入图像输出:0.792 36输入图像输出:0.885 47(a)加入注意力机制模块(b)无注意力机制模块 图 7 注意力机制的影响Fig.7 Influence of attention mechanism 3 结束语本文关注基于多尺度和注意力机制的缺陷检测问题。针对当前缺陷目标形状各异和特征提取能力较差的问题,设计了一个多尺度特征融合单元,提高模型对于不同大小缺陷特征的提取能力,在模型中融入了一个注意力机制
41、单元,加强模型对于缺陷特征的提取。为了进一步评估多尺度的作用,本文设计了一个不同尺度组合实验,评估当前模型下最合适的多尺度组合。利用混合监督训练证明本模型对 10%以内的数据进行像素级标注可以获得最大幅度的提高。在 3 个大规模数据集上的优异表现证明了本文方法的有效性。未来可以针对该模型的普适性做进一步探索。参考文献:陶显,侯伟,徐德.基于深度学习的表面缺陷检测方法综述 J.自动化学报,2021,47(5):10171034.TAO Xian,HOU Wei,XU De.A survey of surface de-fect detection methods based on deep le
42、arningJ.Actaautomatica sinica,2021,47(5):10171034.1TABERNIK D,ELA S,SKVAR J,et al.Segmenta-tion-based deep-learning approach for surface-defect de-tectionJ.Journal of intelligent manufacturing,2020,31(3):759776.2KUMAR A.Computer-vision-based fabric defect detec-tion:a surveyJ.IEEE transactions on in
43、dustrial electron-ics,2008,55(1):348363.3ABDI H,WILLIAMS L J.Principal componentanalysisJ.Wiley interdisciplinary reviews:computation-al statistics,2010,2(4):433459.4虞祖耀,王洪元,张继.基于机器视觉的织布瑕疵在线检测 J.计算机工程与设计,2016,37(10):28512856.YU Zuyao,WANG Hongyuan,ZHANG Ji.On-line de-tection of weaving defects based
44、 on machine visionJ.Computer engineering and design,2016,37(10):28512856.5FUKUSHIMA K,MIYAKE S.Neocognitron:a self-or-ganizing neural network model for a mechanism of visualpattern recognitionM.Berlin:Springer Berlin Heidel-berg,1982:267285.6PARK J K,KWON B K,PARK J H,et al.Machine learn-ing-based i
45、maging system for surface defect inspectionJ.International journal of precision engineering and manu-facturing-green technology,2016,3(3):303310.7KYEONG K,KIM H.Classification of mixed-type de-fect patterns in wafer Bin maps using convolutional neuralnetworksJ.IEEE transactions on semiconductor manu
46、-8892智能系统学报第 18 卷 facturing,2018,31(3):395402.HE Yu,SONG Kechen,MENG Qinggang,et al.An end-to-end steel surface defect detection approach via fusingmultiple hierarchical featuresJ.IEEE transactions on in-strumentation and measurement,2020,69(4):14931504.9LI Feng,XI Qinggang.DefectNet:toward fast and
47、 effect-ive defect detectionJ.IEEE transactions on instrumenta-tion and measurement,2021,70:19.10GE Ce,WANG Jing,WANG Jingyu,et al.Towards auto-matic visual inspection:a weakly supervised learningmethod for industrial applicable object detectionJ.Com-puters in industry,2020,121:103232.11LI Qizhu,ARN
48、AB A,TORR P H S.Weakly-and semi-supervised panoptic segmentationM.Computer Vision-ECCV 2018.Cham:Springer International Publishing,2018:106124.12SALEH F,ALIAKBARIAN M S,SALZMANN M,et al.Built-in foreground/background prior for weakly-super-vised semantic segmentationM.Computer Vision-EC-CV 2016.Cham
49、:Springer International Publishing,2016:413432.13MINHAS M S,ZELEK J.Semi-supervised anomaly de-tection using autoencodersJ.Journal of computationalvision and imaging systems,2019:03674.14BERGMANN P,LWE S,FAUSER M,et al.Improvingunsupervised defect segmentation by applying structuralsimilarity to aut
50、oencodersEB/OL.(2018-07-05)2022-05-25.https:/arxiv.org/abs/1807.02011.15BERGMANN P,FAUSER M,SATTLEGGER D,et al.Uninformed students:student-teacher anomaly detectionwith discriminative latent embeddingsC/IEEE/CVFConference on Computer Vision and Pattern Recognition.Piscataway:IEEE,2020:41824191.16XIN