收藏 分销(赏)

基于对比学习的标签带噪图像分类.pdf

上传人:自信****多点 文档编号:2176681 上传时间:2024-05-22 格式:PDF 页数:8 大小:1.14MB
下载 相关 举报
基于对比学习的标签带噪图像分类.pdf_第1页
第1页 / 共8页
基于对比学习的标签带噪图像分类.pdf_第2页
第2页 / 共8页
基于对比学习的标签带噪图像分类.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基于对比学习的标签带噪图像分类李俊哲,曹国(南京理工大学计算机科学与工程学院,南京210094)通信作者:曹国,E-mail:摘要:标签噪声会极大地降低深度网络模型的性能.针对这一问题,本文提出了一种基于对比学习的标签带噪图像分类方法.该方法包括自适应阈值、对比学习模块和基于类原型的标签去噪模块.首先采用对比学习最大化一幅图像的两个增强视图的相似度来提取图像鲁棒特征;接下来通过一种新颖的自适应阈值过滤训练样本,在模型训练过程中根据各个类别的学习情况动态调整阈值;然后创新性地引入基于类原型的标签去噪模块,通过计算样本特征向量与原型向量的相似度更新伪标签,从而避免标签中噪声的影响;在公开数据集 C

2、IFAR-10、CIFAR-100 和真实数据集 ANIMAL10 上进行对比实验,实验结果表明,在人工合成噪声的条件下,本文方法实验结果均高于常规方法,通过计算图像鲁棒的特征向量与各个原型向量的相似度更新伪标签的方式,降低了噪声标签的负面影响,在一定程度上提高模型的抗噪声能力,验证了该模型的有效性.关键词:深度学习;标签噪声;对比学习;类原型;自适应阈值引用格式:李俊哲,曹国.基于对比学习的标签带噪图像分类.计算机系统应用,2023,32(12):104111.http:/www.c-s- Noisy Image Classification Based on Contrastive Lea

3、rningLIJun-Zhe,CAOGuo(SchoolofComputerScienceandEngineering,NanjingUniversityofScienceandTechnology,Nanjing210094,China)Abstract:Labelnoisecangreatlyreducetheperformanceofdeepnetworkmodels.Toaddressthisproblem,thisstudyproposesacontrastivelearning-basedlabelnoisyimageclassificationmethod.Themethodin

4、cludesanadaptivethreshold,contrastivelearningmodule,andclassprototype-basedlabeldenoisingmodule.Firstly,therobustfeaturesoftheimageareextractedbymaximizingthesimilaritybetweentwoaugmentedviewsofthesameimageusingcontrastivelearning.Then,anoveladaptivethresholdfilteringtrainingsampleisusedtodynamicall

5、yadjustthethresholdbasedonthelearningstatusofeachclassduringmodeltraining.Finally,aclassprototype-basedlabeldenoisingmoduleisintroducedtoupdatepseudo-labelsbycalculatingthesimilaritybetweensamplefeaturevectorsandprototypevectors,thusavoidingtheinfluenceoflabelnoise.Comparativeexperimentsareconducted

6、onthepubliclyavailabledatasetsCIFAR-10andCIFAR-100andtherealdatasetANIMAL10.Theexperimentalresultsshowthatundertheconditionofartificiallysynthesizednoise,theproposedmethodoutperformsconventionalmethods.Byupdatingpseudo-labelsbasedonthesimilaritybetweentherobustfeaturevectoroftheimageandvariousprotot

7、ypevectors,thenegativeimpactofnoisylabelsisreduced,andtheanti-noiseabilityofthemodelisimprovedtocertainextent,verifyingtheeffectivenessoftheproposedmodel.Key words:deeplearning;labelnoise;contrastivelearning;classprototype;adaptivethreshold计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:ComputerSystems&Appli

8、cations,2023,32(12):104111doi:10.15888/ki.csa.009339http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041基金项目:国家自然科学基金(62201282);江苏省自然科学基金(BK20231456)收稿时间:2023-06-21;修改时间:2023-07-19;采用时间:2023-07-27;csa 在线出版时间:2023-10-20CNKI 网络首发时间:2023-10-23104系统建设SystemConstruction1引言深度神经网络的成功很大程度上取决于正确标记的大规模训练数据集.然而,这些

9、大规模数据集的收集成本和时间成本都很高.为了缓解这一问题,人们常通过以下方式获取标签数据:非专业标注人员标注、众包平台或其他来源获取标签.通过这些方法获取的数据标签可以降低成本,但不可避免地会带来标签噪声.如图 1 所示,对标注人员来说从巨嘴鸟中识别犀鸟是非常困难的.(a)巨嘴鸟(b)犀鸟图 1巨嘴鸟与犀鸟因此如何从带噪声标签的数据集中学习逐渐成为深度学习的一项重要研究1.目前基于深度学习的噪声标签算法可以归纳为以下 4 类:基于数据的噪声标签算法、基于损失函数的噪声标签算法、基于训练方式的标签噪声学习方法、基于模型的标签噪声算法.首先是基于数据的标签噪声学习算法.最直观的想法就是找出疑似标注

10、错误的数据,通过更改样本权重或者修改样本标签的方式来改善模型学习效果.如张增辉等2提出的动态概率抽样方法,通过统计样本的标签置信度对样本分区.陈庆强等3采用欧氏距离度量样本分布的密度来划分不同的区域,按照分区采用不同的规则过滤标签噪声.这类方法主要通过分区对样本进行重加权的方式过滤噪声,但是需要手动设计权重函数和超参,因此很难实际应用.标签重修正通过对样本标签进行一定程度地修改来提高分类器的性能.例如余孟池等4利用训练好的基网络预测噪声标签.基于教师-学生网络的架构对标签进行软化,使得学生网络能够在带噪学习中更加鲁棒58.但是这类算法在高噪声率的情况下,容易将标签拟合到错误样本上,导致分类器效

11、果不理想.基于损失函数的标签噪声算法中关于损失函数的设计分为两个方面:一方面单独针对损失函数进行改进.例如损失校正法.损失校正的方法需要首先估计标签转移矩阵9,10,然后通过修改训练期间的损失函数来提高鲁棒性.前向传播和后向校正是两种基于标签转移矩阵的损失校正方法11.但是这种方法对于标签转移矩阵非常敏感,现实中的标签转移矩阵也很难估计.另一方面是向损失函数中加入正则化来提高鲁棒性.基于训练方式的标签噪声算法通过将半监督方法引入标签噪声模型中,改变模型的训练方法来缓解标签噪声对模型分类的影响.Self-training 算法12可以提高模型的鲁棒性.如 Jiang 等13提出的 Mentor

12、是利用数据驱动来训练基础网络的一种方法,但是在样本不均衡且含有噪声的数据集上效果不理想.Self-training算法同时容易出现错误累加14.Co-training 算法可以避免这种情况.在 Li 等15提出的 DivideMix 中,采用高斯混合模型来判别噪声样本,运用两个网络划分数据其性能比利用单个网络划分数据集的效果更佳.但是随着训练次数的增加,Co-training 算法在效果上会退化成 Self-training 算法中的 MentorNet.基于模型的标签噪声算法,通过修改模型架构来更好地建模噪声数据的转移矩阵.Sukhbaatar 等16提出了自顶向下和自底向上两种噪声模型.通

13、过这两种模型可以较为准确地从数据中学习噪声分布,提高神经网络的性能.Goldberger 等17通过使用附加的 Softmax层模拟期望最大算法优化的似然函数,提高了模型的普适性.但是这种方法在每次预测后都要重新训练模型.Han 等18用人类的经验为先验知识,利用人类对无效标签转换的认知,可以对噪声进行约束建模.由于其是人工设计的,因此不具备噪声适配层的可扩展性.对模型进行正则化处理,在不改变模型参数量的前提下能够有效地提高模型的泛化能力.Li 等19提出一种噪声容忍训练算法,首先进行元学习更新,之后在进行传统的梯度更新.Jindal 等20添加了一个应用了 dropout正则化的额外的 So

14、ftmax 层,认为它可以提供更鲁棒的训练,以此防止由于 dropout21随机性而产生的记忆噪声.但是对模型进行正则化可能会降低模型的表达能力,使其无法充分拟合数据集.并且正则化技术通常需要调整超参数,需要花费大量的时间和精力.目前研究表示,对比学习模型可以获取图像鲁棒的特征表示,不需要人工参与且泛化性好,在高噪声率下依旧拥有良好的性能.目前使用的对比学习方法2225需要通过最小化正样本对之间的距离和最大化负样本对之间的距离来实现.利用对比学习拉近相似样本拉远相斥样本的特性,Wang 等26将对比学习引入噪声标签图像分类的工作中,产生了很好的分类效果.Yao2023年第32卷第12期http

15、:/www.c-s-计 算 机 系 统 应 用SystemConstruction系统建设105等27、Zhang 等28也基于对比学习进行了相关研究.这些对比学习方法得益于大量的负样本.但是这些方法区分正负样本对的途径是不可靠的,可能会引入错误的样本对,从而影响对比学习得到的特征表示.本文采用一种较新的对比学习方法 SimSiam29,该方法直接最大化图像两个视图之间的相似性,而不使用存储负样本的方式,保证对比学习得到的特征表示不受影响.本文基于 SimSiam 框架,引入基于类原型的标签去噪策略来逐步更新伪标签.使用自适应阈值方法根据模型学习情况自适应地调整阈值.在多个数据集上进行对比实验

16、,验证了本文所提模型的有效性.本文的主要工作如下.(1)本文提出一种新的对标签噪声鲁棒的图像分类方法,该方法使用对比学习与类原型模块结合,可以对带有标签噪声的数据进行准确分类.(2)使用自适应阈值方法过滤训练样本.避免由于固定阈值设置过高,导致模型初期训练通过阈值的样本数量过少,参数更新缓慢,以及对于较难学习的样本分类效果不好的问题.(3)在 3 个公开数据集上进行实验,验证了本文方法的性能高于同类方法.2相关工作最近的研究表明对比学习获取图像的鲁棒特征可以提高模型的抗噪声能力,主要通过吸引正样本对,排斥负样本对实现,如图 2 所示.xvvyyEncoder FEncoder FContras

17、tivelossGradientGradient图 2对比学习流程图图 2 中 x 时输入图像,v 和 v是图像经过两次数据增强后得到的视图.使用经过各自编码器后得到对应的特征向量计算对比学习损失.这类方法的正样本对由同一个样本的两个视图组成,其他数据对为负样本对.MOCO30在此基础之上通过维护一个负样本队列,增大负样本的数量使模型性能得到了比较明显的提高.Chen 等31提出的 SimCLR 直接使用当前批次中共存的负样本,取得较好的实验结果.田浩江等32在 SimCLR的基础上对特征提取部分进行改进提高了分类精度.这两种方法都需要较大的批次才能正常工作.这种通过增大负样本数量的方式会使模

18、型的训练时间增长,并且会增加模型超参数数量.不仅如此,这类方法引入标签噪声学习中还会带来样本类别判断错误问题.如PiCO 将 MOCO 方法引入标签噪声学习中,正负样本对的区分通过分类器的分类结果来判断,分类器错误的分类结果无疑会影响对比学习得到的特征表示.本文使用的 SimSiam 框架无需使用大量的负样本,通过最大化一个图像两个视图之间的相似性来学习图像的特征表示,网络结构如图 3 所示.Image xEncoder f1Predictor hSimilarityEncoder f2x1x2Stop-gradient图 3SimSiam 网络结构图 3 中 x1、x2为图像经过两次数据增强

19、后的视图.本文在此基础之上加入了基于类原型的标签去噪模块,使用自适应阈值过滤训练样本,提高了模型的抗噪声能力.3CLPAT 模型YD=(xi,Yi)ni=1xiYi Yyiyi Yi本文的标签噪声问题使用以下方式定义:设 X 为输入样本空间,=1,2,C为输出标签空间.本文考虑一个训练样本集,其中每一个元组有一个图像和一个候选标签集组成.与监督学习任务相同,本模型学习的任务是获得一个函数映射,预测输入图像的真实标签.但不同的是,在标签中设置了噪声增加了更多的不确定性.本文假设真实标签 隐藏在它的候选集中,即,但这对模型来说是不可见的.因此与监督学习相比,学习的过程存在固有的模糊性.在本节中将详

20、细描述基于对比学习和类原型的标签噪声学习框架,主要有两个关键组件,分别为对比学习提取特征模块和基于类原型的标签去噪模块,这两部分耦合为一个整体共同训练,取得了较好的实验结果.计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第12期106系统建设SystemConstruction3.1 对比学习模块x1x2本模块的架构如图 4 所示,对图像 x 进行两次随机数据增强,得到增强视图、.将这两个视图分别输入到对应的编码器 f1、f2中处理.这两个编码器分别由一个骨干网络(ResNet)组成.使用动量编码器的方式更新两个分支之间的参数,如式(1)所示:f2=mf1+(1m)f

21、2(1)其中,为编码器的参数.编码器 f1输出的特征向量经过两个 MLP 模块后得到输出向量 p,m 为人工设置的超参数.Augmented viewAugmented viewEncoder f1Encoder f2MLPMLPMLPMomenturnAuto-tauMomenturnClassifiermnpzLoss-clsLoss-contUpdatingPseudo-updateStop-gradientPrototypes图 4CLPAT 网络结构图编码器 f2的输出通过 MLP 模块后得到向量 z,通过极小化这向量 z 和向量 p 的负余弦相似度,来进行对比学习,提取图像鲁棒的特

22、征表示.如式(2)所示:S(p,z)=pp2zz2(2)2其中,是 L2 范数.该模块的任务是用输出向量 p 来预测输出向量 z,在无需使用标签的情况下从图像中学习有意义的表示.在编码器 f2这一条分支使用到了stop-gradient 操作29.实验表明使用 stop-gradient 操作,可以有效避免对比学习出现崩溃解的问题.因此对比学习的损失函数定义如式(3)所示:Lcont=S(p,stopgrad(z)(3)网络中的 MLP 模块以全连接层-BatchNorm 层-ReLU 激活函数-全连接层形式构成.如图 5 所示.InputLinearReLULinearOutputBatch

23、Norm图 5MLP 模块3.2 基于类原型的标签去噪模块本文创新性地引入基于类原型的标签去噪模块.c对每一个类别保留一个原型向量,c 1,2,C.该向量视为每一个类别最具有代表性的特征向量.开始训练时会为每一个样本初始化伪标签.通过计算从MLP 模块得到的特征向量与每一个类原型的相似度来判断当前样本的类别.并通过移动平均的方式逐步更新当前样本的伪标签.通过伪标签的加入,降低原始标签中噪声的影响.3.2.1伪标签更新首先对每个样本初始化其对应的均匀分布的伪标签,使用式(4)进行初始化操作:sj=1|Yi|(j Yi)(4)sjYi其中,为样本第 j 个类别的初始化值,为该样本的带噪标签向量.然

24、后根据从 MLP 中得到的特征向量与每个类别的原型向量的相似度计算结果来逐步更新伪标签,伪标签的更新通过式(5)移动平均的方式实现:s=s+(1)vvc=1,if c=argmaxjYqTj0,else(5)其中,q 是从 MLP 中得到的特征向量,为原型向量,v 是与该样本最相似的类原型所属类别的独热向量,是人工设置的超参数.对每个输入样本 x 而言,本文认为在计算相似度时,与该样本相似度最高的原型向2023年第32卷第12期http:/www.c-s-计 算 机 系 统 应 用SystemConstruction系统建设107量所属类别是该样本的真实标签.通过使用移动平均的方式更新伪标签,

25、可以保证在模型训练不稳定的初期,平滑地将伪标签向正确的方向更新.当一个样本的特征向量始终与某个原型相似度最高,随着训练的逐渐进行,该样本的伪标签几乎可以收敛成一个独热向量 n.使用交叉熵损失来训练分类器,对每一个样本的损失使用式(6)计算:Lcls(f;xi;Yi)=Cj=1si,jlog(fj(xi)s.t.jYisi,j=1andsi,j=0,j Tt(c)(argmax(f(x)=c)(10)t(c)=t(c)maxct(11)其中,式(10)中的 f(x)为分类器输出结果.这样进行归一化有一个好处:对于学习效果最好的类别,其缩放因子在归一化后等于 1,这表示当前对于该类别的阈值设置的比

26、较合理不需要改动.对于学习效果不好的类别则降低阈值,增加该类别的学习样本.最终所有的类别都达到可靠的精度.本文整体执行流程图如图 6 所示.输入图像数据输出结果数据增强特征提取计算预测结果计算对比学习损失类原型更新伪标签更新参数训练完成?计算分类损失低于自适应阈值?否是是否MLP图 6执行流程图计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第12期108系统建设SystemConstruction4实验结果4.1 对比实验结果 y Y|y,y本文在两个常用公开数据集 CIFAR-10 和 CIFAR-100以及一个真实数据集 ANIMAL10 上进行实验.CIFAR-

27、10 和 CIFAR-100 分别包含 10 个类别和 100 个类别,分别包含 5 万张训练图片和 1 万张测试图片.ANIMAL10中包含 10 个类别,每个类别的样本数量如表 1 所示.每个类别取 10%的样本作为测试样本.在数据集中以概率 q=P()修改标签,生成带有噪声的候选标签数据集.在实验中对于 CIFAR-10 数据集中 q 取0.1,0.3,0.5.在 CIFAR-100 数据集中 q 取0.01,0.05,0.1.使用 PreActResNet18 作为 CIFAR 数据集的编码器.对比学习输入的图像为对一张图片使用两次强数据增强生成的两个数据表示,强数据增强方法包括随机反

28、转、随机裁剪,高斯模糊和颜色失真.分类器输入图像仅使用一次弱图像增强生成,确保最大程度保留样本信息,包括随机图像翻转和随机图像裁剪.采用以下设置进行训练:学习率设置为 0.015,并且采用余弦衰减的形式随着训练过程逐步改变学习率.使用 SGD 优化器,权重衰减设置为 0.0001,动量设置为 0.9.batchsize 大小设置为 128,这在单 GPU 的情况下也可以很好地运行.本文选择了 5 种主流方法:1)PiCO26通过拉近相似样本距离及迭代更新伪标签的方式降低噪声标签影响;2)LWS33通过权衡候选标签上的损失和剩余标签上的损失来对风险函数进行加权;3)PRODEN34以自我训练的方

29、式迭代更新标签分布;4)CC35假设数据生成过程是均匀的,并且能够使得分类器表现一致;5)MSE36和 EXP36是两种简单的基准方法,它们使用均方误差和指数损失作为评估标准.表 2、表 3 是与机器学习顶会发表的 PiCO、LWS、PRODEN、CC 模型以及 MSE 和 EXP 主流方法在CIFAR-10 和 CIFAR-100 数据集上的对比试验结果.表 1ANIMAL10 数据集类别数量类别数量狗4863鸡3098猫1668牛1866马2623羊1820大象1446蜘蛛4821蝴蝶2112松鼠1862本文采用相同的实验设置,并在 3 次试验结果中取最优结果.在 3 种不同噪声率上测试模

30、型的性能.从表 2、表 3 中结果可以看出,本文方法在 CIFAR-10 和CIFAR-100 数据集上的分类结果均超过其他方法.在CIFAR-10 数据集上,相比于目前取得最高分类准确率的 PiCO,在噪声率为 0.1、0.3、0.5 的情况下分别提升 0.25%、0.27%、0.24%.在 CIFAR-100 数据集这类样本空间较大的数据集上,本文方法的优势更加明显.相较于取得最高分类准确率的 PiCO 模型而言,本文方法并未采用分类器主导对比学习中正负样本对选择的方式,在噪声率为 0.01、0.05、0.1 的情况下分别提升2.47%、1.64%、1.49%.表明本文方法在样本空间较大的

31、数据集上可以产生分离更良好的聚类以及更好区分的特征表示,具有良好的抗噪声能力.表 2CIFAR-10 数据集实验结果(%)Modelq=0.1q=0.3q=0.5PiCO2694.390.1893.580.1293.280.06LWS3390.300.6088.991.4386.160.65PRODEN3490.240.3289.380.3187.780.07CC3582.300.3079.080.0674.050.36MSE3679.970.4575.640.2867.090.66EXP3679.320.1275.790.2170.341.32CLPAT94.640.2193.850.089

32、3.520.04表 3CIFAR-100 数据集实验结果(%)Modelq=0.01q=0.05q=0.1PiCO2673.090.3472.740.3069.910.24LWS336780.0259.560.3453.530.08PRODEN3462.600.0260.730.0356.800.29CC3549.760.0547.620.0835.720.37MSE3649.170.0546.021.8243.810.49EXP3644.451.5041.051.4029.271.81CLPAT75.560.2574.380.2871.410.18进一步验证本文方法的有效性,在 ANIMAL

33、10 数据集上的对比试验.表 4 是与 PiCO、LWS、PRODEN、CC 模型以及 MSE 和 EXP 方法在 ANIMAL10 真实数据集上的对比试验结果.在真实数据集 ANIMAL10 上本文设置学习率为 0.2,其余试验设置与 CIFAR 数据集实验相同.从结果可以看出本文模型实验结果超过其他模型,相比于效果最好的 PiCO 模型提高了 0.24%.表 4ANIMAL10 数据集实验结果(q=0.1)(%)Model准确率PiCO2693.390.34LWS3390.160.42PRODEN3489.940.32CC3581.720.26MSE3678.430.34EXP3678.1

34、20.13CLPAT93.630.142023年第32卷第12期http:/www.c-s-计 算 机 系 统 应 用SystemConstruction系统建设1094.2 消融实验结果为验证模型效果,将本模型与 3 个变体进行比较:1)CLPATw/oth,是模型指使用固定阈值过滤样本;2)CLPATw/opseudo,在第 1 个变体的基础上去除伪标签更新,使伪标签保持初始化时的值;3)CLPATw/ocont,进一步去除对比学习模块,只保留单独的分类器.本节所有的消融实验均在 CIFAR-10 数据集上进行,噪声率设为 0.5,其余设置与训练过程一致.从图 7 中可以看出,自监督对比学

35、习优化了数据分布,使得相似的样本更加接近,最终得到鲁棒的特征表示,变体 3 相较于未加入对比学习的变体 2 提高了9.17%可以看出对比学习的加入提高了模型的性能.基于类原型的标签去噪模块通过逐渐更新样本的伪标签来降低带噪标签的影响,变体 1 相较于未使用去噪模块的变体 2 提高了 7.60%.自适应阈值主要用于根据模型学习情况改变阈值,过滤掉置信度较低的样本,提升相对较少,CLPAT 相较于未使用自适应阈值的变体 1 提高了 0.69%.由此可以说明 3 个小方法都可以提高模型抗噪声的能力.020406080100CLPATCLPAT w/othCLPAT w/oprototypeCLPAT

36、 w/ocont准确率(%)图 7消融实验结果5结论与展望针对图像分类模型训练时需要大规模准确标注数据,而数据来源不可靠导致获得数据标签包含噪声的问题,本文提出了一种基于对比学习的标签噪声学习框架,从网络特征提取能力出发,采用对比学习网络来提取图像鲁棒的特征表示,并结合基于类原型的标签去噪模块逐步更新样本的伪标签,提高模型抗噪声能力.采用自适应阈值来过滤训练样本,进一步提高模型的性能,学习了一个具有良好抗噪声能力的模型.在CIFAR-10、CIFAR-100 和 ANIMAL10 数据集上的对比试验证明了本文模型的有效性.在类别更多的数据集上,模型效果并不理想,原因在于当类别达到一定数量时,在

37、训练初期原型向量之间的区别并不明显.后续将采用预训练的方式处理原型向量,提高模型在多类别噪声数据集上的分类效果.参考文献王晓莉,薛丽.标签噪声学习算法综述.计算机系统应用,2021,30(1):1018.doi:10.15888/ki.csa.0077761张增辉,姜高霞,王文剑.基于动态概率抽样的标签噪声过滤方法.计算机应用,2021,41(12):34853491.2陈庆强,王文剑,姜高霞.基于数据分布的标签噪声过滤.清华大学学报(自然科学版),2019,59(4):262269.doi:10.16511/ki.qhdxxb.2018.26.0593余孟池,牟甲鹏,蔡剑等.噪声标签重标注方

38、法.计算机科学,2020,47(6):7984.4Cho JH,Hariharan B.On the efficacy of knowledgedistillation.Proceedingsofthe2019IEEE/CVFInternationalConference on Computer Vision.Seoul:IEEE,2019.47944802.5XieQZ,LuongMT,HovyE,et al.Self-trainingwithnoisystudentimprovesImageNetclassification.Proceedingsofthe2020IEEE/CVFConf

39、erenceonComputerVisionandPatternRecognition.Seattle:IEEE,2020.1068710698.6Yang CL,Xie LX,Qiao SY,et al.Training deep neuralnetworks in generations:A more tolerant teacher educatesbetterstudents.Proceedingsofthe33rdAAAIConferenceonArtificial Intelligence.Honolulu:AAAI Press,2019.56285635.7Yim J,Joo D

40、,Bae J,et al.A gift from knowledgedistillation:Fast optimization,network minimization andtransferlearning.Proceedingsofthe2017IEEEConferenceon Computer Vision and Pattern Recognition.Honolulu:IEEE,2017.41334141.8PatriniG,RozzaA,KrishnaMenonA,et al.Makingdeepneural networks robust to label noise:A lo

41、ss correctionapproach.Proceedings of the 2017 IEEE Conference onComputerVisionandPatternRecognition.Honolulu:IEEE,2017.19441952.9Gui XJ,Wang W,Tian ZH.Towards understanding deeplearning from noisy labels with small-loss criterion.Proceedings of the 30th International Joint Conference onArtificialInt

42、elligence.Montreal:IJCAI.org,2021.24692475.10ShuJ,XieQ,YiLX,et al.Meta-weight-net:Learninganexplicitmappingforsampleweighting.Proceedingsofthe33rd International Conference on Neural InformationProcessingSystems.Vancouver,2019.172.11Li M,Zhou ZH.SETRED:Self-training with editing.Proceedings of the 9t

43、h Pacific-Asia Conference on12计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第12期110系统建设SystemConstructionKnowledge Discovery and Data Mining.Hanoi:Springer,2005.611621.JiangL,ZhouZY,LeungT,et al.MentorNet:Learningdata-driven curriculum for very deep neural networks oncorrupted labels.Proceedings of the 35th I

44、nternationalconferenceonmachinelearning.Stockholm:PMLR,2018.23092318.13BlumA,MitchellTM.Combininglabeledandunlabeleddatawithco-training.Proceedingsofthe11thAnnualConferenceonComputationalLearningTheory.Madison:ACM,1998.92100.14LiJN,SocherR,HoiSCH.DivideMix:Learningwithnoisylabels as semi-supervised

45、learning.Proceedings of the 8thInternationalConferenceonLearningRepresentations.AddisAbaba:OpenR,2020.114.15Sukhbaatar S,Fergus R.Learning from noisy labels withdeepneuralnetworks.Proceedingsofthe3rdInternationalConferenceonLearningRepresentations.SanDiego,2015.414.16GoldbergerJ,Ben-ReuvenE.Training

46、deepneural-networksusing a noise adaptation layer.Proceedings of the 5thInternational Conference on Learning Representations.Toulon:OpenR,2017.19.17HanB,YaoJC,NiuG,et al.Masking:Anewperspectiveofnoisy supervision.Proceedings of the 32nd InternationalConference on Neural Information Processing System

47、s.Montral:CurranAssociatesInc.,2018.58415851.18LiJN,WongYK,ZhaoQ,et al.Learningtolearnfromnoisylabeleddata.Proceedingsofthe2019IEEE/CVFConferenceonComputerVisionandPatternRecognition.LongBeach:IEEE,2019.50515059.19Jindal I,Nokleby M,Chen XW.Learning deep networksfromnoisylabelswithdropoutregularizat

48、ion.Proceedingsofthe 16th IEEE International Conference on Data Mining.Barcelona:IEEE,2016.967972.20Srivastava N,Hinton G,Krizhevsky A,et al.Dropout:Asimplewaytopreventneuralnetworksfromoverfitting.TheJournal of Machine Learning Research,2014,15(1):19291958.21CiortanM,DupuisR,PeelT.Aframeworkusingco

49、ntrastivelearningforclassificationwithnoisylabels.Data,2021,6(6):61.doi:10.3390/data606006122Ghosh A,Lan A.Contrastive learning improves modelrobustness under label noise.Proceedings of the 2021IEEE/CVF Conference on Computer Vision and PatternRecognition.Nashville:IEEE,2021.27032708.23LiJN,XiongCM,

50、HoiSCH.Learningfromnoisydatawithrobust representation learning.Proceedings of the 202124IEEE/CVF International Conference on Computer Vision.Montreal:IEEE,2021.94859494.Li JN,Xiong CM,Hoi SCH.MoPro:Webly supervisedlearningwithmomentumprototypes.Proceedingsofthe9thInternational Conference on Learning

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服