收藏 分销(赏)

基于储备池计算网络的小样本图像分类方法.pdf

上传人:自信****多点 文档编号:649811 上传时间:2024-01-23 格式:PDF 页数:10 大小:8.18MB
下载 相关 举报
基于储备池计算网络的小样本图像分类方法.pdf_第1页
第1页 / 共10页
基于储备池计算网络的小样本图像分类方法.pdf_第2页
第2页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 38 卷 第 10 期2023 年 10 月Vol.38 No.10Oct.2023液晶与显示Chinese Journal of Liquid Crystals and Displays基于储备池计算网络的小样本图像分类方法王彬1,兰海2,俞辉2,3,郭杰龙2,3,魏宪2,3*(1.福州大学 先进制造学院,福建 泉州 362200;2.中国科学院 福建物质结构研究所,福建 福州 350002;3.中国福建光电信息科学与技术创新实验室(闽都创新实验室),福建 福州 350108)摘要:针对目前小样本学习方法易过拟合、跨域泛化能力不足等问题,受启发于储备池计算不依赖于训练而缓解过拟合的特性,

2、提出了一种基于储备池计算的小样本学习方法(Reservoir Computing based Network for Few-shot Image Classification,RCFIC)。整个方法由特征提取模块、特征增强模块和分类器模块构成。特征增强模块由储备池模块和基于储备池的注意力机制构成,分别对特征提取网络的特征进行通道级增强和像素级增强,同时联合余弦分类器促使网络学习具有高类间方差、低类内方差特性的特征分布。实验结果表明,本文算法在 Cifar-FS、FC100、Mini-ImageNet等数据集上的分类精度至少比现有方法高 1.07%,在从 Mini-ImageNet 到 CUB

3、-200 的跨域场景设置下的分类精度优于次优方法1.77%。同时,消融实验验证了 RCFIC 的有效性。所提方法泛化性强,能够有效缓解小样本图像分类中的过拟合问题并在一定程度上解决跨域问题。关键词:小样本学习;储备池计算;注意力机制;特征增强;图像分类中图分类号:TP391.4 文献标识码:A doi:10.37188/CJLCD.2022-0407Reservoir computing based network for few-shot image classificationWANG Bin1,LAN Hai2,YU Hui2,3,GUO Jie-long2,3,WEI Xian2,3*

4、(1.School of Advanced Manufacturing,Fuzhou University,Quanzhou 362200,China;2.Fujian Institute of Research on the Structure of Matter,Chinese Academy of Sciences,Fuzhou 350002,China;3.Fujian Science&Technology Innovation Laboratory for Optoelectronic Information of China(Mindu Innovation Laboratory)

5、,Fuzhou 350108,China)Abstract:Aiming at the problems that current few-shot learning algorithms are prone to overfitting and insufficient generalization ability for cross-domain cases,and inspired by the property that reservoir computing(RC)does not depend on training to alleviate overfitting,a few-s

6、hot image classification method based on reservoir computing(RCFIC)is proposed.The whole method consists of a feature extraction module,a 文章编号:1007-2780(2023)10-1399-10收稿日期:2022-12-06;修订日期:2023-01-11.基金项目:中国福建光电信息科学技术创新实验室(闽都创新实验室)(No.2021ZZ120);福建省科技项目计划(No.2021T3003);泉州市科技项目(No.2021C065L)Supported

7、 by Fujian Science&Technology Innovation Laboratory for Optoelectronic Information of China(Mindu Innovation Laboratory)(No.2021ZZ120);Fujian Science and Technology Plan Project(No.2021T3003);Quanzhou Science and Technology Plan Project(No.2021C065L)*通信联系人,E-mail:第 38 卷液晶与显示feature enhancement modul

8、e and a classifier module.The feature enhancement module consists of a RC module and an attention mechanism based on the RC,which performs channel-level enhancement and pixel-level enhancement of the features of the feature extraction module,respectively.Meanwhile,the joint cosine classifier drives

9、the network to learn feature distributions with high inter-class variance and low intra-class variance properties.Experimental results indicate that the algorithm achieves at least 1.07%higher classification accuracy than the existing methods in Cifar-FS,FC100 and Mini-ImageNet datasets,and outperfo

10、rms the second-best method in cross-domain scenes from Mini-ImageNet to CUB-200 by at least 1.77%.Meanwhile,the ablation experiments verify the effectiveness of RCFIC.The proposed method has great generalization ability and can effectively alleviate the overfitting problem in few-shot image classifi

11、cation and solve the cross-domain problem to a certain extent.Key words:few-shot learning;reservoir computing;attention mechanism;feature enhancement;image classification1 引言近年来,深度学习已经广泛应用于各行各业 1-3,其凭借大规模数据大幅度提高了图像分类4、语义分割5、目标检测6等任务的精度,在计算机视觉领域取得了巨大的成功。然而,现实场景并不具备获得大规模可训练数据的条件,使深度学习方法容易产生过拟合、低泛化性等问题

12、。为了能够在数据稀缺的场景下进行学习,小样本学习7-9成为深度学习的一个重要研究方向。小样本学习方法通常可以分为两类:基于数据增强的方法10和基于学习策略的方法。第一类方法旨在生成新的样本来扩充原始样本空间或对特征空间进行增强;第二类方法可以细分为基于模型微调11的方法、基于元学习12的方法等。目前小样本学习的主要问题可以总结为特征提取网络提取的特征判别性不够充分、网络容易过拟合,模型泛化能力不足等。一些基于注意力机制的方法13-15 被提出来整合特征信息以优化上述问题,但此类方法在领域迁移16等问题上仍有优化空间。在解决小样本问题时需要关注两方面的问题:(1)更好地提取特征来指导分类;(2)

13、缓解过拟合,提高模型泛化能力,如进行数据增强等操作。考虑到人脑是一种天然的小样本学习范式,引入类脑知识或许有助于走出小样本学习的困境,再结合过拟合问题,促使本文应用一种类脑模型储备池计算(Reservoir Computing,RC)17-18来完成小样本学习任务。因为 RC 依靠内部复杂动力学特性而天然具有一定抗过拟合能力,能够有效表达复杂的输入信息,但在计算机视觉任务上几乎没有应用。针对上述问题,本文提出一种基于储备池计算的小样本图像分类方法(Reservoir Computing Based Network for Few-shot Image Classification,RCFIC)

14、,将特征提取网络提取的特征输入特征增强模块(由储备池模块和基于储备池的注意力机制构成)分别进行通道级和像素级增强,然后进行特征融合得到增强特征。同时,在元学习阶段使用余弦相似度分类器,联合特征增强模块促使网络提取的特征分布具有高类间方差、低类内方差的特征,从而更好地指导分类。本文方法在公开常用的小样本图像分类数据集上的实验均达到了具有竞争力的分类精度,表明所提模型和方法具有较强的泛化能力,能够使网络学习更具判别性的特征,缓解过拟合问题,增强模型的性能。2 基于储备池计算的小样本图像分类方法2.1问题定义由于小样本学习的任务都基于少量有标签数据(称为新类或目标数据域),而少量数据难以学习到真实的

15、数据模式,容易遇到过拟合问题。因此,一般会引入一个含有丰富标注样本(类别与新类互斥)的辅助数据集(称为基类)以帮助模型学习先验知识,然后再利用这些先验知识以在目标数据域上获得更好的任务表现。小样本学习通常以元任务的方式进行训练和1400第 10 期王彬,等:基于储备池计算网络的小样本图像分类方法评估,每个元任务都以 N-way K-shot 方法获得,即每个元任务都包括N种类别的数据,每类数据只包含K个有标签的样本,同时从每类数据中抽取q个样本作为预测样本。有标签样本构成的数据集称为支持集DS,预测样本构成的数据集称为查询集DQ。即:DS=(xSi,ySi)N Ki=1,(1)DQ=(xQi,

16、yQi)N qi=1,(2)其中:xi和yi分别表示样本及其对应的标签类别,N表示类别数量,K为支持集中每类样本的数量,q表示查询集中每类预测样本的数量。模型在支持集上学习后在测试集新类中采样大量的元任务来获得这些任务的平均准确率,从而评估模型在小样本学习任务上的分类性能和泛化能力。2.2算法框架基于储备池计算的小样本学习模型框架如图所示。该模型主要由3个模块组成:特征提取模块、基于储备池的特征增强模块和分类器模块。首先,通过特征提取模块f(|)(卷积网络,如ResNet12和 ResNet18等;表示该模块的可学习参数)对输入图像进行特征提取。然后,将提取的特征输入到特征增强模块。特征增强模

17、块由储备池通道级特征增强模块和基于储备池的注意力像素级特征增强模块组成,前者对输入特征进行高维表示以提取重要的通道信息,后者对输入特征的重要像素信息进行提取。最后,将两部分特 征 进 行 融 合 后 输 出 到 分 类 器 模 块C(|Wcls)(Wcls表示分类权重矩阵)得到最终的分类结果。2.3训练方法本文使用两阶段训练策略,如图 2所示。第一阶段为模型预训练。将小样本数据集的训练集按照合适的比例划分为新的训练集和验证集,模型在新划分的数据集上以传统图像分类的方式进行训练,分类器使用线性分类器,最后得到预训练模型Modelpre。该阶段使模型能够充分学习基类的特征,为接下来将学习到的知识迁

18、移到小样本学习任务上做准备,能够有效缓解过拟合问题。第二阶段为基于模型微调的小样本图像分类阶段。将Modelpre的分类器替换为余弦分类器,微调学习率等参数,再在原始的小样本数据集上以N-way K-shot的元学习方式进行模型训练和评估。2.4特征提取模块随着卷积网络宽度和深度的增加,网络对图像信息的提取更加充分。但由于数据样本较少带来的过拟合问题,使得在小样本学习任务中网络不能随意加深加宽,因此小样本学习领域常使图 1基于储备池计算的小样本图像分类模型框架Fig.1Framework of few-shot image classification model based on reser

19、voir computing1401第 38 卷液晶与显示用 ResNet-12 和 ResNet-18 作为特征提取网络。本文也使用这两个小样本学习任务中常用的主干网络作为特征提取模块。通过特征提取模块f(|)提取输入图像x的特征向量z1,如式(3)所示:z1=f(x|),z1 R(C,H,W),(3)其中:C为特征图的通道数,H和W分别为特征图的高和宽。2.5特征增强模块2.5.1半全连接的储备池内部拓扑结构储备池的强大性能源于其内部复杂的动力学特性,表现为储备池内部神经元之间的连接方式(连接矩阵WresR()M,M,M为神经元个数),即储备池内部拓扑结构。用储备池来处理复杂的视觉信息时,

20、需要设计一个相匹配的拓扑结构来提升储备池的性能。本文的Wres不使用传统的随机方法生成,也不同于经典的延迟线结构、循环结构以及对称结构19等拓扑结构。本文提出了一种半全连接的拓扑结构,生成方式如下:首先生成一个MM的矩阵Wres,使其元素全为r1(0,1。然后,将第一行最后一个元素和从第二行第一个元素开始的对角线元素设为r2(0,1,即:W1,M=Wk+1,k,k=1,2,M-1,(4)式中的下标代表元素在Wres中的位置。随后从矩阵第一个元素开始,按从左到右从上往下的顺序,每隔 p 个元素将其值设为r3(0,1,当要设置的元素超出矩阵范围时停止。对于网络的随机性,本文随机选择 1/4 的元素

21、及其对称位置的元素设置为 0。整个连接矩阵中 1/2的元素为 0,其余元素为r1、r2和r3。为了储备池能够稳定运行,Wres的谱半径(Wres)应该被约束到 1,即对Wres进行如式(5)所示的变换:Wres Wres|max,(5)其中:(0,1)为缩放尺度因子,|max为变换前的Wres的特征值绝对值中的最大值(谱半径)。相较于其他几种经典拓扑结构,所提拓扑结构具有较好的信息流动能力和更丰富的动力学特征,更适合处理复杂的视觉数据。2.5.2储备池模块储备池模块主要由半全连接拓扑结构的储备池和残差模块组成,用来提取输入特征的重要通道信息,进行通道级特征增强。在特征输入储备池之前,需要用一个

22、线性层l1()对特征z1进行维度变换,使其变为适应储备池输入的维度,即z2=l1(z1)R(C,D),其中D=HW,代表线性层的输出维度,也是储备池输入的维度。由于储备池计算的传统优势在于处理时序数据,而小样本图像数据不具有此种关系,因此,本文将z2按照通道维度进行划分得到了C个1D维的数据ztR(1,D),将其视为C个时刻的输入。那么储备池内部神经元状态更新方程如式(6)所示:st+1=F(zt+1Win+stWres),(6)其中:t=0,1,C-1。Win是输入特征到储备池的连接矩阵,其连接权重按照高斯分布生成。Wres按照本文所提的半全连接拓扑结构的方法生成。这两个矩阵按照各自的规律生

23、成后固定不变,不需要学习。zt+1表示第 t+1个输入。st+1表示第 t+1个输入时储备池内部神经元的状态。F()表示激活函数。储备池每个时刻的输出yt+1和整个储备池的输出yr根据式(7)和式(8)计算:yt+1=zt+1;st+1;z2t+1;s2t+1Wout,(7)yr=y0;y1;yt+1,(8)其中,”;”代表矩阵拼接操作;Wout代表储备池输出连接矩阵,本文使用一个可学习的线性层来逼近该矩阵。图 2基于储备池计算的训练方法流程图Fig.2Flowchart of the training method based on RC1402第 10 期王彬,等:基于储备池计算网络的小样

24、本图像分类方法储备池后接一个残差模块,残差模块内含一个批归一化层(Batch Normalization,BN)和前馈层(Feed-Forward,FF)以增加网络信息流通能力,防止网络退化。储备池通道级特征增强模块的输出yRC如式(9)所示:yRC=FF(BN(yr)+yr.(9)2.5.3基于储备池的注意力机制模块在小样本学习领域,注意力机制常被用来整合特征信息。本文提出了一种新颖的基于储备池网络的注意力机制生成方式。该模块通过储备池生成新的特征图 Q、K 和 V,然后根据式(10)计算输出像素级增强后的特征yAttn:yAttn=Softmax(RC1()z2RC2()z2T1)RC3(

25、z2)+z2.(10)与yRC融合后得到最终的增强特征z3:z3=2yRC+3yAttn,(11)其中,1、2和3均为可学习的标量参数。2.6分类器模块增强特征z3被送入分类器计算输出最后的分类结果y:y=classifier(z3)=C(|Wcls).(12)第一阶段使用线性分类器:yl=softmax(WTclsz3+b),(13)其中:WTcls为分类权重矩阵的转置,b是偏置项。第二阶段使用余弦分类器:ycos=cos(zT3,Wcls)=zT3zT3WclsWcls,(14)其中,是一个可学习的标量参数。余弦分类器中的l2归一化操作促使网络提取输入图像最具代表性的特征。同时,余弦分类器

26、结合特征增强模块使得分类前的特征分布呈现低类内方差、高类间方差的特点。储备池与余弦分类器相结合,能够更好地指导分类,提高小样本任务分类精度和模型的泛化能力。3 实验结果及分析3.1数据集和实验环境本文对所提方法和模型在Cifar-FS20、FC10021和 Mini-ImageNet22数据集上进行了常规小样本图像分类实验。为了验证模型的泛化性能,设置了跨域场景,在 Mini-ImageNet上训练模型后,在CUB-20023数据集上测试模型性能。Cifar-FS 和 FC100 均源自 Cifar 100 数据集。前者共包含 100 个类,每类有 600 张 3232 的图像,被划分为训练集

27、(64 类)、验证集(16 类)和测试集(20类);后者共包含 100个类,每类有 600张3232 图像。但 FC100 是按照超类进行划分的。FC100共20个超类,其中训练集12个超类(60类),验证集 4个超类(20类),测试集 4个超类(20类)。Mini-ImageNet 由 ImageNet24数 据 集 中 选取的 100个类构成,每个类别包含 600张 8484的图像,被划分为训练集(64 类)、验证集(16 类)和测试集(20类)。CUB-200 是 细 粒 度 图 像 数 据 集,共 包 含200 种鸟类的 11 788 张 8484 图像,被划分为训练集(100类)、验

28、证集(50类)和测试集(50类)。实验配置为 GTX2080Ti显卡、Linux 操作系统、PyTorch深度学习框架。实验在小样本任务阶段通过5-way 1-shot和5-way 5-shot方式采样任务,最终准确率是 1 500个元任务的平均分类精度。3.2实验结果3.2.1小样本图像分类首先在公开常用的小样本数据集上进行了图像分类实验,所提方法和目前先进的小样本学习方法的实验结果对比如表 1 和表 2 所示(加粗数字表示最优结果)。从表 1和表 2中可以看出,与主流方法相比,以 ResNet-12 和 ResNet-18 为主干网络的所提方法均取得了最好的分类结果。在 Cifar-FS

29、数据集上,5-way 1-shot 和 5-way 5-shot设置下的最优精度均是在以ResNet-18为特征提取网络时取得,分别为 79.44%和 89.86%,分别比次优网络MetaQAD高3.61%和1.07%。在 FC100 数据集上,5-way 1-shot 和 5-way 5-shot设置下的最优精度均是在以 ResNet-18为特征提取网路时取得,分别为 50.49%和 66.52%,分别比次优网络 TPMN高 3.56%和 3.26%。在 Mini-ImageNet数据集上,在 5-way 1-shot设置下,所提方法在 ResNet-18 特征提取网络下的分类准确率达到了

30、69.87%,比次优方法 DMF提高了 2.11%;5-way 5-shot 设置下的最高精度为 84.45%,比次优方法 IEPT提高了 1.55%。1403第 38 卷液晶与显示同时,所提方法在 3 个数据集上的分类精度比其他基于注意力机制的小样本图像分类方法高约 2%。实验结果说明所提方法能够有效对特征进行增强以提高分类准确率,能够有效处理小样本图像分类任务。3.2.2领域迁移现实世界中基类和新类的数据模式差距一般都比较大,使得更加符合真实场景的领域迁移场景成为小样本学习领域的研究重点之一。领域迁移问题要求模型具有良好的泛化能力。为了验证所提方法的泛化性,本文设置了此类领域转移的场景:实

31、验使用 ResNet-12和 ResNet-18作为特征提取的骨干网络,先在粗粒度数据集 Mini-ImageNet上训练模型,然后再在细粒度数据集 CUB-200上测试模型。实验结果如表 3 所示(加粗数字表示最优结果)。在5-way 1-shot和5-way 5-shot两种设置下,所提方法在使用 ResNet-18作为特征提取网络时均达到最优,分别为 49.24%和 69.07%,分别超过次优方法 LFWT 1.77%和 2.09%。实验说明所提方法针对领域迁移问题有良好的表现,模型的泛化能力强。3.3消融实验3.3.1特征增强模块的影响所提方法的特征增强模块由储存池模块和基于储存池的注

32、意力机制模块组成。为了探究所提模块的必要性以及对结果产生的影响,以ResNet-18 为特征提取网络在 Cifar-FS 数据集上表 1Cifar-FS数据集和 FC100数据集上的分类精度Tab.1Classification accuracy on Cifar-FS dataset and FC100 dataset%方法Cp.Nets25TPMN26RFS-distill27MetaOptNet28MetaQAD29Centroid30STANet13Main14Cro-Attention15RCFICRCFIC骨干网络/AttnResNet-12/NoResNet-12/NoResNe

33、t-12/NoResNet-12/NoWRN-28-10/NoResNet-18/NoResNet-12/YesResNet-12/YesResNet-12/YesResNet-12ResNet-18Cifar-FS5-way 1-shot75.400.2075.500.9073.900.8072.600.7075.830.88-74.890.18*74.360.45*75.330.14*77.230.3279.440.415-way 5-shot86.800.2087.200.6086.900.5084.300.5088.790.75-88.230.11*84.130.78*87.940.6

34、1*88.910.1989.860.68FC1005-way 1-shot43.800.2046.930.7144.600.7041.100.60-45.830.4846.270.22*44.540.3345.780.61*48.140.4150.490.375-way 5-shot59.700.2063.260.7460.900.6055.500.60-59.740.5662.890.15*58.090.3262.780.66*64.270.8366.520.09注:Attn表示是否使用了注意力机制;*表示复现结果表 3领域迁移实验Tab.3Cross-domain%方法LFWT35LRP3

35、6S-Shot37RCFICRCFIC骨干网络ResNet-10ResNet-12ResNet-18ResNet-12ResNet-185-way 1-shot47.470.7546.230.4246.680.4948.150.3549.240.195-way 5-shot66.980.6866.580.3965.560.7067.660.5769.070.26注:Mini-ImageNet迁移到 CUB-200表 2在 Mini-ImageNet数据集上的分类精度Tab.2Classification accuracy on Mini-ImageNet dataset%方法DMF31IEPT

36、32CTM33S2M234STANet13Main14Cro-Attention15RCFICRCFIC骨干网络/AttnResNet-12/NoResNet-12/NoResNet-18/NoResNet-18/NoResNet-12/YesResNet-12/YesResNet-12/YesResNet-12ResNet-185-way 1-shot67.760.4667.050.4464.120.8264.060.1858.350.5764.270.3567.190.5567.950.5769.870.325-way 5-shot82.710.3182.900.3080.510.1380

37、.580.1271.070.3981.240.2680.640.3583.150.3384.450.61注:Attn表示是否使用了注意力机制1404第 10 期王彬,等:基于储备池计算网络的小样本图像分类方法进行了不使用特征增强模块(No Enhancement,NE)、只使用储备池模块(Only Reservoir,OR)和只使用基于储备池的注意力机制模块(Only Attention,OA)的消融实验。实验结果如表 4 所示(加粗数字表示最优结果)。可以看到使用了特征增强模块的分类精度在两种设置下都高于不使用特征增强模块的网络至少3%。同时,当储备池模块和基于储备池的注意力模块联合使用时,

38、分类精度比其单独使用至少高约0.78%。该消融实验说明了所提特征增强模块的有效性和两个模块联合使用的必要性。3.3.2不同注意力机制生成方式的影响为了说明所提方法相比于传统的线性变换或卷积操生成注意力机制的优势,在 Mini-ImageNet数据集上以 ResNet-18为特征提取网络进行了小样本图像分类实验。实验结果如表5所示(加粗数字表示最优结果)。可以看出使用了注意力机制比没有使用时分类效果好,因为注意力机制整合突出了重要特征信息。所提生成注意力机制方法的精度在 5-way 1-shot 和 5-way 5-shot 设置下分别达到 69.87%和 84.45%,优于另外两种方法至少 2

39、.12%,说明了储备池生成方法的有效性。3.3.3特征分布可视化在 Cifar-FS 数据集上,以 ResNet-18 为特征提取网络对查询集的特征进行提取(q=30,共530 张查询图像)。以不同的注意力机制进行增强后,采用 t-Distributed Stochastic Neighbor Embedding(t-SNE)38对特征分布做可视化。如图 3所示,所提方法对特征进行增强后,特征分布相较于传统的线性变换和卷积操作生成方式而言,具有更大的类间方差和更小的类内方差,使得分类器能够更好地分类,提升小样本任务的分类精度。3.3.4可学习标量参数的影响可学习标量参数主要用来进行缩放,主要体

40、现表 4特征增强模块的影响(以对 Cifar-FS数据集的分类精度为例)Tab.4Effect of feature enhancement module(taking classification accuracies on Cifar-FS for example)%NA-OR-OA-5-way 1-shot73.430.1276.610.5778.660.3879.440.415-way 5-shot84.340.3687.330.7287.620.2989.860.68表5不同注意力生成方式在Mini-ImageNet上的精度Tab.5Classification accuracy o

41、f attention mechanisms generated by different methods on Mini-ImageNet dataset%线性变换-卷积-储备池-5-way 1-shot60.970.2265.270.3663.750.1769.870.325-way 5-shot79.230.0782.330.7281.620.2984.450.61图 3不同方式生成注意力机制对特征进行增强后的特征分布Fig.3Feature distributions after the enhancement by attention mechanisms generated in

42、different ways1405第 38 卷液晶与显示在公式(11)的中的2和3、公式(14)中的。2和3主要用于权衡通道级增强模块的输出和像素级增强模块的输出对最终输出的贡献程度。因为余弦相似度的范围被固定为-1,1,所以用来控制分类器中 softmax 算子产生的概率分布的峰值。在 Cifar-FS、Mini-ImageNet数据集上以ResNet-18为特征提取网络进行了小样本图像分类实验,讨论了是否使用2和3以及对进行不同初始化选择的影响。如表 6 所示(加粗数字表示最优结果),使用2和3的效果优于未使用时,因为这两个参数学习如何衡量通道级增强模块和像素级增强模块的重要性比例,相较

43、于未使用的情况更合理。同时,这两个参数都被初始化为 01之间的数值。参数用来控制 softmax算子的峰值,其不同初始化值对实验结果的影响如图 4所示。可以发现其初始值为 4时,在 Cifar-FS和 Mini-ImageNet数据集上的最终分类结果都比其他初始化值好,因此所做其他实验中该参数的初始值设置为 4。3.3.5不同储备池内部拓扑结构的影响储备池内部拓扑结构使其具有丰富的动力学特性来处理复杂的数据。为了直观说明所提拓扑 结 构 的 优 势,在 Mini-ImageNet 数 据 集 上 以ResNet-18 为特征提取网络进行了小样本图像分类实验。实验结果如表 7 所示(加粗数字表示

44、最优结果),所提拓扑结构在5-way 1-shot和 5-way 5-shot两种设置下的分类精度均优于其他拓扑结构1%3%,说明所提拓扑结构具有更丰富动力学特性来处理复杂信息和缓解过拟合,能够增强模型的泛化能力。4 结论本文提出了一种基于储备池计算的小样本图像分类方法,通过储备池模块和基于储备池模块的注意力机制对特征进行通道级和像素级增强,联合余弦分类器使得网络提取的特征分布具有高类间方差、低类内方差的特性。相较于目前流行的小样本图像分类方法,所提方法在标准的小样本图像分类任务和跨域转移场景下的分类精度至少分别高 1.07%和 1.77%,具有较强的泛化性。本文方法依赖于储备池内部动力学特性

45、来缓解过拟合、增强模型泛化性能,然而其内在机制缺乏可解释性,这也将是下一步的研究重点。参考文献:1 LUO Y,ZHAO Y F,LI J X,et al.Computational imaging without a computer:seeing through random diffusers at the speed of light J.eLight,2022,2(1):4.2 ZUO C,QIAN J M,FENG S J,et al.Deep learning in optical metrology:a review J.Light:Science&Applications,表

46、 7不同储备池内部拓扑结构的影响Tab.7Effect of different internal topologies of RC%拓扑结构RandomDelay lineCyclicWignerRCFIC骨干网络ResNet-18ResNet-18ResNet-18ResNet-18ResNet-185-way 1-shot67.160.4465.330.3866.970.2968.440.5169.870.325-way 5-shot80.570.1878.950.3978.520.6781.380.1384.450.61图 4不同的初始值对分类准确度的影响Fig.4Effect of

47、different initial values of on classification accuracy表 6是否使用1、2的影响Tab.6Effect of whether using 1 and 2%2-3-5-way 1-shot77.120.4179.440.415-way 5-shot87.370.2989.860.681406第 10 期王彬,等:基于储备池计算网络的小样本图像分类方法2022,11(1):39.3 SITU G.Deep holography J.Light:Advanced Manufacturing,2022,3(2):8.4 CHEN C F R,FAN

48、 Q F,PANDA R.CrossViT:Cross-attention multi-scale vision transformer for image classification C/Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision.Montreal:IEEE,2021:347-356.5 杜敏敏,司马海峰.A-LinkNet:注意力与空间信息融合的语义分割网络 J.液晶与显示,2022,37(9):1199-1208DU M M,SIMA H F.A-LinkNet:semanti

49、c segmentation network based on attention and spatial information fusion J.Chinese Journal of Liquid Crystals and Displays,2022,37(9):1199-1208.(in Chinese)6 WU X W,SAHOO D,HOI S C H.Recent advances in deep learning for object detection J.Neurocomputing,2020,396:39-64.7 ZHONG X,GU C,YE M,et al.Graph

50、 complemented latent representation for few-shot image classification J.IEEE Transactions on Multimedia,2022,25:1979-1990.8 FINN C,ABBEEL P,LEVINE S.Model-agnostic meta-learning for fast adaptation of deep networks C/Proceedings of the 34th International Conference on Machine Learning.Sydney:JMLR.or

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服