收藏 分销(赏)

基于改进MobileNet v2的服装图像分类算法.pdf

上传人:自信****多点 文档编号:2563264 上传时间:2024-06-01 格式:PDF 页数:11 大小:5.58MB
下载 相关 举报
基于改进MobileNet v2的服装图像分类算法.pdf_第1页
第1页 / 共11页
基于改进MobileNet v2的服装图像分类算法.pdf_第2页
第2页 / 共11页
基于改进MobileNet v2的服装图像分类算法.pdf_第3页
第3页 / 共11页
亲,该文档总共11页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 32 卷 第 4 期2024 年 4 月现代纺织技术Advanced Textile TechnologyVol.32,No.4Apr.2024DOI:10.19398j.att.202303051基于改进 MobileNet v2 的服装图像分类算法李林红a,b,杨 杰a,b,蒋严宣a,b,朱 浩a(江西理工大学,a.电气工程与自动化学院;b.江西省磁悬浮技术重点实验室,江西赣州 341000)摘 要:针对现有服装图像分类算法参数量较多、识别精度低的问题,提出了一种基于注意力机制和迁移学习的改进型 MobileNet v2 算法。首先,选取 MobileNet v2 作为特征提取网络,确

2、保服装分类算法的整体轻量性。其次,将通道与空间注意力机制嵌入特征提取单元,自适应地选择和强化有用的特征信息,从而提高服装图像分类算法的识别精度。最后,通过迁移学习方法对模型进行参数初始化,使得模型能够从源域中获得先验知识。在 Fashion MNIST 数据集上的实验结果表明:所提算法的分类精度为 93.28%,相较于ResNet50、EfficientNet v2_l、ShuffleNet v2 和 MobileNet v2 模型,分别提高了 1.85%、1.34%、3.86%和 3.17%;在DeepFashion 数据集上的准确率为 88.24%。此外,该算法参数量低至 2.35M,单张

3、图像推理速度仅为 7.5 ms,在参数量基本不变的的情况下提升了分类精度与推理速度。关键词:服装分类;MobileNet v2;深度学习;注意力机制;迁移学习中图分类号:TP399 文献标志码:A 文章编号:1009-265X(2024)04-0093-11收稿日期:20230329 网络出版日期:20230830基金项目:国家自然科学基金项目(62063009)作者简介:李林红(1999),男,安徽六安人,硕士研究生,主要从事计算机视觉方面的研究。通信作者:杨杰,E-mail:yangjie 随着互联网的发展,网络购物逐渐成为居民购买商品的重要手段,电子商务成为推动服装消费互联网向产业互联网

4、迈进的先导力量。2021 年中国服装电子商务 B2C 市场交易规模约 2.15 万亿元,两年平均增长约 8%,网购渗透率达到 45%左右1,网购服装已经成为消费者购买服装的主要方式。为了提高电商平台的检索效率和精确性,平台需要根据用户的喜好和风格对商品进行分类,并为每件商品打上标签。然而,对于大规模的服装图像数据,传统的人工标注和分类方法耗时耗力,且容易受到主观因素的影响,已经无法满足目前服装分类需求。而基于深度学习的分类算法2-3可以从大规模服装数据中学习到更多有用的特征,在分类速度和准确性方面显著高于传统的人工标注和分类方法。因此,基于深度学习的服装分类算法研究具有重要的实际意义,可以缩短

5、用户检索时间,缩小检索范围,为用户提供更加精确的结果。深度学习领域的发展需大量的计算资源和高速的存储设备,随着硬件设备性能的不断提升,基于深度学习的分类算法也在不断进步。这些算法包括精度高、参数量多的大型模型和精度较低、参数量少的轻量级模型。自 2012 年 Krizhevsky 等4提出 AlexNet 模型以来,采用卷积神经网络自动提取特征的深度学习模型赢得了当年 ImageNet 图像分类冠军,引发了深度学习的热潮。随着 2014 年VGG5和 2015 年 ResNet6等系列大模型的推出,深度学习算法在图像处理领域的优势愈发凸显。然而大模型对硬件设备算力要求较高,难以部署在边缘设备上

6、。因此在 2017 年 Iandola 等7提出SqueezeNet,开启了深度学习模型轻量化时代,后续研究者提出了 MobileNet8系列和 ShuffleNet9系列算法,在保证精度的同时,模型参数量更小,推理速度更快,在服装分类任务中轻量化模型逐渐成为一种新的发展趋势。近年来,研究者们针对不同服装数据的特点进行算法改进,使得基于深度学习的服装图像分类算法取得了长足进展。曾华福等10在 ShuffleNet v1中嵌入了空间和通道注意力机制,并设计了非对称多尺度特征融合模块,加强了模型的特征提取能力,在 Deepfashion 数据集上的准确率为 93.22%。赵宏伟等11提出了一种关键

7、点注意力机制与通道注意力机制相结合的方法,在 Deepfashion 数据集上的top-3 准确率达到了 91.24%。李青等12提出了一种基于 Inception v3 算法与迁移学习技术的女衬衫图案分类方法,平均精度相较原模型提升了 6%。Liu 等13提出了一种基于改进 Xception 模型的服装图像分类算法,使用 8 类别全连接层替换原始全连接层,还使用指数线性单元(ELU)和整流线性单元(ReLU),改善网络的学习能力,结合数据增强技术,使得算法的准确率达到 92.19%。上述研究从多个方面对服装图像分类算法进行了改进,例如引入注意力机制增强特征融合和改进激活函数改善模型学习能力,

8、提升了模型的精度。然而,上述研究仍存在以下不足:a)在提升精度时忽略了模型复杂度的上升,推理耗时较高;b)研究对象集中于细分类,对大类别分类存在不足。为了满足实际服装分类应用对算法的实时性和准确性的需求,本研究选用实时性能好的 MobileNet v2 为基础模型进行改进。首先,在模型中嵌入CBAM 注意力机制,在不增加网络复杂度的情况下,增强模型对特征表示的提取能力,提升模型精度;其次,基于迁移学习增强模型的泛化能力和提高分类精度;最终,在保持算法轻量化和实时性的基础上提升模型准确率。1 算法设计1.1 基础理论1.1.1 MobileNet v2MobileNet v2 是谷歌团队于 20

9、18 年提出的轻量化网络模型6,其延续了 MobileNet v1 网络中利用深度可分离卷积轻量化网络的思想,深度可分离卷积的基本流程如图 1 所示。与普通卷积相比,深度可分离卷积结合 DW 卷积(Depthwise convolution)和PW 卷积(Pointwise convolution),有效减少了模型参数;并在 v1 的基础上加入了倒残差结构和线性瓶颈结构,使得模型收敛速度显著加快,计算成本进一步降低。深度可分离卷积和普通卷积计算量的对比可用式(1)表示:PDPC=D2kMD2F+MND2FD2kMND2F=1N+1D2k(1)式中:PD是深度可分离卷积计算量,PC是普通卷积计算

10、量,Dk是卷积核大小,DF是特征矩阵的宽度和高度,M 是输入特征矩阵的通道数,N 是输出特征矩阵的通道数14。图 1 深度可分离卷积计算原理Fig.1 Calculation principle of depthwise separable convolution MobileNet v2 借鉴 ResNet 的残差连接思想,并在此基础上提出倒残差结构。与残差结构相反,倒残差结构先使用 PW 卷积进行升维操作,然后利用 DW 卷积提取特征,最后使用 PW 卷积对特征图作降维处理。这种结构在提取特征时能够减少高维信息的丢失。需注意,只有当步长为 1 时,才会出现残差连接,如图 2(a)所示;步长

11、为 2 时直接采用串联结构,如 图 2(b)所示。倒残差结构使得49现代纺织技术第 32 卷网络允许更小维度的输入和输出,从而降低了网络的参数量和计算量。并且残差连接有利于梯度传播,构建更深层次网络。图 2 不同步长的倒残差结构Fig.2 Inverted residuals structure with different stride lengths由于倒残差结构最终输出的是低维特征信息,而 ReLU 激活函数对于低维的特征信息会造成比较大的损失。因此 MobileNet v2 在倒残差结构中的最后一层卷积层采用线性激活函数,而不是 ReLU 函数,有效避免了特征信息的损失。1.1.2 注

12、意力机制CBAM(Convolutional block attention module)是一种注意力机制,旨在增强卷积神经网络的表达能力,CBAM 计算原理如图 3 所示。它由 通 道 注 意 力 模 块(Channel attention module,CAM)和空间注意力模块(Spatial attention module,SAM)组成。最终得到的特征映射可用式(2)-(3)计算:Fc=Mc(F)F(2)Fs=Ms(F)F(3)式中:Fc表示通道注意力特征,Mc表示通道权重系数,F 表示输入特征,Fs表示空间注意力特征,Ms表示通道权重系数,逐像素乘法运算。图 3 CBAM 模块计算

13、原理Fig.3 Calculation principle of CBAM使用通道注意力模块(CAM)对输入的特征图进行处理,如图 4 所示。首先,特征图经过两个并行的最大池化层和平均池化层进行尺度压缩。然后,通过多层感知机(Multilayer Perceptron,MLP)模块处理输出结果,并逐元素相加。最终,通过一个sigmoid 激活函数获得通道的权重系数,并将其与输入特征图相乘,得到新的特征图。最终得到的通道注意力映射可用式(4)计算:Mc=(Mlp(FAvg(F)+FMax(F)(4)式中:表示线性激活函数,Mlp表示多层感知机,FAvg表示平均池化函数,FMax表示最大池化函数。

14、图 4 CAM 模块计算原理Fig.4 Calculation principle of CAM 空间注意力模块(SAM)如图 5 所示。SAM 通过通道注意力的输出结果,分别进行最大池化和平均池化,生成两个新的特征图。接着,这两个特征图通过 Concat 操作进行拼接,并经过一个 77卷积变成单通道的特征图。然后,将该特征图通过 sigmoid 激活函数生成空间权重系数。最后,将该系数与初始特征图相乘,得到最终的特征图。最终得到的空间注意力映射可用式(5)计算:Ms=(fconv(fAvg(f);fMax(F)(5)式中:表示线性激活函数,fconv表示多层感知机,fAvg表示平均池化函数,

15、fMax表示最大池化函数。图 5 SAM 模块计算原理Fig.5 The principle of SAM59第 4 期李林红 等:基于改进 MobileNet v2 的服装图像分类算法1.2 算法整体框架针对服装图像分类问题,本研究对 MobileNet v2模型进行改进,设计了高效的服装分类算法。本研究提出的改进 MobileNet v2 的模型结构如图 6 所示,由输入层(Input)、普通卷积层(Conv2d)、点卷积(PW 卷积)、深度可分离卷积(DW 卷积)、通道和空间注意力机制(CBAM)、基本单元 1(Bottleneck_s1)、基本单元 2(Bottleneck_s2)和池

16、化层(Avgpool)等组成。本研究的设计思路:为增强模型对特征提取能力,在 MobileNet v2 的基本单元 Bottleneck_s1 和Bottleneck_s2 中嵌入注意力机制,构建出带注意力机制的基本单元;为避免部分图像像素变化、差异较大等因素造成对模型训练精度影响,引入迁移学习方法,提高模型的泛化能力和稳定性。使用交叉熵损失作为算法的分类损失函数,交叉熵损失计算方式可用式 6 表示:L=-yilogpi(6)式中:L为交叉熵损失函数的值,yi为真实标签,pi为模型对第 i 类的预测概率。图 6 改进 MobileNet v2 的模型整体框图Fig.6 Overall netw

17、ork block diagram of improved MobileNet v21.3 注意力机制单元设计CBAM 注意力机制可以自适应获取特征图在通道和空间权重系数,根据相应的权重系数可以从复杂的特征信息中选择出对当前类别有用关键特征信息,从而强化关键特征信息,能够有效提升模型的抗噪性能和特征提取能力。本研 究 将 CBAM 注 意 力 机 制 分 别 嵌 入 到MobileNet v2 中步长为 1 和步长为 2 的基本单元模块 Bottleneck_s1 和 Bottleneck_s2 中,使得模型在通道维度和空间维度上都能更加关注有用特征信息,抑制无用特征信息。CBAM 注意力机制

18、在基本单元中的位置如图 7 所示,在原始基本单元的输出位置分别串联通道注意力机制和空间注意力机制。图 7 注意力机制基本单元Fig.7 Elementary unit with attention mechanism69现代纺织技术第 32 卷1.4 迁移学习在一些深度学习场景中,人们期望使用一种方法辅助模型学习新知识,降低学习成本。而迁移学习就是这样一种方法,能够运用已有的知识找到和新知识间的共性,并将这些共性传递给新模型,可以增强泛化能力并加快收敛速度。因此迁移学习被广泛应用于深度学习领域。迁移学习更易于关注有源域和目标域的情况,图 8 为本研究迁移学习流程。图 8 迁移学习具体流程Fig

19、.8 Specific process of transfer learning2 实验与分析2.1 数据集介绍本研究使用的数据集是由德国 Zalando 公司提供 Fashion MNIST 数据集,涵盖了 70000 张 10 类不同服装商品的灰度正面图像,其中训练集共 60000张图像,测试集共 10000 张图像,Fashion MNIST 数据集的标签及类别如表 1 所示。表 1 Fashion MNIST 数据集标签及类别Tab.1 Fashion MNIST dataset labels and categories标签类别示例图像0T 恤(T-shirttop)1裤子(Trou

20、ser)2套头衫(Pullover)续 表标签类别示例图像3连衣裙(Dress)4外套(Coat)5凉鞋(Sandal)6衬衫(Shirt)7运动鞋(Sneaker)8包(Bag)9靴子(Ankle boot)2.2 实验环境及设置本研究实验平台配置如下:CPU 为 Intel Core I5-8500,搭载 2 张 Tesla P100 显卡,操作系统为Ubuntu14.04,python 版本为 3.6.9,深度学习框架及版本为 Pytorch1.7.0。模型的训练使用 Tesla P100 显卡进行加速训练,减少训练时间。对数据集执行随机尺寸裁剪、水平翻转和归一化处理等数据增强方式,增强

21、模型的泛化能力。选用 Adam 作为模型优化器,学习率设置为 0.001,采用交叉熵损失函数;训练周期设置为100 轮,每批次训练 16 张图像。采用准确率Acc作为分类结果的衡量指标,参数量 P 衡量模型的大小,推理时间 T 衡量模型的实时性。准确率Acc、参数量P、推理时间T的具体计算可用式(7)(9)表示:Acc=TP+TNTP+TN+FP+FN(7)式中:TP表示正类预测准确的数量,TN表示负类预测准确的数量,FP表示负类预测错误的数量,FN表示正类预测错误的数量。79第 4 期李林红 等:基于改进 MobileNet v2 的服装图像分类算法P=(W H Cin1+1)Cout1+(

22、Cin1+1)Cout2(8)式中:W 表示卷积核宽度,H 表示卷积核高度,Cin1表示输入通道数,Cout1表示输出通道数,Cin2表示全连接层输入节点数,Cout2表示全连接层输出节点数。T=Ni=1tiN(9)式中:N 表示测试图像的数量,ti表示第 i 张图像推理的耗时。2.3 消融实验为验证本研究所提改进点对 MobileNet v2 基础模型的性能提升有效,设置消融实验。为了验证在 MobileNet v2 中加入通道和空间注意力机制是否能够提升模型准确率,使用注意力机制单元Bottleneck_s1 和 Bottleneck_s2 分别代替步长为 1和步长为 2 的基本单元;为了

23、验证迁移学习对网络模型参数的优化效果,使用迁移学习的方式初始化 MobileNet v2 模型权重。不同改进点在 Fashion MNIST 数据集上的消融实验训练曲线如图 9 所示。其中:A 为模型测试的准确率,E 为训练过程中模型迭代次数,L 为模型测试的损失值。消融实验具体结果如表 2 所示。在网络引入CBAM 注 意 力 机 制 的 情 况 下,准 确 率 提 高 了0.7%,参数量仅增加了 0.1M;使用迁移学习的训练方式,更好地初始化网络参数,显著增强了模型泛化能力,模型准确率提升 2.5%。最终本研究通过引入注意力机制和迁移学习,与初始MobileNet v2 相比在参数量仅增加

24、 0.1M 的情况下,精度提升了 3.17%。图 9 消融实验训练曲线Fig.9 Ablation experiment training curve表 2 在 Fashion MNIST 数据集上消融实验结果Tab.2 Ablation experiment results on the Fashion MNIST dataset网络改进CBAM迁移学习Acc%PMMobileNet v290.112.2490.882.3592.642.2493.282.35 注:表示存在该项改进,空白表示不存在该项改进。为了直观体现 CBAM 注意力机制对服装分类的效果,将不同模型卷积结果采用热力图的方式

25、进行可视化展示,如图 10 所示,亮度越高的区域表示更受模型的关注。可以看出,没有加入注意力机制的原始模型关注点较少且比较分散,包含了无关的背景信息;而加入 CBAM 注意力机制后,模型对有用信息的关注度更高,还能有效抑制背景信息的干扰。为了进一步分析本研究算法在其他分类任务场景下 的 性 能 提 升 效 果,选 取 大 型 公 共 数 据 集DeepFashion 中 Blazer 类别和 Dress 类别共 7380 张图像进行消融实验,具体实验结果如表 3 所示。可以看出,本研究算法在 DeepFashion 数据集部分图像上的准确率为 88.24%,优于基础的 MobileNet v2

26、89现代纺织技术第 32 卷算法,并且每个改进点都会带来准确率的提升。这是因为 CBAM 注意力机制能够使模型更加注意有用的特征信息,而迁移学习的训练方式使得模型能够学习到先验知识并具备更强的泛化能力。图 10 CBAM 注意力机制分类可视化对比Fig.10 Visual comparison of CBAM attention mechanism classification表 3 在 DeepFashion 数据集上消融实验结果Tab.3 Ablation experiment results on DeepFashion dataset网络改进点CBAM迁移学习Acc%PMMobileN

27、et v286.152.2487.082.3587.932.2488.242.35 注:表示存在该项改进,空白表示不存在该项改进。2.4 算法对比当前基于深度学习的图像分类模型较多,为了体现本研究改进算法的效果,选取主流图像分类算法 ResNet50、EfficientNet v2_l、ShuffleNet v2 进行对比。在 Fashion MNIST 数据集上训练,训练过程中每个模型的超参数都相同,每完成一个训练周期,记录其测试集准确率和训练损失值,便于及时掌握模型的训练情况,确保每个模型可以在收敛的情况下完成训练。99第 4 期李林红 等:基于改进 MobileNet v2 的服装图像分

28、类算法图 11 不同模型训练曲线Fig.11 Different model training curves不同模型在 Fashion MNIST 数据集上的训练曲线如图 11 所示,从图 11 中可以看出,改进后的模型准确率有了明显的提升,超过了测试的主流模型,且最终损失值也是几个模型中最低的。各模型在Fashion MNIST 数据集上的具体实验结果如表 4 所示。改进后的模型准确率比 ResNet50、EfficientNet v2_l、ShuffleNet v2 和 MobileNet v2 分别提高 1.85%、1.34%、3.86%、3.17%,且参数量比 ResNet50 和Ef

29、ficientNet v2_l 分别减少 90.01%、97.9%,平均单张图像推理速度为 7.5ms。本研究算法以较少的计算损耗实现了不错的精度和推理速度提升,在实际场景中具有很高的应用价值。表 4 各模型准确率对比Tab.4 Comparison of the test accuracy of various models模型Acc%PMTmsResNet5091.4323.5218.3EfficientNet v2_l91.94117.2521.5ShuffleNet v289.421.266.4MobileNet v290.112.247.9本研究算法93.282.357.52.5 算

30、法测试为了验证本研究所提算法的实际分类性能,调用训练完成的权重文件对库内和库外图像分别进行测试,测试结果如图 12 所示。可以看出,本研究算法在 Fashion MNIST 数据集上的分类效果很好,能够精确识别每一种服装类别,相应的类别概率也基本都为 1。而本研究算法在库外数据集上的分类效果同样很出色,除“Bag”这一类的预测概率为 0.655 外,其他类别服装的预测概率均达到 0.9 以上,可见本研究所提算法优异的分类性能。不仅对库内服装数据分类性能优秀,对库外数据也能保持很好的识别效果。图 12 本研究数据集和库外数据集测试Fig.12 Testing on the proposed da

31、taset and the out-of-library dataset 其次,为了验证本研究所提分类算法的有效性,使用库外图像进行了对比测试实验,与其他分类方法进行对比评估,如图 13 所示。可以看出,5 种分类方法均能将运动鞋和 T 恤准确识别出来,并且预测概率均在 90%以上,按照预测概率 从 高 到 低 的 顺 序 分 别 为 本 研 究 算 法、001现代纺织技术第 32 卷EfficientNet v2_l、ResNet50、MobileNet v2 和 ShuffleNet v2。尽管 EfficientNet v2_l 和本研究算法的预测概率很接近,但是 EfficientNe

32、t v2_l 的参数量是本研究算法的 50 倍;而虽然 ShuffleNet v2 参数量仅为本研究算法的二分之一,但其预测概率与本研究算法相差较大。由此可见,本研究算法在保持较低参数量的同时还具有很高的分类精度,具有优异的性能。图 13 不同分类方法测试效果对比Fig.13 Comparison of test results of different classification methods3 结 语本研究提出了一种基于改进 MobileNet v2 的服装图像分类算法,通过强化模型特征信息和增强模型泛化能力的方式提升准确率。分类精度在 Fashion MNIST 数据集上为 93.2

33、8%,准确率在 DeepFashion数据集上达到 88.24%。相较于 ResNet50、EfficientNet v2_l、ShuffleNet v2 和 MobileNet v2 模型,分类精度分别提高了 1.85%、1.34%、3.86%和 3.17%;此外,该算法参数量低至 2.35 M,单张图像推理速度仅为7.5 ms。改进后的算法不仅提升了精度,并且保持了模型的轻量化,对电商平台前期的服装分类具有较大的应用价值,并为后续服装款式及图案分类研究提供了参考。本研究的算法侧重于单标签服装图像分类,然而在识别单个图像中的多个目标物体方面存在一些不足。未来的研究将着重于将服装图像分类任务扩

34、展为多标签分类,以实现对多种服装类别的分类识别,以便将其应用于更广泛的服装分类场景中。101第 4 期李林红 等:基于改进 MobileNet v2 的服装图像分类算法参考文献:1 中国服装协会网.20212022 年中国服装电子商务发展报告ROL.(2022-05-23)2023-03-29.http:htmlshouyeremenzixun2022052354504.html.China National Garment Association website.2021-2022 China apparel e-commerce development report.ROL.(2022-0

35、5-23)2023-03-29.http:htmlshouyeremenzixun2022052354504.html.2 SZEGEDY C,LIU W,JIA Y,et al.Going deeper with convolutions C Conference on Computer Vision and Pattern Recognition.Boston,MA,USA.IEEE,2015:1-9.3 CHOLLET F.Xception:Deep learning with depthwise separable convolutionsCConference on Computer

36、 Vision and Pattern Recognition.Honolulu,HI,USA.IEEE,2017:1800-1807.4 KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networksJ.Communications of the ACM,2017,60(6):84-90.5 SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recogn

37、itionEBOL.(2015-04-10)2023-03-29.https:arxiv.orgabs1409.1556.6 HE K,ZHANG X,REN S,et al.Deep residual learning for image recognitionC Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA.IEEE,2016:770-778.7 IANDOLA F N,Han S,MOSKEWICZ M W,et al.SqueezeNet:AlexNet-level accuracy wit

38、h 50 x fewer parameters and 0.5 MB model sizeEBOL.(2016-11-4)2023-03-29.https:arxiv.orgabs1602.07360.8 SANDLER M,HOWARD A,ZHU M,et al.Mobilenetv2:Inverted residuals and linear bottlenecksC Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA.IEEE,2018:4510-4520.9 ZHANG X,ZHOU

39、X,LIN M,et al.Shufflenet:An extremely efficient convolutional neural network for mobile devicesC Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA.IEEE,2018:6848-6856.10 曾华福,杨杰,李林红.基于改进 ShuffleNet v1 的服装图像分类算法J.现代纺织技术,2023,31(2):23-35.ZENG Huafu,YANG Jie,LI Linhong.Clothing

40、 image classification algorithm based on improved ShuffleNet v1J.Advanced Textile Technology,2023,31(2):23-35.11 赵宏伟,刘晓涵,张媛,等.基于关键点注意力和通道注意力的服装分类算法J.吉林大学学报(工学版),2020,50(05):1765-1770.ZHAO Hongwei,LIU Xiaohan,ZHANG Yuan,et al.Clothing classification algorithm based on landmark attention and channel a

41、ttention J.Journal of Jilin University(Engineering and Technology Edition),2020,50(5):1765-1770.12 李青,冀艳波,郭濠奇,等.基于深度学习的女衬衫图案样式识别分类J.现代纺织技术,2022,30(4):207-213.LI Qing,JI Yanbo,GUO Haoqi,et al.Pattern recognition and classification of blouse based on deep learningJ.Advanced Textile Technology,2022,30(

42、4):207-213.13 LIU K H,LUO D J,HU M,et al.The clothing image classification algorithm based on the improved Xception modelJ.International Journal of Computational Science and Engineering,2020,23(3):214.14 陈智超,焦海宁,杨杰,等.基于改进 MobileNetv2 的垃圾图像分类算法J.浙江大学学报(工学版),2021,55(8):1490-1499.CHEN Zhichao,JIAO Hain

43、ing,YANG Jie,et al.Garbage image classification algorithm based on improved MobileNet v2 J.Journal of Zhejiang University(Engineering Science),2021,55(8):1490-1499.201现代纺织技术第 32 卷Clothing image classification algorithm based on improved MobileNet v2LI Linhonga,b,YANG Jiea,b,JIANG Yanxuana,b,ZHU Haoa

44、(a.School of Electrical Engineering and Automation;b.Jiangxi Provincial Key Laboratory of Maglev Technology,Jiangxi University of Science and Technology,Ganzhou 341000,China)Abstract:With the continuous development of Internet technology online clothing shopping has become one of the mainstream ways

45、 for people to shop.Consumers can easily browse and purchase various types of clothing from e-commerce platforms at home without the need to visit physical stores in person.At the same time online shopping platforms also offer more choices and competitive prices which is one of the main reasons why

46、people choose to shop for clothing online.According to market research data as of 2021 the consumption scale of online clothing shopping in China had reached 3.7 trillion yuan accounting for nearly half of the entire online shopping market and this number is still growing.However quickly and accurat

47、ely classifying a large number of clothing images is a challenging task.Traditional clothing classification requires a lot of time and labor to classify sort and label consuming a lot of manpower and time costs.Moreover with the annual increase in the volume of online shopping orders traditional man

48、ual classification methods are difficult to handle large amounts of data and cannot meet the needs of rapid classification and processing.On the contrary clothing classification methods based on deep learning can learn more features and patterns through a large amount of data and iterative training

49、achieving higher accuracy without human intervention.Therefore this article proposes a clothing classification algorithm based on improved MobileNet v2.The improved algorithm mainly embeds channel and spatial attention mechanisms into the basic unit of MobileNet v2 to form an attention mechanism bas

50、ic unit giving useful features greater weight suppressing useless features and enhancing the network s feature extraction ability.In addition transfer learning is used to optimize the model parameters and enhance the model s generalization ability and stability so as to further improve the classific

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服