1、Modeling and Simulation 建模与仿真建模与仿真,2023,12(5),4320-4331 Published Online September 2023 in Hans.https:/www.hanspub.org/journal/mos https:/doi.org/10.12677/mos.2023.125394 文章引用文章引用:蔡豪杰,王林,王义兵,侍鹏.基于卷积神经网络的乳腺癌病理图像分类J.建模与仿真,2023,12(5):4320-4331.DOI:10.12677/mos.2023.125394 基于卷积神经网络的乳腺癌病理图像分类基于卷积神经网络的乳腺癌
2、病理图像分类 蔡豪杰,王蔡豪杰,王 林林*,王义兵,侍,王义兵,侍 鹏鹏 盐城工学院电气工程学院,江苏 盐城 收稿日期:2023年7月9日;录用日期:2023年8月29日;发布日期:2023年9月5日 摘摘 要要 乳腺癌已经超过肺癌,成为世界第一大癌症。因此,乳腺癌的诊断就显得十分重要。为了提高对乳腺癌乳腺癌已经超过肺癌,成为世界第一大癌症。因此,乳腺癌的诊断就显得十分重要。为了提高对乳腺癌病理图像分类的准确率,提出了一种基于卷积神经网络的诊断方法。这种方法的出现,能做到快速对乳病理图像分类的准确率,提出了一种基于卷积神经网络的诊断方法。这种方法的出现,能做到快速对乳腺癌病理图像进行良恶性分类
3、。一般来说,乳腺癌的病理图像结构十分复杂,为了增强网络的特征提取腺癌病理图像进行良恶性分类。一般来说,乳腺癌的病理图像结构十分复杂,为了增强网络的特征提取的能力,在卷积神经网络的基础上引进随机函数链神经网络和的能力,在卷积神经网络的基础上引进随机函数链神经网络和CA注意力机制。因为乳腺癌数据集太少,注意力机制。因为乳腺癌数据集太少,使用数据增强去扩充数据集。分别进行横向实验与消融实验,实验结果表明,优化后的卷积神经网络能使用数据增强去扩充数据集。分别进行横向实验与消融实验,实验结果表明,优化后的卷积神经网络能有效提高分类的准确率有效提高分类的准确率。关键词关键词 卷积神经网络,随机函数链神经网
4、络,卷积神经网络,随机函数链神经网络,CA注意力机制,数据增强,乳腺癌分类注意力机制,数据增强,乳腺癌分类 Classification of Breast Cancer Pathological Images Based on Convolutional Neural Network Haojie Cai,Lin Wang*,Yibing Wang,Peng Shi School of Electrical Engineering,Yancheng Institute of Technology,Yancheng Jiangsu Received:Jul.9th,2023;accepted:
5、Aug.29th,2023;published:Sep.5th,2023 Abstract Breast cancer has already overtaken lung cancer as the No.1 cancer in the world.Therefore,the diagnosis of breast cancer is of great importance.To improve the accuracy of classifying patholog-ical images of breast cancer,a diagnostic method based on conv
6、olutional neural network(CNN)is *通讯作者。蔡豪杰 等 DOI:10.12677/mos.2023.125394 4321 建模与仿真 proposed.This method makes a quick and automatic benign and malignant diagnosis for breast cancer pathology images.In general,the structure of pathological images of breast cancer is very complex.In order to enhance
7、the capability of feature extraction,Random Vector Functional Link Neural Network(RVFLNN)and Coordinate Attention(CA)are introduced based on CNN.Because there are too few breast cancer datasets,data enhancement is used to augment the datasets.Abla-tion experiments and horizontal experiments were con
8、ducted.The experimental results show that the optimized CNN can improve the accuracy of classification effectively.Keywords Convolutional Neural Network,Random Vector Functional Link Neural Network,Coordinate Attention,Data Enhancement,Breast Cancer Classification Copyright 2023 by author(s)and Hans
9、 Publishers Inc.This work is licensed under the Creative Commons Attribution International License(CC BY 4.0).http:/creativecommons.org/licenses/by/4.0/1.引言引言 随着人工智能的蓬勃发展,其在医学图像领域扮演着越来越重要的角色1 2。目前对乳腺癌的诊断是医学领域的热门研究课题。在医疗工作中,病理图像对于医生的诊断具有重要的辅助作用,医生通过应用人工智能技术对乳腺癌病理图像进行分类,这进一步提高了医生的工作效率。近些年来,计算机人工智能取得了与
10、日俱增的进步,为科研人员在处理病理图像的问题上开辟了新的方向。国内外专家在乳腺癌组织病理学图像分类方面已经取得了一些研究成果。Spanhol 等人3根据82 例乳腺癌病理信息构建了名为 BreakHis 的乳腺癌组织病理学图像数据集,该数据集中包含不同放大倍数的良性与恶性乳腺癌病理切片图像,并且通过提取多个放大倍数乳腺癌病理图像中的切片,训练AlexNet 网络并结合三种融合规则进行分类任务。Han 等人4利用该数据集训练分类器,并利用该分类器区分乳腺肿瘤,采用数据增强的方法,增加模型的训练量,以防止过拟合现象的发生。Cruz-Roa 等人5通过构建一个神经网络,对乳腺癌全视野数字切片进行分类
11、,共使用 400 张人工注释区域标签的切片训练模型,并在 200 张切片上验证其性能,这些切片具有来自癌症基因组图谱的类似注释,乳腺癌分类的水平又提升了一步。Krizhevsky 6提出一种非常出色的深度卷积神经网络 AlexNet 网络,提高了图像的识别率,获得了我们所需要的实验结果。以此为基础,Zisserman 7提出 VGG-Net 的深度卷积神经网络模型,以更小的卷积核和更深的网络层数,进一步提高了分类的精度。随后,Szegedy 8提出了包含Inception 模块的深度卷积神经网络 GoogleNet,在 ImageNet 数据集上测试的错误率更小,结果证实了深度学习在图像识别上
12、具有很大的潜力。人们越来越意识到,以卷积神经网络为代表的深度学习可以很好地解决医学图像中的图像分类等问题。卷积神经网络避免了对图像的复杂前期预处理,可以直接输入原始图像。因此,Byra 等人9开发了一个结合成像技术的模型,从图中直接提取乳腺组织的离散特性,使用卷积神经网络对乳腺癌进行分类,提升了模型的分类效果。一般,在进行乳腺癌分类时,只需要单独考虑它的局部特征和全局特征中的一种,Guo 等人10提出混合 CNN 单元可以充分兼顾图像的局部和全局特征,从而做出更准确的预测。为了提高分类器的性能,他还提出了装袋策略和分层投票策略,这两种策略在乳腺癌分类中都获得了 87.5%的准确率。为了突出乳腺
13、癌图像的特征,Das 等人11提出了 CNN 的多实例学习框架,并引入了一个新的池化层。它从整个幻灯片中捕获信息量最大的特征,而不必在补丁之间重叠,最终分类准确率达到 88%。Open AccessOpen Access蔡豪杰 等 DOI:10.12677/mos.2023.125394 4322 建模与仿真 Akba 等人12提出了一种新的 CNN 正则化技术,并将其命名为转换模块。该模块以多种不同的方式捕获过滤器,并应用全局平均池化来简化从卷积层到全连接层的网络结构,最终实现了 91.9%的分类精度。SIMONYAN 13在论文中提出了 VGG。VGG 14 15 16 17的出现表明,小
14、型卷积网络可以通过增加深度来提高网络的性能。CNN 构建的图像处理系统可以有效减少过拟合,He 18等人提出了 ResNet,并开创了一种新的网络结构,称为残差单元。Huang 19等人提出了一种基于密集块的 DenseNet,进一步提高了网络性能。此外,Szegedy 20等人提出了 Inception-ResNet-v1 和 Inception-ResNet-v2。这两个模型是通过将初始与残差单位相结合生成的。它们提高了培训效率和分类的准确性。由此可见,卷积神经网络的出现为医疗领域做出了巨大的贡献,所以本文在卷积神经网络的基础上增加随机向量函数链神经网络和 CA 注意力机制来加快模型训练的
15、速度,增加模型的特征,从而提升模型的分类效率。全文的组织分配如下:第二章介绍了随机向量函数链神经网络,卷积神经网络和 CA 注意力机制,分析了它们的原理。第三章分别进行横向与纵向实验,将实验结果和本文所提出的模型实验结果进行对比。第四章得出实验结果,提出新想法。本文做出以下贡献:1)随机向量函数链神经网络 RVFLNN 模型和 CA 注意力机制具有简洁性、特征提取能力强以及高准确性的特点,提出了 RVFLNN-CNN-CA 的分类模型。2)公开乳腺癌数据集的数量少,采用数据增强对原来的数据集进行扩充。3)进行横向和纵向实验,证明 RVFLNN-CNN-CA 的分类模型分类精度更高。2.方法方法
16、 2.1.RVFLNN 深度结构所产生的力量十分强大,可是几乎所有该结构的网络都含有很多的参数量,它的训练过程会很复杂。所以为了提高网络训练的准确度和效率,我们基本会采用提高网络的深度和调整参数这两种方法,随机向量函数链神经网络(Random Vector Functional Link Neural Network,RVFLNN)的出现解决了这个问题。在学习宽度学习的时候,发现了这个神经网络,RVFLNN 实际上是宽度学习的左半部分。它的结构图如图 1。Figure 1.RVFLNN 图图 1.RVFLNN 蔡豪杰 等 DOI:10.12677/mos.2023.125394 4323 建模
17、与仿真 确定一共有 K 个样本数据()(1),KiiiDX Y=,其中12,iiiiMXxxx=是 M 维输入向量,12,NYy yy=为 N 维输出向量。第 i 个输入向量经过输入层附着随机权重后,其第 j 个隐含层节点的值为:1,1,2,Mjmjimijmhgw xbiK=+=结合输入层与隐含层节点的输出,RVFLNN 中输出层节点的值可表示为:()11,1,2,LL Mijjijijii LzhXxiK+=+=+=()L MNR+是隐含节点的输出权重矩阵,L 为隐含层数,()jihx是第 j 个隐含层节点的输出值,ijx是第 i 个输入向量的第 j 个特征,iz是第 i 个输出层节点的值
18、。矩阵表示为:HY=在 RVFLNN 中,权重和偏差 b 在学习过程中是被随机设置的,而权重 是通过学习确定的。使用均方误差作为目标函数,输出权重矩阵可以根据网络输出误差 E 对进行建模:H Y+=H+被定义为广义逆,利用正交投影,在对角线添加一个小的正值,以防止 产生奇点。2.2.CNN 一般来说,CNN 主要由输入层、卷积层、池化层和全连接层和输出层组成。CNN 的结构图如图 2所示。输入层主要是用来载入图像,本文的输入图像就是经过数据增强后的乳腺癌数据集。卷积层主要用来提取图像的特征,在每个卷积层中都用到 Relu 激活函数。池化层又称下采样层,一般放在连续的卷积层之间,用于压缩数据和参
19、数。池化层的作用主要有两个,一是特征不变性,二是特征降维。常见的池化方式有最大池化和平均池化,本文用的是最大池化。Figure 2.CNN 图图 2.CNN 2.3.CA 注意力机制类似于人类的视觉注意力机制,利用有限的注意力资源从繁复的信息中快速筛选出有价值的信息,帮助模型训练以更好地完成任务。因此,本文引入了可以同时获取通道信息和方位信息的 CA注意力机制(Coordinate Attention)。CA 注意力机制的操作主要分为两步,第一步是坐标信息的嵌入。在输入维度为 C H W 的特征图蔡豪杰 等 DOI:10.12677/mos.2023.125394 4324 建模与仿真 之后,
20、分别利用尺寸为(H,1)和(1,W)的平均池化从水平 X 方向和垂直 Y 方向对通道进行编码,得到高度为 h 的第 c 个通道和宽度为 w 的第 c 个通道的输出,如下式所示:()()01,hcci Wzhxh iW=()()01,wcci Hzwxj wH=第二步是坐标信息特征图生成,将上面两个输出沿两个方向的聚合特征hz和wz沿空间维度串联,然后进行卷积核大小为 1 1 的卷积运算,最后通过非线性激活函数,得到包含水平和垂直方向空间信息的中间特征图 f,如公式(3):()()1,hwfFzz=然后沿空间维度分解 f 为两个张量hf和wf,分别沿水平和垂直方向进行卷积和激活函数的处理,公式如
21、下:()()hhhgFf=()()wwwgFf=最后将两个方向的输出结果作为注意力权重扩展,最终得到如下输出:()()()(),hwccccyi jxi jgigj=2.4.提出的新模型提出的新模型 RVFLNN-CNN-CA 为了提高乳腺癌分类的准确率,本文提出了一种基于 RVFLNN-CNN-CA 的新模型。这里面的卷积神经网络有六个卷积层,五个池化层,一个全连接层组成。选择卷积神经网络作为基础网络是因为它具有良好的分类性能,网络结构也非常完整,适合对网络进行进一步优化。构建 RVFLNN-CNN-CA 模型算法的主要过程如下:Figure 3.The flowchart of RVFLN
22、N-CNN-CA 图图 3.RVFLNN-CNN-CA 的流程图 蔡豪杰 等 DOI:10.12677/mos.2023.125394 4325 建模与仿真 1)进行随机连接。将原始的数据集进行数据增强,使用 RVFLNN 算法进行训练,来提升模型的训练效率,增加数据的特征属性。2)将 RVFLNN 算法训练的结果放入 CNN。在训练 CNN 之前,我们首先保存 RVFLNN 的结果,然后将它们放入一个新文件夹中,这是 CNN 的输入。3)将 CA 添加到 CNN。对于添加注意力模块的模型的哪一部分可以提高网络性能,没有固定的陈述。因此,我们可以尝试将 CA 添加到不同的位置以比较实验效果。从
23、后面的实验中,我们可以看到,通过在激活函数的后面加入注意力机制,可以获得最高的分类精度。RVFLNN-CNN-CA 模型的工作流程如图 3 所示。3.实验实验 3.1.数据的获取和增强数据的获取和增强 乳腺组织病理学图像数据集来源于 Kaggle,由 Janowczyk 等人创建。该数据集包含乳腺癌细胞和正常细胞两大类。部分数据如图 4 所示。Figure 4.Some data sets are presented 图图 4.部分数据集展示 尽管原始数据集包含 162 张图像,但对于神经网络来说还远远不够。因此,我们需要使用数据增强技术来扩充数据集。数据增强具有许多优点,它不仅在一定程度上解
24、决了过拟合的问题,而且提高了模型的泛化能力。数据增强的主要方法包括随机旋转、放大和缩小、添加噪声等。肉眼看来,这几张都是相同的图片。但对于神经网络来说,它们是完全不同的。图 5 显示了几种数据增强方法。数据集扩充后总共有 16,083 张图像,其中 80%是训练集,20%是测试集,如图 6 所示。蔡豪杰 等 DOI:10.12677/mos.2023.125394 4326 建模与仿真 (a)(b)(c)(d)(e)Figure 5.Several methods of data enhancement(a)dark(b)bright(c)rotate(d)salt and pepper no
25、ise(e)amplify 图图 5.几种数据增强的方法(a)变暗(b)变亮(c)旋转(d)添加椒盐噪声(e)放大 Figure 6.Data set segmentation 图图 6.数据集划分 3.2.实验准备实验准备 本文对目标检测模型的评价指标有准确率(Precision,P)、召回率(Recall,R)、均值平均精度(mean Average Precision,mAP)、参数量(Parameter)和帧率(Frames Per Second,FPS)。其中准确率 P、召回率 R和均值平均精度 mAP 的计算方法如下式:,TPTPPRTPFPTPFN=+,1 2PRTPTNFAPR
26、TPTNFPFN+=+3.3.关于关于 CA 的实验的实验 本文这个关于 CA 的实验只在卷积神经网络中进行。本文将 CA 添加到输入层、卷积层、激活函数、池化层和全连接层,以比较乳腺癌分类的效果。这些过程被命名为 CA1-CNN,CA2-CNN,CA3-CNN,CA4-CNN 和 CA5-CNN。结果显示,在激活函数的后面添加 CA 效果最好,这样不仅有利于网络特征信息的提取,而且可以减少网络的体积。表 1 和图 7 显示了有关 CA 的实验结果。蔡豪杰 等 DOI:10.12677/mos.2023.125394 4327 建模与仿真 Table 1.Experiments on CA 表
27、表 1.关于 CA 的实验 Model P/%R/%F1/%A/%CNN-CA1 90.23 90.28 90.25 90.26 CNN-CA2 87.67 88.65 88.71 88.01 CNN-CA3 91.02 90.23 91.33 91.23 CNN-CA4 88.61 88.77 89.01 88.93 CNN-CA5 86.21 86.05 86.69 86.56 Figure 7.Histogram of indicators for evaluating the CA experiment 图图 7.关于 CA 实验评价指标柱状图 3.4.消融实验消融实验 消融实验的核心
28、就是控制变量法,本文对乳腺癌病理图像的分类,对原始的 CNN 模型进行了优化,分别为 RVFLNN 和 CA。由于相关乳腺癌数据的样本太少,本文通过数据增强扩充了数据集。在 CNN的基础上,单独添加每种改进的方法,以测试每种方法对原网络的影响。验证每种改进方法对最终网络的影响,表 2 和图 8 显示了消融实验结果。Table 2.Ablation experiment 表表 2.消融实验 Model RVF CA P/%R/%F1/%A/%CNN 90.08 90.15 90.17 90.22 CNN-RVFLNN 92.55 92.36 91.43 92.67 CNN-CA 91.02 90
29、.23 91.33 91.23 RVF-CNN-CA 93.28 93.65 93.29 93.56 蔡豪杰 等 DOI:10.12677/mos.2023.125394 4328 建模与仿真 Figure 8.Histogram of evaluation indicators for ablation experiments 图图 8.消融实验评价指标柱状图 3.5.横向实验横向实验 所谓横向实验,就是在同一环境下比较 RVFLNN-CNN-CA 模型和不同模型的分类效果。实验结果如表 3 和图 9 所示。Table 3.Cross-sectional experiments 表表 3.横
30、向实验 Model P/%R/%F1/%A/%Perceptron 85.09 85.17 85.13 85.21 SVM 86.12 85.98 86.06 86.19 LR 86.82 86.96 86.91 87.61 RF 87.09 87.19 87.16 87.21 AlexNet 87.69 87.06 87.52 87.96 VGG 86.21 86.39 86.31 86.96 GoogleNet 87.98 88.09 88.03 88.23 ResNet 90.12 90.02 89.93 90.23 DenseNet 90.17 90.56 90.36 90.36 RV
31、FLNN-CNN-CA 93.28 93.65 93.29 93.56 蔡豪杰 等 DOI:10.12677/mos.2023.125394 4329 建模与仿真 Figure 9.Histogram of evaluation indicators for cross-sectional experiments 图图 9.横向实验评价指标柱状图 3.6.实验补充实验补充 为了突出 RVFLNN-CNN-CA 模型的优势,使用混淆矩阵以及 Accuracy 与 Loss 曲线将其与没有进行优化过且没有进行数据增强的 CNN 进行比较,我们可以在混淆矩阵和 Accuracy 与 Loss 曲线中
32、清楚地看出来本文提出优化模型在分类效果取得了一定进步。如图 10 和图 11 所示。Figure 10.Confusion matrix 图图 10.混淆矩阵 蔡豪杰 等 DOI:10.12677/mos.2023.125394 4330 建模与仿真 Figure 11.Accuracy and Loss curve 图图 11.Accuracy 与 Loss 曲线 4.总结总结 实验在公共的乳腺癌数据集上完成,使用数据增强来扩展数据集。我们使用 CNN 来训练数据集。利用 RVFLNN 和 CA 提高模型的特征提取能力和训练效率。根据关于 CA 的实验、消融实验和纵向实验的结果来看,准确率也
33、从 85.21%提高到 93.56%,充分证实了实验方法的可行性和实用性。从上面的实验结果中,我们可以得出以下结论:1)根据表 1 和图 7 中的实验结果来看,很明显处于各种位置的 CA 对模型的训练精度是有影响的。可以得出结论,将 CA 添加到激活函数的后面效果最好。2)根据表 2 和图 8 中的实验结果可以得出结论,添加不同的一个或两个模型也可以相应地提高分类准确率。但是提出的 RVFLNN-CNN-CA 模型具有最好的效果。3)根据表 3 和图 9 中的实验结果,可以得出结论,RVFLNN-CNN-CA 模型比其他模型具有更好的分类准确率。未来的工作包括:1)本文是属于乳腺癌的二分类实验
34、,只能区分是不是癌,并不能细分它到底是哪种癌,未来可以完成这个工作。蔡豪杰 等 DOI:10.12677/mos.2023.125394 4331 建模与仿真 2)将 RVFLNN-CNN-CA 模型应用于其他医学疾病,以验证该模型在其他疾病上是否具有普遍性。3)本文实验中所采用的卷积神经网络有六个卷积层,五个池化层,一个全连接层组成。未来可以用更复杂的卷积神经网络去验证乳腺癌分类的准确率。参考文献参考文献 1 Li,B.,Qi,P.,Liu,B.,et al.(2023)Trustworthy Ai:From Principles to Practices.ACM Computing Sur
35、veys,55,1-46.https:/doi.org/10.1145/3555803 2 Huang,M.H.and Rust,R.T.(2021)Engaged to a Robot?The Role of AI in Service.Journal of Service Research,24,30-41.https:/doi.org/10.1177/1094670520902266 3 Spanhol,F.A.,Oliveira,L.S.and Petitjean,C.(2016)Breast Cancer Histopathological Image Classification
36、Using Convolu-tional Neural Networks.2016 International Joint Conference on Neural Networks,Vancouver,24-29 July 2016,2560-2567.https:/doi.org/10.1109/IJCNN.2016.7727519 4 Han,D.,Liu,Q.and Fan,W.(2018)A New Image Classification Method Using CNN Transfer Learning and Web Da-ta Augmentation.Expert Sys
37、tems with Applications,95,43-56.https:/doi.org/10.1016/j.eswa.2017.11.028 5 Arevalo,J.,Cruz-Roa,A.and Arias,V.(2015)An Unsupervised Feature Learning Framework for Basal Cell Carci-noma Image Analysis.Artificial Intelligence in Medicine,64,131-145.https:/doi.org/10.1016/j.artmed.2015.04.004 6 Krizhev
38、sky,A.,Sutskever,I.and Hinton,G.E.(2017)Imagenet Classification with Deep Convolutional Neural Net-works.Communications of the ACM,60,84-90.https:/doi.org/10.1145/3065386 7 Jaderberg,M.,Simonyan,K.and Zisserman,A.(2015)Spatial Transformer Networks.Advances in Neural Information Processing Systems,28
39、,65-66.8 Szegedy,C.,Liu,W.and Jia,Y.(1993)Going Deeper with Convolutions.Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,New York,15-17 June 1993,15-17.9 Byra,M.,Dobruch-Sobcza,K.and Klimonda,Z.(2012)Early Prediction of Response to Neoadjuvant Chemotherapy in Breast Can
40、cer Sonography Using Siamese Convolutional Neural Networks.IEEE Journal of Biomedical and Health Informatics,25,21-25.10 Guo,K.,Sui,L.and Qiu,J.(2017)Angel-Eye a Complete Design Flow for Mapping CNN onto Embedded FPGA.IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems,37,3
41、5-47.https:/doi.org/10.1109/TCAD.2017.2705069 11 Das,S.and Saha,S.K.(2022)Diabetic Retinopathy Detection and Classification Using CNN Tuned by Genetic Algo-rithm.Multimedia Tools and Applications,81,8007-8020.https:/doi.org/10.1007/s11042-021-11824-w 12 Akbar,C.,Li,Y.and Sung,W.L.(2021)Deep Learning
42、 Algorithms for the Work Function Fluctuation of Random Nanosized Metal Grains on Gate-All-Around Silicon Nanowire MOSFETs.IEEE Access,9,73467-73481.https:/doi.org/10.1109/ACCESS.2021.3079981 13 Simonyan,K,and Zisserman,A,(2014)Two-Stream Convolutional Networks for Action Recognition in Videos.Ad-va
43、nces in Neural Information Processing Systems,1,568-576.14 Ha,I.,Kim,H.and Park,S.(2018)Image Retrieval Using BIM and Features from Pretrained VGG Network for Indoor Localization.Building and Environment,140,23-31.https:/doi.org/10.1016/j.buildenv.2018.05.026 15 Majib,M.S.,Rahman,M.M.and Sazzad,T.S.
44、(2021)VGG-SCNet:A VGG Net-Based Deep Learning Framework for Brain Tumor Detection on MRI Images.IEEE Access,9,116942-116952.https:/doi.org/10.1109/ACCESS.2021.3105874 16 Paymode,A.S.and Malode,V.B.(2022)Transfer Learning for Multi-Crop Leaf Disease Image Classification Using Convolutional Neural Net
45、work VGG.Artificial Intelligence in Agriculture,6,23-33.https:/doi.org/10.1016/j.aiia.2021.12.002 17 Li,Z.,Li,F.and Zhu,L.(2020)Vegetable Recognition and Classification Based on Improved VGG Deep Learning Network Model.International Journal of Computational Intelligence Systems,13,559-564.https:/doi
46、.org/10.2991/ijcis.d.200425.001 18 Ruan,X.,He,G.and Li,B.(2014)Cleaner Recovery of Tetrafluoroethylene by Coupling Residue-Recycled Polyimide Membrane Unit to Distillation.Separation and Purification Technology,124,89-98.https:/doi.org/10.1016/j.seppur.2014.01.014 19 Huang,Z.,Zhu,X.and Ding,M.(2020)
47、Medical Image Classification Using a Light-Weighted Hybrid Neural Net-work Based on PCANet and DenseNet.IEEE Access,8,24697-24712.https:/doi.org/10.1109/ACCESS.2020.2971225 20 Peng,S.,Huang,H.and Chen,W.(2020)More Trainable Inception-ResNet for Face Recognition.Neurocomputing,411,9-19.https:/doi.org/10.1016/j.neucom.2020.05.022