收藏 分销(赏)

基于人工神经网络算法的垃圾组分识别模型研究.pdf

上传人:自信****多点 文档编号:2355318 上传时间:2024-05-28 格式:PDF 页数:7 大小:3.24MB
下载 相关 举报
基于人工神经网络算法的垃圾组分识别模型研究.pdf_第1页
第1页 / 共7页
基于人工神经网络算法的垃圾组分识别模型研究.pdf_第2页
第2页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第42 卷第5期2023年1 0 月试验研究四川环境SICHUAN ENVIRONMENTVol.42,No.5October 2023D0I:10.14034/ki.schj.2023.05.001基于人工神经网络算法的垃圾组分识别模型研究陈或,魏然,宋立杰”,张瑞娜”,周涛1 2,赵由才1 2(1.同济大学环境科学与工程学院,上海2 0 0 0 9 2;2.上海污染控制与生态安全研究院,上海2 0 0 0 9 2;3.上海环境卫生工程设计院有限公司,上海2 0 0 2 32)摘要:为增强环卫智能化程度,利用TensorFlow深度学习框架实现人工神经网络(ArtificialNeuralN

2、etwork,A NN)算法,建立以生活垃圾图像RGB均值和垃圾重量为输入的生活垃圾组分识别模型。对比不同超参数设置下模型A1至A4的识别效果。结果表明,使用三层ANN网络结构和Adam优化算法可以建立性能优秀的垃圾组分识别模型。A1至A4模型经过参数训练后识别误差均在5%内。对A1至A4模型的学习率和选代次数进行调试可得,A4模型即隐藏层第一层、隐藏层第二层和输出层的激活函数分别为ReLU函数、Tanh函数和Sigmoid函数的ANN模型,在学习率为0.0 1的情况下,识别误差在1%以内,稳定性最佳。关键词:垃圾分类;垃圾组分识别;机器学习;ANN算法中图分类号:X705Study on I

3、dentification Model of MSW Components Based on ANN AlgorithmCHEN Yu,WEI Ran,SONG Li-je,ZHANG Rui-na,ZHOU Tao-2,ZHAO You-cail.-(1.State Key Laboratory of Pollution Control&Resource Reuse,Tongji University,Shanghai 200092,China;2.Shanghai Institute of Pollution Control&Ecological Security,Shanghai 200

4、092,China;3.Shanghai Enwironmental Sanitation Engineering Design Institute Co.Ltd,Shanghai 200232,China)Abstract:In order to enhance the intelligent degree of sanitation,Artificial Neural Network(ANN)algorithm was realized byusing TensorFlow deep learning framework,and the component identification m

5、odel of municipal solid waste(MSW)wasestablished with the RGB mean value of domestic waste image and the weight of garbage as input.The recognition effect of modelAl to A4 under different hyperparameter Settings were Compared.The results showed that a garbage component identificationmodel with excel

6、lent performance can be established by using the three-layer ANN network structure and Adam optimizationalgorithm.The identification errors of models A1 to A4 were within+5%after parameter training.According to the debugging ofthe learning rate and number of iterations of Model Al,A2,A3,A4,the activ

7、ation functions of the first hidden layer,thesecond hidden layer,and the output layer of Model A4 are ReLU,Tanh,and Sigmoid function,respectively.Model A4 can betrained quickly with a learning rate of 0.01,and the prediction error is within 1%after 200 times of iteration.Keywords:Municipal solid was

8、te classification;MSW component recognition;machine learning;ANN algorithm文献标识码:A文章编号:1 0 0 1-36 44(2 0 2 3)0 5-0 0 0 1-0 7前言近年来,中国经济高速发展,城市居民生活质量显著提高,生活垃圾的产生量亦与日俱增。据中国城乡建设统计年鉴显示,1 9 7 9 年城市生活垃圾清运量为0.2 5亿吨,而2 0 1 8 年增长至2.2 8收稿日期:2 0 2 1-0 2-2 3基金项目:上海科委项目“生活垃圾高效脱水及快速检测技术”(1 8 DZ1202604)。作者简介:陈或(1 9

9、9 5),女,湖北武汉人,毕业于同济大学环境科学与工程学院环境工程专业,硕士研究生。主要研究方向为固体废物处理处置及资源化。通讯作者:周涛,。亿吨。2 0 30 年中国生活垃圾产生量预测值达到4.8亿吨。生活垃圾清运量的逐年增加意味着生活垃圾管理行业体量仍在增长,给后续的垃圾收运和处理处置工作造成压力。2 0 1 9 年7 月1 日,上海市生活垃圾管理条例开始施行,规定中明确要2求建立健全生活垃圾全程分类体系。人工智能(Artificial Intelligence,A I)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。在物联网和移动互联网技术迅速发展的背

10、景下,为应对城市生活垃圾产量的增加和垃圾分类管理的新要求,生活垃圾管理系统逐渐向互联互通、智能化的“智慧环卫”的发展。机器学习(Machine Learning)是一种实现人工智能的方法,可分为监督学习、非监督学习、强化学习 2-3 三种类型,每种类型可使用一些特定算法来实现。AI 技术的应用可以辅助进行生活垃圾全过程实时管理,帮助合理设计环卫管理调度,提高环卫作业质量,降低环卫运营成本,且便于进行环卫系统评估。为避免生活垃圾管理不当可能带来的一系列人居环境问题 5,需加快落实以垃圾分类为导向的智能化生活垃圾管理系统。因此,开展基于机器学习算法的生活垃圾组分识别,对于生活垃圾分类管理具有重要意

11、义。如在源头垃圾投放点,利用生活垃圾组分识别技术可实现垃圾组分监控和垃圾回收价值的估测,帮助环卫管理部门收集基础数据供管理决策。本论文利用TensorFlow深度学习框架实现ANN算法,建立以光学和重量信息为基础的生活垃圾组分识别模型,对比不同模型结构、激活函数、迭代训练次数、学绿色带通51 0 nm(Green bandpass,FS03-BP51020)10080604020040050060070080090010001100波长W(nm)VS透过T(%)桔色带通59 0 nm(Orange bandpass,FS03-BP590)1008060402004005006007008009

12、00 1000 1100波长W(nm)VS透过T(%)图1 51 0 nm、57 0 n m、59 0 n m、6 50 n m 四种工业相机滤光片的波长-透光率图Fig.1 Wavelength-transmittance diagram of 4 industrial camera filters(510nm,570nm,590nm,650 nm)1.3重量信息收集试验需要对光学采样框内的垃圾的物理组分进行统计,统计类别包括纸类和橡塑类两类。纸类包括各种废弃的纸张及纸制品。橡塑类包括各种废弃的塑料、橡胶、皮革制品。重量信息的统计流程四川环境习率等超参数设置下模型的识别效果,分析ANN算法在

13、此垃圾组分识别模型中的最优算法架构及实际应用可行性。1实验材料与方法1.1生活垃圾来源试验所用的生活垃圾成分取自上海市某居民小区。在小区干垃圾收集桶中进行采样,剔除样品中除纸类和塑料以外的其他组分,得到纸类和塑料两种生活垃圾组分,静置保存于4冰箱待用。为确保试验结果的可靠性和准确性,采样后所有试验均在48 h 内完成。1.2光学信息收集可见光范围内的滤光片可以使工业相机清晰成像。一般人的眼睛可以感知到的可见光波长范围为400760 nm。使用 51 0 nm、57 0 n m、59 0 n m、650nm四种滤光片,对光学信息的丰富度进行加强。垃圾光学信息获取装置主要包括:固定光源、带底色标记

14、框(PVC塑料1 m1m,底色白色)、色彩校正标记物、多通道工业相机、计算机、多带宽滤光片(带通51 0 nm、57 0 n m、59 0 n m、6 50nm)、固定高度的相机三脚架所组成。四种带通的电磁波透过情况见图1 所示。黄色带通57 0 nm(Yellowbandpass,FS03-BP57020)100806040200400500 600700800900 1 000 1100波长W(nm)VS透过T(%)红色带通6 50 nm(Red bandpass,FS03-BP650)100r8060402004005006007008009001000 1100波长 W(nm)VS 透

15、过T(%)为:1)将光学采样框中的样品取出,按照纸类和橡塑类两类进行分类;2)使用电子秤测量纸类和橡塑类的重量;3)依据重量分别计算纸类和橡塑类的组分比例以及样品的总重量并记录。42卷5期1.4试验方法建立模型所使用的编程语言为Python,集成开发环境为Pycharm2018年教育版,所构建的模型使用人工神经网络(Aritificial NeuralNetwork,ANN)算法。利用TensorFlow深度学习框架进行模型代码编写。2研究结果2.1ANN算法模型超参数设置2.1.1数据处理与模型架构使用TensorFlow深度学习框架建立ANN算法结构,对所收集到的生活垃圾光学和重量信息数据

16、进行拟合。建立一个三层ANN模型结构,结构如图2 所示。输入层包含6 个节点,分别代表生活垃圾重量与5张不同镜头所摄照片的RGB均值。原图像经过采样区范围截取后,图像像素尺寸为14201420,利用Python对所有图像进行RGB均值的读取。RGB均值的数据范围为0 2 55,重量数据范围为0 50 0 g,用所有参数除以2 50 的标准进行统一处理可使数据之间相差范围尽可能减小。ANN结构中,隐藏层2 层,每层包括4个节点。输出层1 层,包含1 个输出节点,代表纸类组分占比,另一种组分含量可以直接由纸类含量计算出,故使用1 个输出节点与使用2 个输出节点的效果相同。输入层Fig.2Algor

17、ithm architecture diagram of ANNReLU 函数、Tanh 函数、Sigmoid 函数是三种常见的非线性激活函数。为保证输出层中输出的数据范围处于0 1 的范围内,设定输出层的激活函数使用Sigmoid 函数。在三层神经网络模型的结构陈或等:基于人工神经网络算法的垃圾组分识别模型研究隐藏层1A1ReLUA2TanhA3TanhA4ReLU2.1.2Adam 优化算法ANN算法需要利用现有数据更新每层结构中的权重和偏置量参数。最经典的参数优化算法为梯度下降优化算法(GradientDescentOptimiza-tion)6 。梯度下降算法的计算过程即计算目标函数对

18、于参数的梯度,将参数沿着梯度相反的方向移动一个步长,以期实现目标函数值的下降,获得目标函数最小时的参数配置。Adam优化算法是由Kingma等人在2 0 1 5年提出的一种新的参数优化算法。结合了冲量梯度下降算法的冲量项应用和RM-SProp优化算法的学习速率自适应。算法中的主要运算过程见式(1)(5)所示。m,=im,+(1-t)gt=.0-+(1-.)2im.1-mt,=1-2W.+I=W,V,+8其中,m,为一阶动量项,v,为二阶动量项;m,为一阶动量项修正值,为二阶动量项修正值;W,为第t迭代次模型的参数,Wt+1为第t+1迭代次模型的参数;g代表第t次迭代代价函数关于参数的梯度大小;

19、和2为动力值大小,通常分别隐藏层输出层图2 ANN算法架构图3基础上,对隐藏层的激活函数进行修改,共建立四种模型,分别编号为A1、A 2、A 3、A 4号模型,其各层级中激活函数的设置如表1 所示。表1 A1-4号模型的激活函数构成Tab.1Composition of A1-4 Models Activation Function序号输出层ReLUSigmoidTanhSigmoidReLUSigmoidTanhSigmoid(1)(2)(3)(4)2一mt(5)取0.9 和0.9 9 9;m是学习率;8 是一个为避免分母为0 的极小数,通常取1 e-8。2.2模型训练与性能分析2.2.1学

20、习率与选代次数调试学习率(Learning Rate)被机器学习领域最重要的超参数之一,对模型是否能得到有效训练至关重要 7 。以A1 模型为例,详细分析学习率和迭代次数调整对模型性能的影响。隐藏层24一般学习率取作较小的参数值,通过数量级的改变来进行调试。当学习速率为0.1 时,迭代次数Learning rate=0.10.670.660.650.640.630.620.610510152025303540迭代(pertens)图3学习速率为0.1 时,送代次数(40 次与8 0 次)与损失函数值的关系图Fig.3 Relationship of iterations(40 times an

21、d 80 times)and loss function value(learning rate=0.1)输出结果表明经过在学习速率为0.1,一批训练量为5个样本量,迭代40 次,可以观察到成本函数随着迭代次数增加呈现下降趋势和明显收敛。此时预测结果无法呈现有效的回归输出。可能是由于学习速率太大,导致损失函数无法进一步优化缩小。且出现了明显的损失函数振荡,即算法训练时Learning rate=0.010.74.0.720.700.680.660.640.620.600510152025303540送代(pertens)图4学习速率为0.0 1 时,送代次数(40 次与8 0 次)与损失函数值

22、的关系图Fig.4 Relationship of iterations(40 times and 80 times)and loss function value(learning rate=0.01)输出结果表明经过在学习速率为0.0 1,一开始可以观察到成本函数随着迭代次数增加呈现下降趋势和明显收敛。但数次迭代后,虽没有出现损失函数振荡现象,但参数停止更新,损失函数值不再下降,可能是模型陷入局部最优解,导致损失函数无法进一步优化缩小。当学习速率为0.0 0 1 时,送代次数分别为40四川环境分别为40 次和8 0 次时,迭代次数与损失函数值的关系图如图3所示。Learning rate=

23、0.10.670.660.651000.640.630.620.6101020304050607080送代(pertens)步长太大,导致参数优化时直接越过最优点到达另一端。当学习速率为0.0 1 时,迭代次数分别为40 次和8 0 次时,迭代次数与损失函数值的关系图如图4所示。Learning rate=0.010.740.720.700.681SO00.660.640.620.6001020304050607080迭代(pertens)次和8 0 次时,迭代次数与损失函数值的关系图如如图5所示。当学习速率为0.0 0 1,迭代40 次和8 0 次时,可以观察到损失函数随着迭代次数的增加呈现

24、下降趋势并未出现收敛。这可能是由于迭代次数不够,参数并未更新至最优位置。当迭代次数为8 0 次时,预测误差在2 4.1 5%以内。42卷5期0.760.740.720.700.680.660.640.620510152025303540迭代(per tens)图5学习速率为0.0 0 1 时,迭代次数(40 次与8 0 次)与损失函数值的关系图Fig.5 Relationship of iterations(40 times and 80 times)and loss function value(learning rate=0.001)Learning rate=0.0010.750.701

25、S000.650.600.5502550751001255150175200迭代(per tens)图6 学习速率为0.0 0 1 时,送代次数(2 0 0 次与40 0 次)与损失函数值的关系图Fig.6 Relationship of iterations(200 times and 400 times)and loss function value(learning rate=0.001)调整迭代次数至2 0 0 次和40 0 次时,可以发现曲线在2 0 0 次以内也并未出现收敛趋势(如图6 所示),数据的最终预测误差在3.6 2%以内。进一步提升迭代次数至40 0 次,可以观察到损失函

26、数在迭代约2 0 0 次时开始呈现收敛趋势,函数值不再出现明显下降,而迭代40 0 次的模型最终预测误差在5.36%以内。误差比迭代2 0 0 次时的模型要高。这可能是由于模型出现了过拟合现象(Overfit-ting),出现过拟合现象的常见原因 8 有:(1)由于选取特征或样本不够具有全局代表性或样本数量少,无法拟合出较有代表性的模型;(2)样本噪音干扰过大,扰乱了参数正常拟合;(3)权值学习迭代次数过多,拟合了训练数据中的噪声和训练样例中没有代表性的特征等。此处可能是由于学习迭代次数过多,导致参数自初步收敛后的更新方向偏向于拟合了训练数据中陈或等:基于人工神经网络算法的垃圾组分识别模型研究

27、Learning rate=0.00120304050607080迭代(per tens)Learning rate=0.0010.750.700.650.600.550501001150200250300350400迭代(per tens)的噪声所导致的过拟合现象。但选取0.0 0 1 作为学习率时,模型的整体表现优于0.1 和0.0 1。参数得到了有效的更新。故而确定学习率的数量级基本在1 0-3。当学习速率为0.0 0 2,迭代8 0、2 0 0、40 0次时,损失函数在约1 2 5次时呈现出明显收敛趋势。三种情况下最终预测误差在分别为9.2 8%、4.71%、5.6 8%。同样出现了当

28、权值更新迭代次数过多时,误差反而变大的情况。尝试过多种学习速率与迭代次数的组合后,最终得到误差率最低的组合为学习率为0.0 0 1,迭代次数为2 0 0 次,数据的预测误差在3.6 2%以内。2.2.2模型性能分析A1模型在尝试调试学习率和权值更新次数后,可知学习率为0.0 0 1,迭代次数为2 0 0 次时,A1模型数据的预测误差在3.6 2%以内。具体的预测误差表见表2 所示。5Learning rate=0.0010.760.740.720.700.680.660.640.620.600106送代次数学习率0.001四川环境表2A1模型的预测误差表Tab.2Prediction erro

29、r of A1 Model8020024.153.6242卷(%)4006005.365.928005.8310005.1612004.4920005.45对A2模型进行学习率和权值更新次数的调试后发现,当学习率为0.1 时,A2模型的在权值更新次数达到30 0 次后,出现无法继续正常更新参数送代次数80学习率0.010.001使损失函数变小的情况,且在30 0 次以前的模型拟合效果较为普通。当学习率为0.0 1 和0.0 0 1 时,A2模型的预测误差见表3所示。表3A2模型的预测误差表Tab.3Prediction error of A2 Model2004002.390.775.973.

30、48(%)6008000.510.911.190.5410000.280.170.40.3312000.640.2620000.150.28A2模型在学习率为0.0 1 时的训练效果较好,在2 0 0 次后预测误差都达到了1%以内的水平。0.001的学习率对A2模型的参数更新过程来说可能步长较短,故而参数优化无法得到快速收敛。A3模型在学习率为0.1 或0.0 1 时,模型均无送代次数80学习率0.001法得到正常训练,而在学习率为0.0 0 1 时,效果表现普通,最优参数组合为权值更新次数2 0 0 0 次时,预测误差才可达到1%以内。A3模型如果达到较为稳定的预测效果,必须得到大量多次训练

31、。当学习率为0.0 0 1 时,A3模型的预测误差见表4所示。表4A3模型的预测误差表Tab.4Prediction error of A3 Model20040018.044.37(%)6008005.064.7410004.102.8412002.1520000.82A4模型在学习率为0.1 时,进行权值更新出现了剧烈的损失函数振荡现象。而在学习率为0.01和0.0 0 1 时,模型表现都较好。当学习率为送代次数80学习率0.010.0010.01时,经过2 0 0 次权值更新后,预测误差达到1%以内,并在随后的迭代中,预测误差呈现出稳定下降的趋势。A4模型的预测误差见表5所示。表5A4模

32、型的预测误差表Tab.5Prediction error of A4 Model2004001.550.9729.633.98(%)6008000.390.623.221.1510000.310.150.740.5612000.070.4220000.050.30综合比较A1、A 2、A 3、A 4模型的效果,可以得出A2模型和A4模型在学习率为0.0 1 时,经过2 0 0 次训练后都呈现除了较好的拟合现象。预测误差远低于其他模型。进一步比较预测误差随迭代次数的变化可以发现,A4模型随着训练迭代次数的增加,预测误差呈现稳定的减小趋势,而A2模型则在权值更新多次后出现预测误差振荡的现象,稳定性

33、不如A4模型。由此得出结论,在现有数据量的拟合中,三层神经网络架构足够进行数据的拟合,使用A4模5期型,即隐藏层第一层、第二层、输出层的激活函数分别为ReLU函数、Tanh 函数和 Sigmoid 函数的结构,可以在学习率为0.0 1 的情况下,使模型得到快速有效的训练,最终达到的预测误差可以稳定的保持在1%以内。3结论(1)利用三层ANN算法结构进行建模,Adam优化算法优化参数。隐藏层数为2,每层包括4个节点。输出层包括1 个节点,代表纸类的含量。根据每层激活函数的不同建立四种模型。可以建立性能优秀的垃圾组分回归模型。(2)使用0.0 0 1 作为学习率时,可以得到较好的拟合效果。对比0.

34、0 0 1 和0.0 0 2 作为学习率时,迭代次数分别为8 0、2 0 0、40 0 时,可知迭代次数过多,模型出现过拟合现象。最佳条件为使用0.001作为学习率,迭代次数为2 0 0 时,得到数据的最终预测误差在3.6 2%以内,可以达到较为稳定的预测效果。(3)对比A1至A4四种模型,使用A4模型,即隐藏层第一层、第二层、输出层的激活函数分别为ReLU 函数、Tanh 函数和 Sigmoid 函数的结构,可以在学习率为0.0 1 的情况下,使模型得到快速有效的训练,最终达到的预测误差可以稳定的保持陈或等:基于人工神经网络算法的垃圾组分识别模型研究(12):14182-14196.2 Ro

35、stami A,Baghban A.Application of a supervised learning ma-chine for accurate prognostication of higher heating values of solidwastes J.Energy Sources Part A Recovery Utilization&Envi-ronmental Effects,2018,40(1-6):558-564.3 陈学松,杨宜民。强化学习研究综述 J计算机应用研究,2010,27(8):2834-2838,2844.4费彦肖,吴俊星.5G与AI融合技术在智慧环保领

36、域的应用研究 J智能城市,2 0 2 0,6(7):1 52-1 53.5HAN Z,MA H,SHI G,et al.A review of groundwater contami-nation near municipal solid waste landfill sites in China J.Theence of the Total Environment,2016,569-570(1):1255-1264.6 杨观赐,杨静,李少波,胡建军:基于Dopout与ADAM优化器的改进CNN算法J华中科技大学学报(自然科学版),2 0 1 8,46(7):1 2 2-1 2 7.7 CHU

37、 J,GUO Z,LENG L.Object Detection Based on Muli-Lay-er Convolution Feature Fusion and Online Hard Example MiningJ.IEEE Access,2018:1.8 1Krizhevsky A,Sutskever I,Hinton G.E.ImageNet classificationwith deep convolutional neural networks J.Communications ofThe ACM,2017,60(6):84-90.7在1%以内,为四种模型中预测误差最低的模型结构。参考文献:1 ZHANG D,HUANG G,XU Y,et al.Waste-to-energy in Chi-na:Key challenges and opportunities J.Energies,2015,8

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服