收藏 分销(赏)

基于生成对抗网络的图像修复算法.pdf

上传人:自信****多点 文档编号:2336942 上传时间:2024-05-28 格式:PDF 页数:7 大小:2.42MB
下载 相关 举报
基于生成对抗网络的图像修复算法.pdf_第1页
第1页 / 共7页
基于生成对抗网络的图像修复算法.pdf_第2页
第2页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基于生成对抗网络的图像修复算法黄健,韩俊楠(西安科技大学通信与信息工程学院,西安710600)通信作者:韩俊楠,E-mail:摘要:为解决当前基于生成对抗网络的深度学习网络模型在面对较复杂的特征时存在伪影、纹理细节退化等现象,造成视觉上的欠缺问题,提出了连贯语义注意力机制与生成对抗网络相结合的图像修复改进算法.首先,生成器使用两阶段修复方法,用门控卷积替代生成对抗网络的普通卷积,引入残差块解决梯度消失问题,同时引入连贯语义注意力机制提升生成器对图像中重要信息和结构的关注度;其次,判别器使用马尔可夫判别器,强化网络的判别效果,将生成器输出结果进行反卷积操作得到最终修复后的图片.通过修复结果以及图

2、像质量评价指标与基线算法进行对比,实验结果表明,该算法对缺失部分进行了更好地预测,修复效果有了更好的提升.关键词:图像修复;生成对抗网络;门控卷积;连贯语义注意引用格式:黄健,韩俊楠.基于生成对抗网络的图像修复算法.计算机系统应用,2023,32(10):215221.http:/www.c-s- Inpainting Algorithm Based on Generative Adversarial NetworkHUANGJian,HANJun-Nan(CollegeofCommunicationandInformationTechnology,XianUniversityofScienc

3、eandTechnology,Xian710600,China)Abstract:Thecurrentdepthlearningnetworkmodelsbasedongenerativeadversarialnetworksencounterartifacts,texturedetaildegradation,andotherphenomenawhenfacingmorecomplexfeatures,whichleadstoavisualdeficiency.Inordertosolvetheseproblems,animprovedimageinpaintingalgorithmcomb

4、iningagenerativeadversarialnetworkwithacoherentsemanticattentionmechanismisproposed.Firstofall,thegeneratoradoptsatwo-stageinpaintingmethod,usesgatedconvolutiontoreplacetheordinaryconvolutionofthegenerativeadversarialnetwork,andintroducesresidualblockstosolvethegradientvanishingproblemandacoherentse

5、manticattentionmechanismtoenhancethegeneratorsattentiontotheimportantinformationandstructureintheimage.Secondly,Markovdiscriminatorisadoptedtoenhancethenetworksdiscriminationeffect,andtheoutputresultsofthegeneratorareprocessedbydeconvolutiontogetthefinalrepairedimage.Bycomparingtheinpaintingresultsa

6、ndimagequalityevaluationindicatorswiththebaselinealgorithm,theexperimentalresultsshowthatthealgorithmcanbetterpredictthemissingpartsandimprovetheinpaintingeffect.Key words:imageinpainting;generativeadversarialnetwork(GAN);gatedconvolution;coherentsemanticattention图像修复的应用领域非常广泛,包括医疗、工业生产、军事、娱乐和卫星通讯等.

7、但由于在图像的传播扩散或者是保存的过程中,常有损坏、失真或者受到污染等问题,从而导致图像信息不完整,所以,在图像处理技术当中,图像修复技术属于一项十分重要的研究工作.图像修复技术可用于历史文物修复、旧照片修复、刑侦方面等.与图像去噪、图像去雾、图像去雨以及图像超分计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:ComputerSystems&Applications,2023,32(10):215221doi:10.15888/ki.csa.009257http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041收稿时间:202

8、3-03-21;修改时间:2023-04-20;采用时间:2023-05-06;csa 在线出版时间:2023-08-22CNKI 网络首发时间:2023-08-23SoftwareTechniqueAlgorithm软件技术算法215等图像处理技术相对比,图像修复更强调根据图像内容、细节以及特征纹理进行修复,在对画面损坏或缺失部分进行补充的同时,还要确保色彩连贯协调以及质感得到适当延伸,同时,在图像存在较大面积的破损时,还要确保修复之后的图像内容与真实图像的一致性以及主观效果,使得修复后的图像尽可能还原原始图像并且能够符合人类视觉感官.在图像修复领域,基于生成对抗网络的深度学习网络模型展现出

9、其独特的优势,但是在面对较复杂的特征时往往无法实现很好的修复效果,存在伪影、纹理细节退化等现象,造成视觉效果上的欠缺问题.为了解决当前模型对大面积破损图像修复不友好以及修复后的图像存在退化现象等问题,通过对现有方法进行研究,改进了图像修复模型.本文的贡献如下:(1)修复模型采用两阶段修复结构,使用门控卷积解决部分像素缺失与大尺度损坏情况下的局部特征精确描述的问题,结合残差思想解决使用 Sigmoid 函数会出现梯度消失的问题;(2)在精修复阶段引入连贯语义注意机制,不仅关注已知区域和未知区域之间的联系,更能通过缺失区域间语义相关性进行建模,对生成区域像素资源再次分配,根据语义信息进行引导修复,

10、提升语义的连贯性.1相关工作由于深度学习技术1发展迅速,图像修复也渐渐成为了计算机视觉的热门研究方向.Goodfellow 等人2在 2014 年首次提出 GANs 应用于图像处理方面.Pathak等人3提出了 Context-Encoder 网络,将编码解码网络结构与生成对抗网络相结合,以对抗损失和图像重构损失作为约束条件提高模型的图像修复能力.Iizuka 等人4提出了全局和局部判别器网络,引入扩张卷积增大感受野,通过双判别器来提升网络对全局信息和局部信息的融合利用,使得图像修复结果不仅符合全局语义,整体也更加合理.Liu 等人5提出部分卷积修复方法,使用 U-Net 网络结构实现图像修复

11、.Yu 等人6提出了一种带有内容感知的前馈生成网络,将注意力机制引入到深度学习图像修复方法中.Yu 等人7提出了一种基于门控卷积的图像修复算法,采用两阶段生成结构.先是在生成器的第 1 阶段,提取图像中的语义信息;然后在生成器第 2 阶段将粗修复网络的结果作为输入,细化生成部分的内容,使生成图像的纹理结构更合理.2网络结构 2.1 修复网络体系结构生成器为两阶段修复,首先,第 1 阶段(粗修复阶段)输入被污染的图像以及污染区域的灰度图,通过网络提取图像中的语义信息;其次,第 2 阶段(精修复阶段)输入第 1 阶段的生成结果,引入连贯语义注意机制更好地对被污染区域以及未被污染区域进行关联,使修复

12、的纹理结构更加合理.两阶段组成完整的修复流程,具体修复网络结构如图 1 所示.由于门控卷积拥有独特的特征筛选能力,所以在生成器部分可以将其用于替代普通卷积,提高图像处理的效率.为了进一步提升处理效果,引入扩张卷积层8,从而拓展了感受范围,提供更丰富的特征信息,促进图像修复,并在模型设计中引入残差思想9,将门控卷积改为残差门控卷积,防止梯度消失问题.在生成器第2 阶段,通过使用连贯语义注意力来将局部特征和全局特征相关联,能够更好地理解图像的整体结构,提高图像的修复效果,解决图像修复细节退化、视觉欠缺问题.G1Gated convDilated res gated convCSAConvG2DCo

13、ncat图 1修复网络体系结构计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期216软件技术算法SoftwareTechniqueAlgorithm 2.2 生成器2.2.1门控卷积门控卷积10最早出现在 NLP 的任务中,取得了良好的结果,Yu 等人7将其引入到图像修复网络.门控卷积学习每个通道和每个空间位置的动态特征选择机制,具体操作的计算公式表达如下:Gatingy,x=WgI(1)Featurey,x=WfI(2)Oy,x=(Featurey,x)(Gatingy,x)(3)WgWf其中,Sigmoid 激活函数用 表示,输出门控值范围为(0,1).可以

14、表示 ReLU、ELU 和 LeakyReLU 等任意激活函数.和代表两个不同的卷积滤波器.门控卷积结构如图 2 所示.OutputFeatureFeatureConvConvConvConvConvSoft gatingSoft gating图 2门控卷积结构图通过在标准卷积后接入 Sigmoid 激活函数,使得门控卷积可以实现软门控,对当前卷积层的输出结果在进入下一个卷积层之前进行加权.在硬门控中,使用0 或 1 来进行加权,但在软门控中,使用 0 到 1 进行加权,这样更加灵活,并且这种操作是可学习的.门控卷积特有的参数动态更新机制,对缺失区域进行动态学习,将缺失区域与已知区域进行有效的

15、动态区分,可以更好地解决局部特征精确描述问题.2.2.2扩张卷积Google 团队11提出的扩张卷积(dilatedconvolution)也被称为空洞卷积或膨胀卷积,它是在标准卷积核中注入空洞,通过拓宽图像的感受野来获取图像中更多的特征信息.相比普通卷积操作,扩张卷积多了个扩张率(dilationrate)参数,扩张率用来定量衡量卷积核超参数的扩张程度.传统的普通卷积就是扩张率为 1 的扩张卷积.图 3 为卷积核尺寸是 33,dilationrate 是 2的扩张卷积示意图.图 3扩张率为 2 的 33 卷积核的扩张卷积示意图从图 3 可以看出扩张率为 2 的 33 卷积核具有与55 卷积核

16、相同的视野,而且扩张卷积只使用了 9 个参数,也就是说,在相同的计算成本下,扩张卷积计算具有更宽的视野,从而能够捕捉更长的依赖关系.本文将 4 层扩张卷积应用于粗修复阶段的中间部分,扩张卷积层的扩张率自 2 起随层数递增而翻倍增加,将扩张率持续变大的扩张卷积层叠加在一起,以持续增加图像的感受野,从而加强网络对图像整体特征信息的提取和利用.2.2.3残差门控卷积门控卷积的输出门控值通过 Sigmoid 激活函数,输出值在.基于此,门控卷积避免了人为设置的更新方法,通过学习每个通道和每个空间位置的动态特征选择机制,由每一个通道进行动态特征选择,让网络自行学习每一个特征值位置.Sigmoid 激活函

17、数值域为(0,1),由于 Sigmoid 函数值趋近于 0 或 1 时变化平缓,如果隐藏层较多梯度接近 0 时会出现梯度消失问题,在图像修复中导致一些特征无侧重点,引入残差思想,用残差门控卷积替代门控卷积,图 4 为以带扩张的门控卷积为例的残差门控卷积结构.Dilated convDilated convSigmoidLeaky11 Conv输出输入ReLU图 4残差门控卷积结构从图 4 可以看出,在门控卷积的基础上加上一个11 的残差块构成残差门控卷积,对输入的有效特征信息进行卷积,卷积核大小为 11,最后将 11 卷积的输出添加到原门控卷积输出上,目的是提升对有效像素的使用.2.2.4连贯

18、语义注意图像修复任务仅考虑缺失区域与已知区域之间的2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法217关系是不够的,因为其忽略了缺失区域的内容,为了达到更好的图像修复效果,将连贯语义注意(coherentsemanticattention,CSA)层12用于图像修复任务重,不仅分析了缺失区域特征之间的语义相关性,而且可以从已知区域提取缺失区域的信息,通过分析远距离的图像信息、缺失区域之间的关系,可以保证修复结果的局部连续性.MMMmii (1 n)nMmimimim1i1CSA 分为两个阶段实现:

19、搜索和生成.图 5 为CSA 的搜索和生成操作.每张待修复图片中用表示当前图像受污染部分的信息,表示图像中可见的可参考信息,对于中每个(11)生成的补丁(,是补丁的数量),CSA 层在已知区域中搜索最接近匹配的上下文补丁,以在搜索过程中初始化,然后将设置为主要部分,将所有先前生成的补丁()设置为次要部分,以在生成过程中恢复.为了衡量这两个部分的权重,采用以下互相关度量:Dmaxi=mi,mimimi(4)Dadi=mi,mi1mimi1(5)DmaximimiDadiDmaxiDadi其中,代表和上下文区域中最相似的补丁之间的相似度,代表两个相邻生成的补丁之间的相似性.和分别被归一化为上下文补

20、丁部分和所有先前生成的补丁部分的权重.(a)Searching(b)Generatingm2Dmax1Dmax2Dmax3Dmax2Dad2Dad3Dmax3m2m1MMm3m1m1m3m2m3M1M图 5CSA 层示意图MmimimimiCSA 的具体步骤为:首先,我们在洞中搜索每个生成的补丁中最相似的上下文补丁,并用初始化.然后,将先前生成的补丁和最相似的上下文补丁组合起来生成当前补丁.MMMM搜索阶段先提取中的补丁,将补丁重塑为卷积滤波器,然后在上应用卷积滤波器.通过这个操作,我们可以获得一个值向量,表示中的每个补丁与中的所有补丁之间的互相关.在此基础上,对于每个mimiDmaxi生成的

21、补丁,我们用最相似的上下文补丁对其进行初始化,并将最大互相关值分配给它以进行下一步操作.Mm1m1Dad1m1m1m1=m1m2m1m1m1m2Dad2Dad2Dmax2m1m2m2m2=Dad2Dad2+Dmax2m1+Dmax2Dad2+Dmax2m2生成阶段将的左上角块作为生成过程的初始块(在图 5 中用标记).由于没有之前的补丁,所以为 0,我们直接将替换为,.下一个补丁有一个前一个补丁作为附加参考,但我们因此将视为一个卷积滤波器,以测量和之间的互相关度量.然后,将和合并,分别归一化为和的权重,生成新的值,.m1mn综上所述,从到,生成过程可以概括为:m1=m1,Dad1=0(6)mi

22、i(2n)=DadiDadi+Dmaximi+DmaxiDadi+Dmaximi(7)mimim1i1mimi1Dadimim1i1DadiAimiDmaxiDadi+DmaxiDmaxiDadi+DmaxiAi1A1AnMM如式(7)所示,生成操作是一个迭代过程,每个包含和的信息,当我们计算和之间的时,都考虑了和之间的相关性.并且由于值的范围是 0 到 1,因此当前生成的补丁与之前生成的补丁之间的相关性随着距离的增加而降低.基于式(6),我们得到了一个注意力图,它记录了的和,然后到形成一个注意力矩阵,最后将中提取的补丁重新用作反卷积滤波器以重建.CSA 算法具体流程如算法 1 所示.算法 1

23、.CSA 算法流程Fin输入:当前批次的特征图集Fout输出:重构的特征图1)搜索:M2)将重塑为卷积滤波器并将其应用于 M;Dmaximi3)用式(4)计算并得到;mimi4)用初始化;5)结束搜索.6)生成:7)fori=1ndo;Dadi8)用式(5)计算;miAi9)用式(7)得到的注意力图;10)endfor;A1An11)将到结合得到一个注意力矩阵;MFout12)重用作为反卷积得到;13)结束生成.Fout14)返回.计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期218软件技术算法SoftwareTechniqueAlgorithm 2.3 判别

24、器马尔可夫判别器(PatchGAN)13一种仅在补丁范围内进行“惩罚”的鉴别器,如图 6 所示,PatchGAN 在输入上滑动一个 NN 的窗口,并生成一个分数,输出矩阵的每个值表示对应的图像补丁是真实的还是人为生成的概率.Real labelFake labelPrediction图 6马尔可夫判别器谱归一化马尔可夫判别器(spectralnormalizedPatchGAN,SN-PatchGAN)用于训练自由形式的图像修复网络,它直接对卷积判别器的输出特征图中的每个点应用 GAN 损失,从而产生高质量的修复效果.采用光谱归一化马尔可夫判别器作为模型判别器,通过对图像修复网络特征图进行检验

25、,将修复后的图像与真实图像进行判别,并采用谱归一化方法对 GANs 的训练进行进一步的稳定,网络通过判别器来进行对抗训练,进而提升生成器的生成效果.2.4 损失函数训练模型的损失函数包括像素级 L1 重建损失以及 SN-PatchGAN 损失两个损失项,用来平衡这两个损失项的超参数为 1:1.为了区分输入的真假,以铰链损失(hingeloss)作为目标函数:LDsn=ExPdata(x)ReLU(1Dsn(x)+EzPz(z)ReLU(1Dsn(z)(8)LG=EzPz(z)Dsn(G(z)(9)Dsn其中,表示谱归一化判别器,G 是带有不完整图像z 的图像修复网络.由于谱归一化判别器中已经编

26、码了类似的补丁级别信息,所以这里的损失函数不再使用感知损失.3图像质量评价指标文献 6 中提到图像修复缺乏良好的定量评价指标.本文使用 L1、L2 损失函数、峰值信噪比(PSNR)以及结构相似度(SSIM)这 4 种指标来评估图像修复的结果.L1 损失函数被用于最小化误差,即真实图像与修复图像间全部绝对差的总和.L1=1nni=1?ytrueypredicted?(10)L2 损失函数用于最小化误差,该误差是真实图像和修复图像所有平方差的总和.L2=1mmi=1(ytrueypredicted)2(11)峰值信噪比(PSNR)是评价图像质量的一个指标,PSNR 值越大,图像失真越少.PSNR=

27、10log10(2bits1)2mL2(12)结构相似性(SSIM)是衡量真实图像和生成图像相似度的指标,SSIM 值越大代表图像越相似.SSIM(x,y)=(2xy+C1)(2xy+C2)(2x+2y+C1)(2x+2y+C2)(13)xxyy2xx2yyxyxyC1=(k1L)2C2=(k2L)2Lk1=0.01 k2=0.03其中,是 的平均值,是 的平均值,是 的方差,是 的方差,是 和 的协方差.,是维持稳定的常数.是像素值的动态范围.,.4实验及结果分析 4.1 实验数据实验使用的数据集是 Places365 数据集14,包含数百个实际场景的综合场景,能够更好地结合各个场景的图像修

28、复,从中选取 30000 张图片作为本文实验数据集.矩形掩码为随机生成破损区域的方式,随机掩码使用的是文献 7 中提出的.4.2 实验设置本文模型使用 PyTorch 深度学习框架.同时使用CUDA11.0 和 CuDNN8.0 加速模型训练,硬件设备配置表如表 1 所示.模型选择 Adam 优化器,学习率大小为 0.0001,总计迭代 30 万次.2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法219表 1硬件设备配置表设备名称型号显卡RTX3080处理器AMD73022(32核64线程)系统内存

29、512GB系统类型及版本Ubuntu20.04 4.3 实验结果对比与分析为验证算法的有效性,将本文提出的算法通过矩形掩码以及不规则掩码在图像质量评价指标上与基线进行对比,具体结果如表 2 所示.由表 2 可以看出,当掩码为矩形掩码时,本文算法在 L1 指标上提升了 0.14%,在 L2 指标上提升了 0.04%,PSNR 提升了 0.41dB,SSIM 提升了 0.75%;掩码为不规则掩码时,本文算法 L1 提升了 0.3%,L2 提升了 0.05%,PSNR 提升了 0.55dB,SSIM 提升了 1.23%.可以得出,本文的算法在各项指标上都优于基线算法.表 2图像质量评价指标对比Mas

30、kMethodL1(%)L2(%)PSNR(dB)SSIMRectangularmaskDeepfillV28.62.024.630.8540本文算法8.461.9625.040.8615Free-formmaskDeepfillV29.11.625.470.8790本文算法8.81.5526.020.8913除了客观的评价指标,也能从实际的图像修复结果中反映图像的修复效果,本文算法的修复结果与基线的对比如图 7 所示,从左到右依次为受损图像,基线模型结果,本文算法的修复结果以及真实图像.前 2 行为矩形掩码,后 3 行为随机掩码.通过对比图 6 的修复结果可以发现本文算法在图像纹理、边缘细节

31、上的处理都是优于基线的.(a)受损图像(b)基线修复结果(c)本文修复结果(d)真实图像图 7修复结果对比计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期220软件技术算法SoftwareTechniqueAlgorithm5结论与展望本文提出了一种基于生成对抗网络的图像修复模型,在生成器阶段采用门控卷积网络,使用两阶段修复法,在第 1 阶段加入扩张卷积并引入残差思想,对图像进行粗修复,在第 2 阶段引入连贯语义注意对生成区域像素资源再次分配,根据语义进行引导修复,从而提升语义的连贯性.使用谱归一化马尔可夫判别器给生成器提供精细的反馈,从而提高图像的修复质量.通

32、过实验表明,本文提出的图像修复模型修复效果良好,使修复区域内容更丰富,纹理更逼真.本文希望在下一步工作中,能够对图像缺失部分的关键特征信息进行更好地研究以及得到多重修复结果,达到更好的修复效果.参考文献赵露露,沈玲,洪日昌.图像修复研究进展综述.计算机科学,2021,48(3):1426.doi:10.11896/jsjkx.2101000481GoodfellowIJ,Pouget-AbadieJ,MirzaM,et al.Generativeadversarial nets.Proceedings of the 27th InternationalConference on Neural

33、Information Processing Systems.Montreal:MITPress,2014.26722680.2PathakD,KrhenbhlP,DonahueJ,et al.Contextencoders:Featurelearningbyinpainting.Proceedingsofthe2016IEEEConference on Computer Vision and Pattern Recognition.LasVegas:IEEE,2016.25362544.3Iizuka S,Simo-Serra E,Ishikawa H.Globally and locall

34、yconsistent image completion.ACM Transactions onGraphics,2017,36(4):107.4Liu GL,Reda FA,Shih KJ,et al.Image inpainting forirregularholesusingpartialconvolutions.Proceedingsofthe15th European Conference on Computer Vision.Munich:Springer,2018.89105.5YuJH,LinZ,YangJM,et al.Generativeimageinpainting6wi

35、th contextual attention.Proceedings of the 2018IEEE/CVF Conference on Computer Vision and PatternRecognition.SaltLakeCity:IEEE,2018.55055514.YuJH,LinZ,YangJM,et al.Free-formimageinpaintingwithgatedconvolution.Proceedingsofthe2019IEEE/CVFInternationalConferenceonComputerVision.Seoul:IEEE,2019.4470447

36、9.7YuF,KoltunV.Multi-scalecontextaggregationbydilatedconvolutions.arXiv:1511.07122,2015.8Yi ZL,Tang Q,Azizi S,et al.Contextual residualaggregation for ultra high-resolution image inpainting.Proceedingsofthe2020IEEE/CVFConferenceonComputerVision and Pattern Recognition.Seattle:IEEE,2020.75057514.9Dau

37、phinYN,FanA,AuliM,et al.Languagemodelingwithgated convolutional networks.Proceedings of the 34thInternational Conference on Machine Learning.Sydney:PMLR,2017.933941.10Chen LC,Papandreou G,Kokkinos I,et al.DeepLab:Semanticimagesegmentationwithdeepconvolutionalnets,atrous convolution,and fully connect

38、ed CRFs.IEEETransactionsonPatternAnalysisandMachineIntelligence,2018,40(4):834848.doi:10.1109/TPAMI.2017.269918411LiuHY,JiangB,XiaoY,et al.Coherentsemanticattentionfor image inpainting.Proceedings of the 2019 IEEE/CVFInternationalConferenceonComputerVision.Seoul:IEEE,2019.41694178.12Demir U,Unal G.P

39、atch-based image inpainting withgenerativeadversarialnetworks.arXiv:1803.07422,2018.13ZhouBL,LapedrizaA,KhoslaA,et al.Places:A10millionimagedatabaseforscenerecognition.IEEETransactionsonPattern Analysis and Machine Intelligence,2018,40(6):14521464.doi:10.1109/TPAMI.2017.272300914(校对责编:牛欣悦)2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法221

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服