收藏 分销(赏)

基于改进SqueezeNet的颜色恒常性计算.pdf

上传人:自信****多点 文档编号:2271862 上传时间:2024-05-24 格式:PDF 页数:7 大小:1.22MB
下载 相关 举报
基于改进SqueezeNet的颜色恒常性计算.pdf_第1页
第1页 / 共7页
基于改进SqueezeNet的颜色恒常性计算.pdf_第2页
第2页 / 共7页
基于改进SqueezeNet的颜色恒常性计算.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基于改进 SqueezeNet 的颜色恒常性计算张金友1,张霞2,徐亮山31(武汉大学图像传播与印刷包装研究中心,武汉 430079)2(武汉大学土木建筑工程学院,武汉 430079)3(深圳市腾讯计算机系统有限公司,深圳510310)通信作者:张霞,E-mail:摘要:由于成像设备存在的缺陷,容易引起成像色彩的偏移,影响图像算法的下游任务,因此需要采用颜色恒常性算法实现图像色彩的矫正,保证图像颜色与人眼看到的色彩保持一致.传统颜色恒常性算法的效果依赖于特定的光源环境,为了提升算法的适用范围和使用效率,提出了一种基于 SqueezeNet 框架的颜色恒常性计算模型,通过卷积图像网络感知图像光源

2、,并引入了注意力机制和残差连接,提升网络对图像的理解和计算性能.网络同时预测输入图像各区域的光照颜色,再通过设计 3 种不同池化方式汇聚,输出图像的全局估计光源,最后利用估计光源矫正图像.实验结果表明,提出的光源估计算法能够有效地估计图像光照颜色,矫正图像色彩.关键词:颜色恒常性;光源估计;SqueezeNet;注意力机制;残差连接引用格式:张金友,张霞,徐亮山.基于改进 SqueezeNet 的颜色恒常性计算.计算机系统应用,2023,32(10):208214.http:/www.c-s- Constancy Calculation Based on Improved SqueezeNet

3、ZHANGJin-You1,ZHANGXia2,XULiang-Shan31(ResearchCenterofGraphicCommunication,PrintingandPackaging,WuhanUniversity,Wuhan430079,China)2(SchoolofCivilEngineering,WuhanUniversity,Wuhan430079,China)3(ShenzhenTencentComputerSystemCo.Ltd.,Shenzhen510310,China)Abstract:Duetothedefectsofimagingequipment,itise

4、asytocausetheshiftoftheimagingcolorandaffectthedownstreamtasksoftheimagealgorithm.Therefore,thecolorconstancyalgorithmisrequiredtocorrecttheimagecolorsothattheimagecolorisconsistentwiththecolorseenbythehumannakedeye.Theeffectofthetraditionalcolorconstancyalgorithmdependsonspecificlightsourceenvironm

5、ents.Inordertoimprovetheapplicationrangeandutilizationefficiencyofthecolorconstancyalgorithm,acolorconstancycalculationmodelbasedontheSqueezeNetframeworkisproposed,whichsensestheimagelightsourcethroughtheconvolutionalimagenetwork.Inaddition,theattentionmechanismandresidualconnectionareintroducedtoim

6、provethenetworksunderstandingofimagesandcomputingperformance.Thenetworkpredictstheilluminationcolorofeachareaoftheinputimageatthesametimeandthengathersthembydesigningthreedifferentpoolingmethodstooutputtheglobalestimatedlightsourceoftheimage,anditfinallyusestheestimatedlightsourcetocorrecttheimage.E

7、xperimentalresultsshowthattheproposedlightsourceestimationalgorithmcaneffectivelyestimatetheilluminationcoloroftheimageandcorrecttheimagecolor.Key words:colorconstancy;lightestimation;SqueezeNet;attentionmechanism;residualconnection计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:ComputerSystems&Applications,

8、2023,32(10):208214doi:10.15888/ki.csa.009232http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041基金项目:国家自然科学基金(62175191)收稿时间:2023-03-03;修改时间:2023-04-04;采用时间:2023-04-07;csa 在线出版时间:2023-07-21CNKI 网络首发时间:2023-07-21208软件技术算法SoftwareTechniqueAlgorithm物体的颜色属性,是人眼感知世界中重要的组成部分.物体的颜色在不同光源下会发生改变,但是人眼能够在不同光源条件下保持对物

9、体颜色感知恒定,此特性被称作人眼的颜色恒常性.与人眼不同,在成像设备采集的数字图像中,光源会导致图像中的物体颜色发生变化,这些颜色变化会影响图像下游任务如图像理解1、图像分割2等算法3的性能.在实际应用中,拍摄的图像往往会受到多种条件如环境、灯光、天气的影响,图像的成像质量也因此降低,需要采用图像处理算法尽可能消除数字图像中场景光源的影响,将图像中物体的颜色还原到标准光源下,这类还原图像物体颜色的方法统称为颜色恒常性算法.颜色恒常性算法可以显著提高计算机对图像场景的理解4和对象的识别.为了去除图像中光源带来的色偏影响,颜色恒常性算法的步骤多为:首先估计光照颜色,然后利用 vonKries5提出

10、的对角模型对图像进行颜色矫正,因此光照颜色的估计值准确与否,是图像最终矫正效果的关键.颜色恒常性算法通常分为两类,一类是静态算法,一类是基于学习的算法.静态算法具有无监督的特性,通过分析图像中的颜色统计规律,寻找图像中的灰色像素,进行光源估计,无需对数据进行标注.例如基于Retinex 理论6的 WhitePatch7、MaxRGB8,9和 Greyworld10算法.vandeWeijer 等人11提出 GreyEdge 算法框架,通过设定相应的参数就可以实现 WhitePatch,MaxRGB 和 Greyworld 等算法.这些算法易于理解计算且相对简单,但是对图像场景条件有较高的要求,

11、当图像不满足这些算法的场景要求,算法的准确率会大幅度降低.基于学习的算法分为基于传统学习的颜色恒常性算法和基于深度学习的颜色恒常性算法.基于传统学习的颜色恒常性算法包括相关颜色法12、色域映射法13,14和贝叶斯颜色恒常性15算法.这类算法对于数据集同样有着较高的要求,如果数据集中没有囊括大多数的空间和纹理信息,将产生不准确的光源估计,最终影响算法的效果.基于深度学习的算法在近年来逐渐涌现.卷积神经网络作为深度学习的经典框架,通过使用大量数据集进行训练,能够从多维度提取图像的特征,得到图像的估计光照值1619.CNN 在颜色恒常性算法取得了相对静态算法和传统学习算法更高的效率和更好的效果.最早

12、是由 Bianco 等人20使用 AlexNet 和 SVR 和基于CNN 的模型计算光照估计值.Domislovi等人21使用具有 5 个卷积层和大小为 11 的卷积核的模型,Hu 等人22提出的全卷积神经网络 Fc4,通过对图像分块,对不同图像块赋予不同置信度估计光源,实现了更高的效率和准确性.另外还有使用生成对抗式网络算法,如pix2pix23、starGan24等,能够将非标准光源下的图像直接转换称标准光源下的图像,实现图像颜色恒常性,也取得了优秀的结果.本文提出了一种基于深度学习的方法,采用 Squeeze-Net 全卷积神经网络,引入了注意力机制和残差模块进行学习训练.网络使用完整

13、图像作为输入,通过卷积神经网络,计算图像不同区域的局部光照颜色,然后通过设计不同池化汇聚得到图像的全局光照,最后使用对角模型将图像矫正到标准光源下.1光照颜色估计网络SqueezeNet 是 Iandola 等人25提出的 CNN 模型,是一种轻量级的模型,能够在保证模型精度的基础上,提高模型的处理速度.SqueezeNet 的核心模块为 FireModule,其结构如图 1 所示.输入的特征图先经过卷积核大小为 11 的卷积层(Squeeze 层),将特征图压缩,再经过卷积核大小为 11 和 33 的混合卷积层(Expand层),最后将输出进行拼接(concate),得到下一模块的输入.使用

14、 11 的卷积核替换大部分 33 的卷积核,可以有效减少网络模型参数的数量,同时达到延迟下采样的效果,最终产生较大的特征图,提升网络性能.kernel=11num=e1Xinkernel=11num=e1kernel=33num=e2kernel=11num=e1+e2XoutConcateSqueeze 层Expand 层图 1FireModule 结构本文基于 SqueezeNet 的构造的颜色恒常网络模型结构图如图 2 所示.色偏图像输入到网络模型中,经过33 卷积,再经过 7 个 FireModule,然后连接一个最大池化层、一个 66 卷积层和一个 11 卷积层,得到不同区域的光照估

15、计值,最后连接池化层,通过设计不同的方式汇聚光照估计,计算得到最终的全局估计光源.在图 2 中,每个 FireModule 下方有 4 个参数.第 1 个2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法209参数是指 FireModule 的输入通道数,第 2 个参数意为FireModule 中 Squeeze 层 11 卷积数量,第 3 和第4 个参数意为 FireModule 中 Expand 层的 11 卷积数量和 33 卷积数量.Expand 层中两种卷积数量的和为FireModule 的输

16、出通道数.1.1 基于残差连接的 Fire Module为了提高模型的光源估计准确性,降低模型复杂度,减少过拟合,根据 ResNet26的原理,对模型进行改进.具体改进如图 3 所示:将图 1 中输出通道数相同的FireModule 添加旁路连接,也就是对 SqueezeNet 网络中的 Fire3、Fire5、Fire7 模块添加残差连接,将输入的张量和经过 FireModule 输出的张量加和后将作为下一个模块的输入.修改后的 FireModule 命名为residualfiremodule(RFM).Conv1(33,stride=2)Fire2(64,16,64,64)Fire3(12

17、8,32,128,128)Fire4(128,16,64,64)Fire5(256,32,128,128)Fire6(256,48,192,192)Fire7(384,48,192,192)Fire8(384,64,256,256)Conv9(66,stride=1)Conv10(11,stride=1)Max Pool(Stride=2)Max Pool(Stride=2)Max Pool(Stride=2)Global矫正图像Max Pool(Stride=2)局部光源估计Mean poolingMedian poolingConfidence poolingillumination图 2

18、颜色恒常模型结构图11 Conv11 Conv33 Conv(concate)XoutXin图 3RFM 的结构示意图通过引入残差连接,将经过 FireModule 的输入特征图和输出特征图相加,可以实现信息的多层跨越,解决梯度消失和梯度爆炸的问题;通过多个层的堆叠,可以提升神经网络的非线性拟合能力,提升网络的训练速度和准确度.1.2 基于注意力机制的残差模块注意力机制是一种资源分配方式,算法从关注整体到关注重点,将计算资源分配给更重要的任务.本文模型基于通道注意力机制,受 SeNet27启发,在 RFM网络的基础上,设计一个 ResidualFireModulebasedSeNet(RFMS

19、),如图 4 所示.如图 4 所示,输入的张量除了经过 RFM 模块以外,还需要通过平均池化后再经过两个全连接层(FC 层),经过 Sigmoid 函数对不同特征图通道输出 01之间权重(),再与原输入张量相乘保持维度一致,最后与 RFM 模块输出的张量加和,以得到下一个模块的输入.Sigmoid11 Conv11 Conv33 ConvXin(concate)XresAvg.PoolFC1ReLUFC2XoutXin图 4通道注意力机制结构图基于 FireModule 添加的全连接层、Sigmoid 函数以及张量加和等操作,就是添加的注意力通道.由于图像的光照信息常常隐藏在图像的灰色像素中,

20、使用通道注意力机制,神经网络可以将算力偏重于对图像的通道信息处理上,捕捉输入数据中三通道数据相近的像素信息,更好的理解图像,提升模型的准确性.1.3 池化层图像输入到网络模型后,经过卷积模块和最大池化层(MaxPool)提取特征,得到局部光照颜色,最终需计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期210软件技术算法SoftwareTechniqueAlgorithm要池化层对局部光照颜色整合输出,得到最终的图像全局光照颜色.为了评估得到效果最好的池化层,本文模型测试了 3 种池化方式.(1)加和平均池化(meanpooling):对模型输出的局部光照颜色值求

21、和,然后归一化得到全局光照:L=normalizeni=1Li(1)(2)中值池化(medianpooling):计算局部光照颜色的三通道中值,然后进行归一化,得到全局光照:L=normalize(median(L1,L2,Ln)(2)(3)置信度加和池化(confidencepooling):将图 3中 Conv10 的输出通道改为 4,前三维输出图像某区域的光照估计值,第四维输出该区域的置信度 C(confi-dence),得到全局光照颜色估计值:L=normalizeni=1LiCi(3)1.4 损失函数层在颜色恒常性算法中,为了直观地表示光源的颜色,我们直接使用光照的色度值表示光源.在

22、进行光照误差度量时,光照的亮度可以轻易通过光照向量的模值进行调整,因此只需要比较估计光照与真实光照之间的向量方向差异,忽视光照向量模值差异.光照的色度由红绿蓝三通道组成,估计光照与真实光照在三维空间的夹角被称为角度误差,本文模型选取角度误差作为损失函数的修正模型参数.公式如下:L=arccosLestLgtLest?Lgt?180(4)LestLgtLest?Lgt?其中,为模型所得估计光源的三通道值,为图像的真实光照值,和分别为它们的模.通过角度误差公式可以计算得到两光源在三维空间中的立体角,立体角越小,意味着二者越接近,模型效果越好.当损失函数 L 足够小并趋于一个相对稳定的值时,停止训练

23、.2实验部分 2.1 数据集为了测试模型效果,实验选用 ColorChecker 数据集和 NUS-8camera 数据集作为原始数据集.ColorChecker 数据集由 Canon1D 相机拍摄的86 张图片和 Canon5D 相机拍摄的 468 张照片组成.作者在拍摄时在场景中放置了 24 色卡,数据集中记录了色卡的坐标,方便实验人员对色卡进行遮盖,防止色卡的存在影响模型算法的稳健性.NUS-8camera 数据集与 ColorChecker 数据集类似,同样有色卡和色卡坐标,用于计算场景中的光源颜色.不同的是,NUS-8camera 数据集规模更大,由 8 个相机拍摄的 1736 张图

24、像组成.原始数据集规模较小,为了防止模型过拟合,提升模型最终的效果,对数据集通过旋转、缩放进行扩充.图像旋转:首先设置一个 0.11 的裁剪系数,对数据集图像进行裁剪,然后将图像围绕中心随机旋转3030,并将裁剪后的图像调整至 512512.图像缩放:将旋转后的数据集每张图像的光照颜色值和真实光源值按照 0.61.4 内的随机比例进行缩放,然后使用 Gamma 矫正对图像的动态范围进行调整,对像素值进行归一化.将扩充后的数据集随机分为 3 份,其中任意 2 份用于训练,还有 1 份用于测试,分别训练出 3 个模型.然后使用三折交叉验证,对不同数据集计算得到的角度误差做几何平均.2.2 实验设备

25、及训练SqueezeNet 是一款轻量级网络,对于服务器硬件要求不高.实验设备使用 Linux 的 Ubuntu16.04 版本系统,GPU 为 GeForceGTX1080Ti,CPU 为 i7-4790k,使用 PyTorch 框架,Python 版本为 Python3.6.使用在ImageNet 上训练好的 SqueezeNet 参数作为本文模型骨干网络的参数,Adam 参数优化器对整个网络权重迭代更新.所有训练过程中,epoch 为 2000,batchsize 为16,优化器基础学习率为 0.0001.此外,为防止过拟合,将模型中的 dropout 设置为 0.5,网络每一层的 we

26、ightdecay 设置为 5105.为了提升每个数据集的使用效率,将数据集平均分为 3 份,使用其中的两份作为训练集,剩下一份作为测试集,依次训练出 3 个模型,然后再将结果做几何平均,作为最终的算法输出结果.图 5 是本文算法的损失函数收敛曲线,横轴代表训练的迭代次数,纵轴是角度误差.从图像中可以看出,基本上可以在 200 轮左右趋于平稳,最终角度误差收敛到 1.5 左右.2.3 算法评价指标由于色偏图像是基于网络对图像计算得到的全局估计光源值进行矫正的,因此图像的估计光源值准确2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqu

27、eAlgorithm软件技术算法211与否是衡量算法可行性的关键.角度误差作为评价图像估计光源与真实光源偏差的指标,能够最大程度地反映图像矫正结果,因此角度误差除了作为损失函数以外,还是作为评价颜色恒常性算法效果的重要指标.模型训练完成后,使用模型对每张测试图像得到的估计光源进行处理,计算与场景真实光源的角度误差,统计角度误差的平均值(mean)、中值(median)、三重均值(tri-mean)、最优的 25%均值(best25%)和最差的25%均值(worst25%),并将最终得到的结果与其他模型对比,评价模型的效果.500000角度误差()角度误差()角度误差()(a)收敛曲线 1(b)

28、收敛曲线 2(c)收敛曲线 3510151 0001 500epochepochepoch500201030401 0001 50050020103040501 0001 500训练集的 loss 曲线测试集的 loss 曲线图 5损失函数收敛曲线3结果与讨论RFM 模块和 RFMS 模块的实验结果如表 1 所示.表 1实验数据集上的实验结果MethodMeanMedianTri-meanBest25%Worst25%SqueezeNet1.701.241.330.393.83RFM1.691.191.400.383.85RFMS1.611.161.300.353.60由表 1 中结果可以看出

29、,RFM 和 RFMS 模块在角度误差的各项数据上面都有所提升,说明模块总体上会对于本文模型的效果产生积极的影响.尤其是 RFMS模块,其在角度误差均值上对模型有 0.08 的提升,在三重均值有 0.1 的提升,证明了基于注意力机制的残差连接能够帮助模型更有效地获取图像底层信息,计算图像的估计光源.针对第 1.3 节提出的几种池化方式做测试对比,3 种池化方式都基于 RFMS 模块设计,实验结果如表 2所示.表 2不同池化方式对聚合全局光照估计的影响池化方式Mean MedianTri-meanBest25%Worst25%加和平均池化1.611.161.300.353.60中值池化1.571

30、.121.200.323.59置信度池化1.531.101.160.333.57实验结果表明,置信度池化对于模型聚合全局光照的效果最好.这是因为图像各个部分的光照具有差异性,简单地对网络输出的图像块的局部光照信息进行加和得到的实验结果不够符合自然规律,不一定能够得到效果最好的光照估计值;而置信度池化能够针对各个图像块的光源估计输出一个置信度分数,使得模型更高效地应用神经网络输出的信息,提高网络计算估计光源的效率,因此表现出了更好的性能.图 6 显示了静态算法与本文算法颜色恒常处理效果.从图像的处理结果可以看出:静态算法对于场景的适应性不足,在不同光照条件或者不同环境下效果非常不稳定,最终呈现出

31、不同程度的偏色,总体在光照弱的环境下偏蓝或偏黄,在光照强的地方效果较好,在室外环境下算法效果相对较好,但在室内环境下算法效果相对较差.表 3 是本文算法与常用的静态算法、基于学习的算法的角度误差指标对比.结果表明,本文模型的效果与传统静态方法和传统基于学习的方法相比,在所有指标均有很大程度的提高,说明基于卷积神经网络的算法模型能够更好地提取图像特征,理解图像局部之间的关系,输出更准确的图像光照信息,且具有很高的稳定性,适用范围更加广泛,在不同的光源场景下都有着不错的实验效果,基于深度学习的算法在和深度学习的方法相比,在大多数指标下仍然有更好的表现,体现了本文算法的有效性.4结论本研究提出了一种

32、基于全卷积神经网络的颜色恒常性算法.本文模型以 SqueezeNet 作为骨干网络,保证了模型的训练速度,设计了 RFM 模块和 RFMS 模块,替代 SqueezeNet 中的 FireModule,并设计了不同的池计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期212软件技术算法SoftwareTechniqueAlgorithm化方式汇聚图像块光源信息计算估计光源.实验结果表明,基于注意力的残差连接模块能够更好地帮助模型获取图像特征,理解图像底层信息,输出图像的局部光源,使用置信度池化方式估计光源,能够更高效地汇聚图像光源信息,矫正色偏图像.通过在 Col

33、orChecker数据集和 NUS-8camera 数据集上进行训练和测试,获得了相比于静态方法、传统学习算法和一些深度学习方法更好的效果,验证了本文算法的有效性.(a)输入图像(b)Grey world(c)SOG(d)WP(e)GE(f)Our method4.106.1911.1799.781.527.466.4313.3210.961.4512.0510.7511.4615.921.2912.099.144.994.041.759.446.866.292.671.294.106.1911.1799.787.466.4313.3210.961.4512.0510.7511.4615.92

34、1.2912.099.144.994.046.866.292.671.29图 6不同颜色恒常算法效果比较表 3本文算法在实验数据集上与现有算法的比较分类算法MeanMedianTri-meanBest25%Worst25%静态算法Whitepatch77.555.686.351.4516.12GreyWorld106.366.286.282.3310.581stOrderGE115.334.524.731.8610.03ShadeofGrey284.934.014.231.1410.20基于传统学习算法Baysian154.823.463.881.2610.49EdgebasedGamut13

35、6.525.045.431.9013.58深度学习算法DS-Net(HpyNet+SelNet)291.901.121.330.314.84AlexNet-FC4221.771.111.290.344.29SqueezeNet-FC4221.651.181.270.383.78Ourmethod1.531.101.160.333.57下一步研究选取更大的数据集进行训练,提升网络在不同场景下的适应范围;另外探索基于 Transformer等新型的网络框架进行改进;并将处理好的图像提供给目标检测、语义分割等图像算法,探究颜色恒常性处理效果对于图像下游任务的影响.参考文献Chen YH,Chao T

36、H,Bai SY,et al.Filter-invariant image1classification on social media photos.Proceedings of the23rd ACM International Conference on Multimedia.Brisbane:ACM,2015.855858.Afifi M,Brown MS.What else can fool deep learning?Addressingcolorconstancyerrorsondeepneuralnetworkperformance.Proceedingsofthe2019IE

37、EE/CVFInternationalConferenceonComputerVision.Seoul:IEEE,2019.243252.2DiamondS,SitzmannV,Julca-AguilarF,et al.Dirtypixels:Towardsend-to-endimageprocessingandperception.ACM32023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法213TransactionsonGraphics,2021,40(3):23.Sidorov O.Artifi

38、cial color constancy via GoogleNet withangularlossfunction.AppliedArtificialIntelligence,2020,34(9):643655.doi:10.1080/08839514.2020.17306304WortheyJA,BrillMH.HeuristicanalysisofvonKriescolorconstancy.Journal of the Optical Society of America A,1986,3(10):17081712.doi:10.1364/JOSAA.3.0017085LandEH,M

39、cCannJJ.Lightnessandretinextheory.JournaloftheOpticalSocietyofAmerica,1971,61(1):111.doi:10.1364/JOSA.61.0000016Land EH.The retinex theory of color vision.ScientificAmerican,1977,237(6):108 128.doi:10.1038/scientificamerican1277-1087FuntB,ShiLL.TheeffectofexposureonMaxRGBcolorconstancy.Proceedings o

40、f the 2010 SPIE 7527,HumanVisionandElectronicImagingXV.SanJose:SPIE,2010.282288.8Funt BV,Shi LL.The rehabilitation of MaxRGB.Proceedingsofthe18thColorandImagingConference.SanAntonio,2010.256259.9BuchsbaumG.Aspatialprocessormodelforobjectcolourperception.JournaloftheFranklinInstitute,1980,310(1):126.

41、doi:10.1016/0016-0032(80)90058-710van de Weijer J,Gevers T,Gijsenij A.Edge-based colorconstancy.IEEE Transactions on Image Processing,2007,16(9):22072214.doi:10.1109/TIP.2007.90180811FinlaysonGD,HordleySD,HubelPM.Colorbycorrelation:A simple,unifying framework for color constancy.IEEETransactionsonPa

42、tternAnalysisandMachineIntelligence,2001,23(11):12091221.doi:10.1109/34.96911312GijsenijA,GeversT,vandeWeijerJ.Generalizedgamutmapping using image derivative structures for colorconstancy.InternationalJournalofComputerVision,2010,86(2):127139.13Barnard K.Improvements to gamut mapping colourconstancy

43、 algorithms.Proceedings of the 6th EuropeanConference on Computer Vision.Dublin:Springer,2000.390403.14Brainard DH,Freeman WT.Bayesian color constancy.JournaloftheOpticalSocietyofAmericaA,1997,14(7):13931411.doi:10.1364/JOSAA.14.00139315Espejo-GarciaB,MylonasN,AthanasakosL,et al.Towardsweeds identif

44、ication assistance through transfer learning.Computers and Electronics in Agriculture,2020,171:105306.doi:10.1016/pag.2020.10530616Gao SB,Zhang M,Li YJ.Improving color constancy byselecting suitable set of training images.Optics Express,2019,27(18):2561125633.doi:10.1364/OE.27.02561117HussainMA,Akba

45、riAS.Colorconstancyadjustmentusingsub-blocksoftheimage.IEEEAccess,2018,6:4661746629.doi:10.1109/ACCESS.2018.286679218XueSY,GaoSB,TanMJ,et al.Howdoescolorconstancyaffect target recognition and instance segmentation?Proceedingsofthe29thACMInternationalConferenceonMultimedia.ACM,2021.55375545.19Bianco

46、S,Cusano C,Schettini R.Color constancy usingCNNs.Proceedings of the 2015 IEEE Conference onComputer Vision and Pattern Recognition Workshops.Boston:IEEE,2015.8189.20Domislovi I,Vrnak D,Subai M,et al.One-net:Convolutionalcolorconstancysimplified.PatternRecognitionLetters,2022,159:3137.doi:10.1016/j.p

47、atrec.2022.04.03521HuYM,WangBY,LinS.FC4:Fullyconvolutionalcolorconstancywithconfidence-weightedpooling.Proceedingsofthe2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Honolulu:IEEE,2017.330339.22IsolaP,ZhuJY,ZhouTH,et al.Image-to-imagetranslationwith conditional adversarial networks.Pr

48、oceedings of the2017 IEEE Conference on Computer Vision and PatternRecognition.Honolulu:IEEE,2017.59675976.23ChoiY,ChoiM,KimM,et al.StarGAN:Unifiedgenerativeadversarial networks for multi-domain image-to-imagetranslation.Proceedingsofthe2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.Sal

49、tLakeCity:IEEE,2018.87898797.24Iandola FN,Han S,Moskewicz MW,et al.SqueezeNet:AlexNet-level accuracy with 50 x fewer parameters and0.5MBmodelsize.Proceedingsofthe2017ICLR.2017.25HeKM,ZhangXY,RenSQ,et al.Deepresiduallearningforimagerecognition.Proceedingsofthe2016IEEEConference on Computer Vision and

50、 Pattern Recognition.LasVegas:IEEE,2016.770778.26Hu J,Shen L,Sun G.Squeeze-and-excitation networks.Proceedingsofthe2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.SaltLakeCity:IEEE,2018.71327141.27Finlayson GD,Trezzi E.Shades of gray and colourconstancy.Proceedings of the 12th Color Imag

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服